Thermoformage du verre - Développement numérique d'un modèle thermomécanique - Thèse Informatique

Thermoformage du verre - Développement numérique d'un modèle thermomécanique - thèse Informatique - Revenir à l'accueil

 

Autres thèses en informatique :

[TXT]

 APISENSE-a-distribut..> 05-Jan-2015 08:09  5.7M  

[TXT]

 APISENSE-terminaux-i..> 04-Jan-2015 21:53  5.4M  

[TXT]

 Addition-formulae-on..> 04-Jan-2015 21:26  3.0M  

[TXT]

 Architecture-de-comm..> 05-Jan-2015 08:04  4.4M  

[TXT]

 Catalogage-de-petits..> 05-Jan-2015 08:06  3.8M  

[TXT]

 Classification-et-ca..> 04-Jan-2015 11:58  1.3M  

[TXT]

 Collaboration-de-tec..> 04-Jan-2015 21:27  2.4M  

[TXT]

 Completion-combinato..> 05-Jan-2015 08:11  2.6M  

[TXT]

 Contributions-a-la-v..> 04-Jan-2015 21:51  5.4M  

[TXT]

 Cryptographie-sur-le..> 05-Jan-2015 08:01  3.4M  

[TXT]

 Detection-de-rails-m..> 05-Jan-2015 08:04  5.1M  

[TXT]

 Environnements-urbai..> 05-Jan-2015 08:03  6.3M  

[TXT]

 Equilibrage-de-charg..> 04-Jan-2015 21:25  3.2M  

[TXT]

 Evaluation-analytiqu..> 05-Jan-2015 08:07  3.5M  

[TXT]

 Faciliter-le-develop..> 04-Jan-2015 21:56  4.4M  

[TXT]

 Factorisation-matric..> 04-Jan-2015 11:59  2.7M  

[TXT]

 Generation-automatiq..> 03-Jan-2015 22:04  2.6M  

[TXT]

 Gestion-de-la-variab..> 04-Jan-2015 21:55  4.8M  

[TXT]

 Idéalisation-d-asse..> 04-Jan-2015 11:57  2.1M  

[TXT]

 Inference-d-invarian..> 04-Jan-2015 11:58  1.5M  

[TXT]

 Integration-de l-inf..> 04-Jan-2015 21:25  3.4M  

[TXT]

 Intelligence-en-essa..> 05-Jan-2015 08:03  5.6M  

[TXT]

 Interrogation-de-gra..> 03-Jan-2015 22:04  2.9M  

[TXT]

 La-gestion-du-trafic..> 03-Jan-2015 22:01  4.1M  

[TXT]

 Langage-de-mashup-Th..> 04-Jan-2015 21:24  4.1M  

[TXT]

 Les-logiciels-de-ges..> 03-Jan-2015 22:03  3.1M  

[TXT]

 Lh-rs-p2p-une-nouvel..> 04-Jan-2015 11:59  2.7M  

[TXT]

 Mesure-de-la-fragili..> 04-Jan-2015 21:24  3.8M  

[TXT]

 Meta-modelisation-du..> 04-Jan-2015 21:56  4.1M  

[TXT]

 Methode-de-classific..> 04-Jan-2015 11:58  1.3M  

[TXT]

 Methode-de-game-desi..> 05-Jan-2015 08:10  4.2M  

[TXT]

 Methodes-sequentiell..> 04-Jan-2015 21:27  2.2M  

[TXT]

 Mise-en-oeuvre-appli..> 04-Jan-2015 21:54  4.4M  

[TXT]

 Modele-et-experience..> 05-Jan-2015 08:01  3.8M  

[TXT]

 Modelisation-d-une-a..> 04-Jan-2015 21:53  5.0M  

[TXT]

 Modelisation-et-dete..> 04-Jan-2015 11:57  1.6M  

[TXT]

 Normalisation-et-App..> 03-Jan-2015 22:01  4.1M  

[TXT]

 Nouvelles-approches-..> 05-Jan-2015 08:09  2.3M  

[TXT]

 Planification-d-une-..> 05-Jan-2015 08:06  4.1M  

[TXT]

 Prise-en-compte-de-l..> 03-Jan-2015 22:04  2.8M  

[TXT]

 Qualification-system..> 04-Jan-2015 21:26  2.8M  

[TXT]

 Reconnaissance-de-co..> 03-Jan-2015 22:03  3.6M  

[TXT]

 Segmentation-supervi..> 04-Jan-2015 11:58  1.3M  

[TXT]

 Services-de-repartit..> 03-Jan-2015 21:59  4.7M  

[TXT]

 Techniques-visuelles..> 04-Jan-2015 21:27  2.7M  

[TXT]

 The-Emergence-of-Mul..> 03-Jan-2015 22:05  2.5M  

[TXT]

 Trigraphes-de-Berge-..> 03-Jan-2015 22:02  3.9M  

[TXT]

 Un-ilot-formel-pour-..> 05-Jan-2015 08:07  3.1M  

[TXT]

 Vers-une-capitalisat..> 03-Jan-2015 22:00  4.6M
Congrès d'informatique :

[TXT]

 Application-Agnostic..> 03-Jan-2015 21:16  2.1M  

[TXT]

 Continuity-Editing-f..> 03-Jan-2015 17:35  4.0M  

[TXT]

 Double-WP-Vers-une-p..> 03-Jan-2015 17:36  4.0M  

[TXT]

 Effective-Reproducib..> 03-Jan-2015 21:18  2.0M  

[TXT]

 Enforcing-reuse-and-..> 03-Jan-2015 21:17  2.0M  

[TXT]

 Extracting-Bounded-s..> 03-Jan-2015 21:19  4.0M  

[TXT]

 Fingerprint-Quality-..> 03-Jan-2015 21:16  2.1M  

[TXT]

 GPU-Load-Balance-Gui..> 03-Jan-2015 21:18  4.0M  

[TXT]

 Minkowski-sum-of-pol..> 03-Jan-2015 21:17  2.0M  

[TXT]

 Quality-Assessment-o..> 03-Jan-2015 21:16  2.1M  

[TXT]

 Rester-statique-pour..> 03-Jan-2015 17:35  4.0M  

[TXT]

 The-Power-of-Polynom..> 03-Jan-2015 21:16  2.1M  
Cours d'informatique :

[TXT]

 Analyse-numerique-Co..> 03-Jan-2015 17:33  3.0M  

[TXT]

 Approches-m-k-firm-p..> 03-Jan-2015 17:27  3.7M  

[TXT]

 COURS-LA-CULTURE-INF..> 03-Jan-2015 17:25  3.8M  

[TXT]

 CRYPTANALYSE-DE-RSA-..> 03-Jan-2015 17:33  3.0M  

[TXT]

 Cours-Interconnexion..> 03-Jan-2015 17:34  3.0M  

[TXT]

 Cours-d-Analyse-et-C..> 03-Jan-2015 17:22  3.9M  

[TXT]

 Efficient-C++finite-..> 03-Jan-2015 17:30  3.5M  

[TXT]

 Efficient-C++finite-..> 03-Jan-2015 17:31  3.2M  

[TXT]

 Fondements-de-l-Info..> 03-Jan-2015 17:22  4.0M  

[TXT]

 INTRODUCTION-A-L-INF..> 03-Jan-2015 17:24  3.8M  

[TXT]

 Informatique-et-Ling..> 03-Jan-2015 17:24  3.8M  

[TXT]

 Initiation-a-l-infor..> 03-Jan-2015 17:26  3.8M  

[TXT]

 Intelligence-Artific..> 03-Jan-2015 15:16  2.5M  

[TXT]

 Introduction-a-l-ana..> 03-Jan-2015 17:27  3.7M  

[TXT]

 Introduction-a-la-ge..> 03-Jan-2015 17:26  3.8M  

[TXT]

 Le-routage-externe-B..> 03-Jan-2015 17:32  3.1M  

[TXT]

 Le-systeme-d-informa..> 03-Jan-2015 17:32  3.1M  

[TXT]

 Lecture1_Linear_SVM_..> 03-Jan-2015 14:57  2.4M  

[TXT]

 Lecture2_Linear_SVM_..> 03-Jan-2015 14:56  2.4M  

[TXT]

 Lecture3_Linear_SVM_..> 03-Jan-2015 14:56  2.4M  

[TXT]

 Lecture4_Kenrels_Fun..> 03-Jan-2015 14:55  2.4M  

[TXT]

 Lecture5_Kernel_SVM...> 03-Jan-2015 14:55  2.4M  

[TXT]

 Lecture6_SVDD.pdf.htm   03-Jan-2015 14:54  2.4M  

[TXT]

 Lecture7_Cross_Valid..> 03-Jan-2015 14:54  2.4M  

[TXT]

 Lecture8_Multi_Class..> 03-Jan-2015 14:57  2.4M  

[TXT]

 Lecture9_Multi_Kerne..> 03-Jan-2015 14:53  2.5M  

[TXT]

 Lecture10_Outilier_L..> 03-Jan-2015 14:53  2.5M  

[TXT]

 Les-reseaux-sans-fil..> 03-Jan-2015 15:17  2.5M  

[TXT]

 NooJ-pour-l-Intellig..> 03-Jan-2015 17:30  3.2M  

[TXT]

 Outils-Logiques-pour..> 03-Jan-2015 15:15  2.8M  

[TXT]

 Presentation-de-la-r..> 03-Jan-2015 17:33  3.0M  

[TXT]

 Projet-IP-SIG-Signal..> 03-Jan-2015 15:16  2.5M  

[TXT]

 Robotique-Mobile-PDF..> 03-Jan-2015 15:16  2.6M  

[TXT]

 Systeme-informatique..> 03-Jan-2015 15:17  2.5M  

[TXT]

 Systemes-Multi-Agent..> 03-Jan-2015 17:28  3.5M  

[TXT]

 Tutoriel-Android-TP-..> 03-Jan-2015 14:57  2.3M  

[TXT]

 Understanding-SVM-th..> 03-Jan-2015 14:57  2.4M  

[TXT]

 Une-histoire-de-la-m..> 03-Jan-2015 17:28  3.5M  

[TXT]

 Une-introduction-aux..> 03-Jan-2015 17:31  3.1M  

[TXT]

 Vers-une-signalisati..> 03-Jan-2015 17:25  3.8M 
Thermoformage du verre - D´eveloppement num´erique d’un mod`ele thermom´ecanique Benjamin Le Corre To cite this version: Benjamin Le Corre. Thermoformage du verre - D´eveloppement num´erique d’un mod`ele thermom´ecanique. Modeling and Simulation. Universit´e de Lorraine, 2014. French. HAL Id: tel-00975511 https://tel.archives-ouvertes.fr/tel-00975511 Submitted on 8 Apr 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.Collegium Sciences et Technologies École doctorale Énergie Mécanique et MAtériaux (EMMA - ED 409) THÈSE présentée et soutenue publiquement le 16 Janvier 2014 pour l’obtention du titre de Docteur de l’Université de Lorraine en Mécanique et Énergétique par Benjamin Le Corre Thermoformage du verre Développement numérique d’un modèle thermomécanique Composition du Jury : Présidente : D. Baillis-Doermann Professeur, INSA Lyon Rapporteurs : M. El Hafi Professeur, École des Mines d’Albi A. Gasser Professeur, Université d’Orléans Directeurs de thèse : G. Jeandel Professeur, Université de Lorraine Y. Meshaka Maître de conférences, Université de Lorraine Examinateur : A. Collin Maître de conférences, Université de Lorraine Invités : P. Boulet Professeur, Université de Lorraine M.-A. Skaper Directrice Recherche et Innovation, CERFAV Laboratoire d’Énergétique et de Mécanique Théorique et Appliquée (UMR 7563), Université de Lorraine Institut Jean Lamour (UMR 7198), Université de Lorraine Centre Européen de Recherche et de Formation aux Arts Verriers (CERFAV), Vannes-le-ChâtelCollegium Sciences et Technologies École doctorale Énergie Mécanique et MAtériaux (EMMA - ED 409) THÈSE présentée et soutenue publiquement le 16 Janvier 2014 pour l’obtention du titre de Docteur de l’Université de Lorraine en Mécanique et Énergétique par Benjamin Le Corre Thermoformage du verre Développement numérique d’un modèle thermomécanique Composition du Jury : Présidente : D. Baillis-Doermann Professeur, INSA Lyon Rapporteurs : M. El Hafi Professeur, École des Mines d’Albi A. Gasser Professeur, Université d’Orléans Directeurs de thèse : G. Jeandel Professeur, Université de Lorraine Y. Meshaka Maître de conférences, Université de Lorraine Examinateur : A. Collin Maître de conférences, Université de Lorraine Invités : P. Boulet Professeur, Université de Lorraine M.-A. Skaper Directrice Recherche et Innovation, CERFAV Laboratoire d’Énergétique et de Mécanique Théorique et Appliquée (UMR 7563), Université de Lorraine Institut Jean Lamour (UMR 7198), Université de Lorraine Centre Européen de Recherche et de Formation aux Arts Verriers (CERFAV), Vannes-le-ChâtelRemerciements J’aimerais tout d’abord remercier les personnes qui ont initié ce projet, à savoir Gérard Jeandel (directeur de thèse, professeur au LEMTA), Yves Meshaka (co-directeur de thèse, enseignantchercheur à l’IJL), Marie-Alice Skaper (Directrice Recherche et Innovation du CERFAV) et Denis Garcia (Directeur du CERFAV) et je souhaiterais souligner le plaisir que j’ai eu de travailler avec eux. Gérard, merci pour ta bonne humeur, ton optimisme et ta volonté de toujours valoriser le travail effectué au cours de cette thèse, cela m’a été d’ailleurs d’un grand soutien dans les quelques moments de doute qui ont jalonné ce projet. Yves, grâce à tes remarques justes, souvent distillées avec un humour subtil, parfois grinçant, j’ai pu découvrir une nouvelle dimension du mot « rigueur ». Cela me permet aujourd’hui de mieux saisir le niveau d’exigence qui est attendu de la part d’un docteur, c’est pourquoi je te suis reconnaissant de m’avoir aidé à progresser, particulièrement sur cet aspect. Marie-Alice, Denis, j’ai beaucoup apprécié votre disponibilité, ainsi que votre volonté de mettre en place un environnement offrant des conditions de travail optimales, une grande part de la réussite de ce projet vous échoit. Je voudrais maintenant exprimer ma sympathie auprès des membres des différentes équipes du CERFAV, du LEMTA et de l’IJL avec lesquels j’ai eu la chance de travailler. Je ne pourrai pas citer tout le monde, néanmoins, chacune des personnes rencontrées a apporté sa pierre à l’édifice. En premier lieu, je ne peux que remercier Anthony Collin pour sa grande disponibilité et un investissement remarquable qui ont donné lieu, notamment, au développement d’un code de Monte-Carlo utilisé pour le calcul des transferts radiatifs dans le verre. Merci aussi à Laëtitia Soudre-Bau, Pascal Boulet, David Lacroix d’avoir répondu à mes questions diverses et variées. Ce fut un plaisir d’avoir travaillé aux côtés de Bader, Bernard, Damien, Gilles, Issiaka, Jérôme, Jonathan, Julien, Lionel, Mickaël, Mohamed, Omar, Sébastien, Simon, Valentin, Zoubir. Je ne voudrais pas oublier non plus le rôle de Valérie, Irène, Édith et Christine qui m’ont sauvé la vie plusieurs fois en ce qui concerne la gestion des dossiers administratifs ! J’exprime ma gratitude aux professeurs Mouna El Hafi, Alain Gasser et Dominique BaillisDoermann pour m’avoir fait l’honneur de participer à mon Jury de thèse et pour avoir évalué ce travail. J’ai une pensée particulière pour les personnes rencontrées au cours de mon périple nancéen ; Charles, David, Salima et Aurélien bien sûr, mais aussi les membres du club d’échecs et du club de karaté, ainsi que ceux du groupe franco-zoreillo-sino-malbar-créole. Pour leur soutien et leur présence, je dédie ce travail à mes proches et souhaitent qu’ils y trouvent ici la preuve de ma reconnaissance et la récompense de leurs efforts.Table des matières Remerciements 3 Tables des matières 5 Table des figures 9 Nomenclature 13 Introduction 17 1 Le verre 21 1.1 Définition et microstructure du verre . . . . . . . . . . . . . . . . . . . . . . . . . 22 1.2 Composition et élaboration du verre . . . . . . . . . . . . . . . . . . . . . . . . . 24 1.3 Caractéristiques du verre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 1.3.1 Propriétés thermiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 1.3.2 Propriétés optiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 1.3.3 Masse volumique et coefficient de dilatation thermique . . . . . . . . . . . 35 1.3.4 Module d’Young et coefficient de Poisson . . . . . . . . . . . . . . . . . . 36 1.3.5 Viscosité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 2 Le thermoformage 41 2.1 Description du procédé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 2.2 Exemples d’application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 2.3 Intérêt de l’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 2.3.1 Les paramètres de l’essai . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 2.3.2 Description du banc d’essai de thermoformage . . . . . . . . . . . . . . . 53 2.3.3 Développement d’un modèle numérique - Objectifs . . . . . . . . . . . . . 55 3 Modélisation du comportement thermomécanique du verre 57 3.1 Modélisation du comportement mécanique . . . . . . . . . . . . . . . . . . . . . . 58 53.1.1 Équations de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 3.1.2 Loi de comportement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 3.1.3 Variation de la viscosité en fonction de la température . . . . . . . . . . . 61 3.1.4 Conditions aux limites mécaniques . . . . . . . . . . . . . . . . . . . . . . 64 3.2 Modélisation du transfert thermique . . . . . . . . . . . . . . . . . . . . . . . . . 64 3.2.1 Résolution de l’équation de la chaleur . . . . . . . . . . . . . . . . . . . . 64 3.2.2 Transfert thermique par conduction . . . . . . . . . . . . . . . . . . . . . 65 3.2.3 Transfert thermique par rayonnement . . . . . . . . . . . . . . . . . . . . 65 3.2.4 Conditions aux limites thermiques . . . . . . . . . . . . . . . . . . . . . . 73 4 Développement d’un code de calcul du transfert radiatif 75 4.1 Méthodes de calcul du transfert radiatif . . . . . . . . . . . . . . . . . . . . . . . 75 4.1.1 Méthode des harmoniques sphériques (ou différentielles P-N) . . . . . . . 76 4.1.2 Méthode des zones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 4.1.3 Méthode des transferts discrets . . . . . . . . . . . . . . . . . . . . . . . . 76 4.1.4 Méthode des ordonnées discrètes . . . . . . . . . . . . . . . . . . . . . . . 76 4.1.5 Méthode de Rosseland . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 4.1.6 Méthodes alternatives : éléments finis et différences finies . . . . . . . . . 77 4.1.7 Méthode de Monte-Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 4.2 Développement de la méthode de Monte-Carlo . . . . . . . . . . . . . . . . . . . 78 4.2.1 Quelques bases théoriques . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 4.2.2 Représentation en 2D, calcul en 3D . . . . . . . . . . . . . . . . . . . . . . 80 4.2.3 Choix des éléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 4.2.4 Tirage du point d’émission et de la direction d’un quantum . . . . . . . . 84 4.2.5 Gestion de l’énergie d’un quantum . . . . . . . . . . . . . . . . . . . . . . 86 4.2.6 Transmission ou réflexion du quantum au dioptre . . . . . . . . . . . . . . 88 4.2.7 Bilan d’énergie sur un élément . . . . . . . . . . . . . . . . . . . . . . . . 89 4.2.8 Propriétés optiques du verre et choix de la fréquence d’un quantum . . . 92 4.2.9 Validation numérique en rayonnement pur . . . . . . . . . . . . . . . . . . 93 4.2.10 Validation numérique en thermique pure . . . . . . . . . . . . . . . . . . . 96 5 Simulation thermomécanique 103 5.1 Problématique du couplage thermique . . . . . . . . . . . . . . . . . . . . . . . . 104 5.2 Étude de la mise en forme du verre avec différents modèles thermiques . . . . . . 106 5.2.1 Thermoformage sur moule . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 5.2.2 Thermoformage en suspension . . . . . . . . . . . . . . . . . . . . . . . . 115 5.2.3 Bilan de l’essai en suspension . . . . . . . . . . . . . . . . . . . . . . . . . 119 Conclusion 121Bibliographie 124 Annexes 135Table des figures 1.1 Variation du volume spécifique du matériau en fonction de la température . . . . 22 1.2 Structures atomiques de la silice (Zachariasen, 1932) . . . . . . . . . . . . . . . . 23 1.3 Structure d’une couche de silice déposée sur un substrat de graphène (Huang et al., 2012) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 1.4 Représentation schématique en deux dimensions du verre silico-sodique (Warren, 1942) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 1.5 Conductivité phonique kc et capacité thermique massique cp de la silice (Kittel, 1949) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 1.6 Conductivité phonique du verre sodo-silico-calcique . . . . . . . . . . . . . . . . . 29 1.7 Capacité thermique massique du verre sodo-silico-calcique . . . . . . . . . . . . . 30 1.8 Indice de réfraction nλ en fonction de la longueur d’onde λ (µm) . . . . . . . . . 31 1.9 Indice de réfraction du verre float (Synowicki et al., 2011) . . . . . . . . . . . . . 32 1.10 Coefficient d’absorption κλ en fonction de la longueur d’onde λ (µm) . . . . . . . 33 1.11 Variations du coefficient d’absorption κλ en fonction de la température (Viskanta et Lim, 2002) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 1.12 Module d’Young et coefficient de Poisson d’un verre sodo-silico-calcique . . . . . 36 1.13 Viscosité d’un verre silico-sodo-calcique en fonction de la température . . . . . . 37 2.1 Les différentes techniques de thermoformage . . . . . . . . . . . . . . . . . . . . . 42 2.2 Exemple d’une courbe de température d’un cycle de thermoformage . . . . . . . 42 2.3 Cycle de mise en forme du pare-brise dans le four . . . . . . . . . . . . . . . . . . 45 2.4 Phénomène de reverse pouvant apparaitre sur un pare-brise . . . . . . . . . . . . 46 2.5 Mise en forme d’une pièce d’optique . . . . . . . . . . . . . . . . . . . . . . . . . 47 2.6 Cycle de température en fonction de l’épaisseur d’une plaque de verre de 35 × 30 mm2 (données CERFAV) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 2.7 Vue du four de thermoformage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 2.8 Appareillage de mesure du four de thermoformage . . . . . . . . . . . . . . . . . 54 2.9 Température de l’air à différentes hauteurs dans le four . . . . . . . . . . . . . . 54 3.1 Couplage thermomécanique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 93.2 Modèle rhéologique de Maxwell . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 3.3 Viscosité de différents verres (Zarzycki, 1982) . . . . . . . . . . . . . . . . . . . . 62 3.4 Courbes WLF et VFT obtenues en utilisant les données expérimentales de (Parsa et al., 2005) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 3.5 Bande de longueurs d’onde du rayonnement thermique . . . . . . . . . . . . . . . 65 3.6 Représentation d’un angle solide . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 3.7 Configuration d’échange entre un élément de surface dS1 et un élément de surface dS2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 3.8 Luminance dans la direction ~s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 3.9 Angle solide représenté en utilisant les coordonnées sphériques . . . . . . . . . . . 68 3.10 Luminance du corps noir en fonction de la longueur d’onde . . . . . . . . . . . . 69 3.11 Bilan du transfert radiatif à la surface d’un milieu opaque . . . . . . . . . . . . . 70 3.12 Type de réflexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 3.13 Représentation des échanges thermiques à la frontière verre/air . . . . . . . . . . 74 4.1 Définition de la direction d’un quantum . . . . . . . . . . . . . . . . . . . . . . . 80 4.2 Envoi de quanta depuis un élément dans un maillage 2D . . . . . . . . . . . . . . 81 4.3 Gamme d’éléments disponibles en 2D dans Abaqus® . . . . . . . . . . . . . . . . 82 4.4 Transformation d’un élément fini du repère de référence au repère réel . . . . . . 83 4.5 Tirage du point d’émission d’un quantum . . . . . . . . . . . . . . . . . . . . . . 85 4.6 Tirage de la direction d’un quantum . . . . . . . . . . . . . . . . . . . . . . . . . 86 4.7 Traversée d’un quadrangle par un quantum . . . . . . . . . . . . . . . . . . . . . 87 4.8 Échanges radiatifs le long d’un chemin optique entre deux éléments de volume dVi et dVj . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 4.9 Enceinte à 300K . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 4.10 Variance de la divergence de flux en fonction du nombre de quanta envoyés . . . 94 4.11 Enceinte à la température Tm et frontières noires à température nulle . . . . . . 95 4.12 Flux radiatif adimensionné reçu par la frontière inférieure de l’enceinte . . . . . . 95 4.13 Enceinte carrée absorbante avec face inférieure à la température Tm et les autres faces à la température 0.5 Tm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 4.14 Comparaison du code de volumes finis avec les résultats de D. Rousse (Rousse et al., 2000) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 4.15 Température de l’air mesurée dans le four au niveau du moule . . . . . . . . . . . 98 4.16 Conditions aux limites thermiques . . . . . . . . . . . . . . . . . . . . . . . . . . 98 4.17 Représentation de la plaque en deux dimensions et maillage . . . . . . . . . . . . 99 4.18 Température au centre de la plaque et sensibilité à la méthode utilisée et au nombre de quanta envoyés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 4.19 Profils de température de la plaque de verre à t = 3000 s . . . . . . . . . . . . . . 1005.1 Principe du couplage thermique fort et du couplage thermique faible . . . . . . . 104 5.2 Température du centre de la plaque de verre et écart entre couplage fort et couplage faible. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 5.3 Géométrie de l’essai sur moule et maillage de la plaque de verre . . . . . . . . . . 107 5.4 Température et déplacement du centre de la plaque de verre au cours de l’essai sur moule . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 5.5 Température le long de l’axe x à t = 2000 s . . . . . . . . . . . . . . . . . . . . . 110 5.6 Formes de la plaque de verre à t = 3855 s et t = 12000 s . . . . . . . . . . . . . 111 5.7 Température et déplacement du centre de la plaque en faisant varier la valeur de Kg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 5.8 Température et déplacement du centre de la plaque en faisant varier la valeur de cp113 5.9 Modification des conditions aux limites radiatives . . . . . . . . . . . . . . . . . 114 5.10 Température et déplacement du centre de la plaque avec les nouvelles conditions aux limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 5.11 Géométrie de l’essai en suspension . . . . . . . . . . . . . . . . . . . . . . . . . . 116 5.12 Température de l’air imposée pour les conditions aux limites . . . . . . . . . . . 116 5.13 Température et déplacement du centre de la plaque de verre au cours de l’essai en suspension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 5.14 Ecarts absolus et relatifs du déplacement du centre de la plaque . . . . . . . . . . 118 5.15 Formes de la plaque à t = 8000 s . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 A.1 Milieu optiquement épais de coefficient d’extinction βν . . . . . . . . . . . . . . . 135 A.2 Algorigramme du code de Monte-Carlo (méthode réciproque) . . . . . . . . . . . 138 A.3 Glass sagging process . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 A.4 Numerical benchmark . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 A.5 Results of the radiative code . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 A.6 Geometry of the studied case . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 A.7 Mesh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 A.8 Radiative conductivity as a function of temperature . . . . . . . . . . . . . . . . 149 A.9 Air temperature during the process . . . . . . . . . . . . . . . . . . . . . . . . . . 150 A.10 Temperature (a) and displacement (b) of the plate center . . . . . . . . . . . . . 151 A.11 Temperature along the x-axis at t = 2000 s . . . . . . . . . . . . . . . . . . . . . 152 A.12 Plate shape at 3855 s (a) and 12000 s (b) . . . . . . . . . . . . . . . . . . . . . . 153 A.13 Modification of the boundary conditions . . . . . . . . . . . . . . . . . . . . . . . 155 A.14 Temperature (a) and displacement (b) evolution after modification of the boundary conditions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156Nomenclature Grandeurs - Lettres romaines c Vitesse de la lumière [m.s −1 ] cp Capacité thermique massique à pression constante [J.kg−1 .K−1 ] cv Capacité thermique massique à volume constant [J.kg−1 .K−1 ] E Module d’Young [Pa] G Module de cisaillement [Pa] k Indice optique d’absorption [-] K Module de compression [Pa] Kg Coefficient d’échange global [W.m−2 .K−1 ] kc Conductivité phonique [W.m−1 .K−1 ] L Luminance [W.m−2 .sr−1 ] L 0 Luminance spectrale du corps noir [W.m−2 .sr−1 ] M Émittance [W.m−2 ] M0 Émittance du corps noir [W.m−2 ] n Indice optique de réfraction [-] P Puissance [W] Q Flux thermique [W] s Abscisse curviligne [m] S Surface [m2 ] t Temps [s] T Température [°C ou K] Tf Température de fusion ou de solidification du verre [°C ou K] Tg Température de transition vitreuse [°C ou K] V Volume [m3 ] 13Grandeurs - Lettres grecques αl Coefficient de dilatation thermique au-dessus de Tg [K−1 ] αs Coefficient de dilatation thermique en-dessous de Tg [K−1 ] α Absorptivité [-] β Coefficient d’extinction [m−1 ] γ˙ Vitesse de cisaillement [s−1 ] ε Émissivité [-] η Viscosité dynamique [Pa.s] ηb Module visqueux de compressibilité [Pa.s] ηs Module visqueux de cisaillement [Pa.s] θ Angle polaire [rad] κ Coefficient d’absorption [m−1 ] λ Longueur d’onde [m] ν Fréquence [s−1 ] νp Coefficient de Poisson [-] νη Coefficient de Poisson visqueux [-] ρ Réflectivité [-] ρv Masse volumique [kg.m−3 ] σ Contrainte [Pa] σd Coefficient de diffusion [m−1 ] τ Transmittivité [-] ϕ Angle azimutal [rad] Φ Fonction de phase [-] Ω Angle solide [sr]Vecteurs ~f Vecteur des forces volumiques [N.m−3 ] ~q Vecteur densité de flux thermique [W.m−2 ] −→qc Vecteur densité de flux thermique conductif [W.m−2 ] −→qr Vecteur densité de flux thermique radiatif [W.m−2 ] ~s Vecteur unitaire associé à la direction d’émission [-] −→Ts Vecteur des efforts surfaciques [Pa] ~u Vecteur déplacement [m] X~ Vecteur coordonnées [m] ~γ Vecteur accélération [m.s −2 ] Tenseurs E Tenseur de Green-Lagrange [-] F Tenseur gradient de la déformation [-] ε Tenseur des déformations [-] σ Tenseur des contraintes [Pa] Constantes c0 Vitesse de la lumière dans le vide [2, 998.108 m.s −1 ] h Constante de Planck [6, 626.10−34 J.s] kB Constante de Boltzmann [1, 381.10−23 J.K−1 ] σB Constante de Stefan-Boltzmann [5, 67.10−8 W.m−2 .K−4 ] Notations mathématiques ~a Vecteur a Matrice t a Matrice transposée −−−→ grad Opérateur gradient div Opérateur divergence ∂ Dérivée partielle d Différentielle totaleIntroduction Un bref historique du verre Le verre est un des plus anciens matériaux utilisé par l’Homme. Dès la préhistoire, l’obsidienne, roche volcanique à base de silice, était taillée pour confectionner des outils et des armes (Scholze, 1980; Zarzycki, 1982). La fusion du verre a été mise en œuvre vers 2500 avant JC : des perles étaient réalisées par pressage et des baguettes par étirage à des fins de décoration. L’invention de la canne à souffler au 1er siècle avant J.-C. va révolutionner la fabrication du verre. Elle permettra notamment de créer des formes beaucoup plus complexes. Une seconde révolution apparaitra presque 20 siècles plus tard avec la mécanisation et l’industrialisation des procédés de fabrication. Citons notamment, dans les années 1950, l’invention du procédé float, solidification du verre sur bain d’étain, qui permet de produire du verre plat à des cadences qui peuvent atteindre jusque 1000 tonnes/jour (Lehmann, 2010). Aujourd’hui, les procédés de mise en forme sont très diversifiés. Parmi les plus utilisés, on retrouve le pressage, le soufflage, l’étirage, le fibrage et le thermoformage. C’est ce dernier qui fait l’objet de ce travail de thèse. Contexte et problématique Les artisans éprouvent des difficultés à maîtriser parfaitement la mise en forme du verre par thermoformage. Conscient des problèmes rencontrés par les verriers, le CERFAV 1 , en association avec le LEMTA 2 , l’IJL 3 , le CIRTES 4 et les cristalleries de Daum et Baccarat, ont initié le projet MIPIVERRE5 . Celui-ci a été déposé en 2006 et soutenu financièrement par l’ANR 6 , le FEDER 7 , la Région Lorraine et le Conseil Général de Meurthe-et-Moselle. L’objectif est de permettre une meilleure maîtrise du procédé de mise en forme du verre en réduisant les coûts et délais de fabrication, d’objets de géométries complexes vendus en petites ou moyennes séries. Le projet a fait l’objet de deux thèses, l’une portant sur le remplissage de moule (Nguyen, 2009) et l’autre 1. Centre Européen de Recherches et de Formation aux Arts Verriers 2. Laboratoire d’Énergétique et de Mécanique Théorique et Appliquée 3. Institut Jean Lamour 4. Centre français de développement rapide de produits en Europe 5. labellisé par le pôle de compétitivité lorrain MIPI : Matériaux Innovants, Produits Intelligents 6. Agence Nationale de la Recherche 7. Fonds Européen de DÉveloppement Régional 17Introduction sur le thermoformage du verre (Soudre, 2008). La présente thèse s’inscrit dans la continuité de cette dernière. À long terme, la problématique à laquelle doit répondre la section du projet sur le thermoformage du verre est la suivante : connaissant le type de verre, la géométrie du four et la forme finale souhaitée, quels sont le chargement thermique, le moule (matériau et géométrie) et la forme initiale à imposer pour obtenir le produit conforme ? Afin d’apporter des éléments de réponse, L. Soudre a conçu et développé un banc d’essais original et novateur dédié au thermoformage qui permet la mesure sans contact du champ de température dans le four et à la surface du verre ainsi que la mesure du champ de déplacements. Le four utilisé est équipé de 6 résistances, placées sur la voûte, qui rayonnent dans la gamme de l’infrarouge. Le verre étant un matériau optiquement semi-transparent, le chauffage se fait par absorption de l’énergie radiative émise depuis les résistances et par convection avec des échanges entre l’air et la surface du verre. Le développement d’un modèle numérique complet incluant mécanique et thermique ou tenant compte des transferts par conduction et rayonnement, n’a pas pu être mené à son terme. C’est pourquoi le CERFAV a financé une deuxième thèse, labellisée par le pôle de compétitivité lorrain MATERALIA (fusion de MIPI et P2MI 8 ), qui fait l’objet de ce présent rapport et dont l’objectif principal est la mise en place d’un modèle numérique complet pour simuler la mise en forme du verre lors du thermoformage. Le fait de simuler le procédé de thermoformage présente trois intérêts. Le premier consiste à étudier l’influence des paramètres sur la mise en forme du verre. Ainsi, il est possible de s’affranchir d’une campagne d’essais qui est plus coûteuse en matière et qui peut aussi s’avérer plus longue (ce dernier point dépend néanmoins de la puissance de calcul et de la précision du modèle numérique). Le second intérêt repose sur une étude approfondie de l’influence du transfert radiatif durant la mise en forme. Dans la majorité des travaux de simulation numérique, les hypothèses retenues pour prendre en compte le rayonnement sont assez basiques. Or, à une température qui dépasse nécessairement 600°C, le mode de transfert par rayonnement a un impact non négligeable. Le troisième intérêt s’inscrit sur le long terme, au-delà du projet de thèse. Une fois qu’un modèle numérique performant sera développé en 3D, il sera possible d’inverser le problème : connaissant la géométrie finale de la pièce que l’on souhaite obtenir, les paramètres qu’il faut imposer pour obtenir le résultat voulu seront déterminés numériquement. Plan du rapport Le document s’organise de la façon suivante : 8. Procédés de Mise en œuvre des Matériaux Innovants 18Introduction • le chapitre 1 donne la définition scientifique d’un verre et se focalise plus particulièrement sur la composition, l’élaboration et les propriétés physiques du verre à vitre de composition silico-sodo-calcique ; • le chapitre 2 introduit le thermoformage. Il y est expliqué en quoi consiste le procédé et plusieurs exemples d’application sont abordés. La façon dont la modélisation sera mise en œuvre est précisée à la fin du chapitre ; • la modélisation du comportement thermomécanique du verre est décrite dans le chapitre 3. Une attention particulière est accordée au transfert radiatif ; • le chapitre 4 détaille le fonctionnement et le développement du code de Monte Carlo permettant de calculer le transfert radiatif ayant lieu au sein du verre. Ce code est ensuite validé sur plusieurs cas-tests ; • les simulations numériques couplant le programme éléments finis Abaqus® avec le code basé sur la méthode de Monte Carlo sont présentées dans le chapitre 5. Le transfert radiatif est abordé de manière exhaustive. 19Chapitre 1 Le verre Selon les récits de Pline l’ancien (23 - 79 ap. J.-C.), le verre aurait été élaboré involontairement par des marchands phéniciens, lorsque ceux-ci préparaient leur repas sur les rives du fleuve Belus. Ne trouvant pas de pierre pour soutenir leurs marmites, ils utilisèrent des blocs de natron (carbonate de sodium) issus de leur cargaison. Sous l’effet de la chaleur dégagée par le feu, le sable aurait fusionné avec le natron pour donner naissance au verre. Cette histoire est aujourd’hui considérée comme une légende, car la température atteinte par le feu dans les conditions susmentionnées est vraisemblablement inférieure à la température de fusion du verre. Devenu un matériau indispensable dans notre vie quotidienne, le verre est à l’heure actuelle produit en grande quantité. Par exemple, pour l’année 2011, il représente un volume de 5 millions de tonnes en France (d’après les chiffres de la fédération de l’industrie du verre). Dans le sens commun, on entend par verre un matériau constituant le vitrage, les ampoules, les récipients, qui pourrait être défini de manière empirique comme étant dur, fragile et transparent. D’un point de vue scientifique, cette définition est, si ce n’est incorrecte, du moins incomplète : le verre est décrit non pas en termes d’utilisation ou de propriétés physiques mais défini d’un point de vue thermodynamique et structural, ce que nous proposons d’expliquer ici dans la première partie de ce chapitre. Dans la seconde partie du chapitre, sont répertoriées les caractéristiques physiques du verre. La mise en forme du verre est pilotée par la viscosité qui est elle-même très dépendante de la tempé- rature. C’est pourquoi une attention particulière a été accordée aux propriétés thermiques. Les propriétés mécaniques sont aussi abordées dans ce chapitre et cela se traduit par le recensement des valeurs usuelles de masse volumique, module d’Young, coefficient de Poisson, que l’on peut retrouver dans la littérature scientifique. 21Chapitre 1 : Le verre 1.1 Définition et microstructure du verre Lorsque qu’un liquide est refroidi, celui-ci commence à se solidifier après avoir atteint la tempé- rature de fusion (ou solidification) Tf . Si la vitesse de refroidissement est suffisamment lente, le liquide devient alors un cristal comme le montre la figure 1.1 (Scholze, 1980). Température Volume Tg Tf Liquide surfondu Liquide Verre Cristal Figure 1.1 – Variation du volume spécifique du matériau en fonction de la température À l’opposé, un verre est généralement défini comme un solide issu du refroidissement d’un liquide sans qu’il n’ait subi de cristallisation (Scholze, 1980; Zarzycki, 1982; Phalippou, 2001). Pour obtenir un verre, il est donc nécessaire de refroidir rapidement le liquide qui se retrouve alors sous l’état de liquide surfondu (en-dessous de Tf ) dans un équilibre métastable. Cela implique que si le refroidissement s’arrête ou qu’il n’est pas assez rapide, le liquide surfondu se réorganise d’un point de vue atomique pour finalement former un cristal. Cependant, cette réorganisation est d’autant plus lente que l’on se rapproche de la température dite de transition vitreuse Tg car la viscosité augmente et limite le mouvement des atomes. Dans le cas où le liquide surfondu continue à être refroidi assez rapidement, la cristallisation ne s’opère pas. En-dessous de Tg, la viscosité est tellement importante que le matériau peut être considéré comme figé. On obtient alors l’état vitreux qui caractérise un solide hors équilibre non cristallisé qui se trouve dans un état configurationnel stable. La valeur de la viscosité à Tg est généralement comprise entre 1012 et 1014 Pa.s (Mazurin, 2007). Par ailleurs, la température de transition vitreuse peut dépendre de différents facteurs (par exemple la vitesse de refroidissement) et il est alors recommandé de parler d’un domaine de transition. Comme le verre est le produit d’un liquide figé, sa structure atomique est amorphe. Cela signifie qu’il n’existe pas d’ordre atomique à longue distance. L’adjectif amorphe est à distinguer de l’adjectif vitreux. En effet, amorphe renvoie à l’ordre atomique, vitreux renvoie à la définition plus générale du verre et notamment au fait qu’il présente une très forte viscosité en-dessous du domaine de transition vitreuse. Ainsi, cela permet de distinguer le verre de certains polymères ou gels présentant des structures amorphes. La figure 1.2 représente les différentes structures atomiques prises par la silice telles qu’elles 221.1 Définition et microstructure du verre (a) Cristal de silice silicium oxygène (b) Verre de silice Figure 1.2 – Structures atomiques de la silice (Zachariasen, 1932) ont été pensées par (Zachariasen, 1932) et validées par diffraction des rayons X par (Warren, 1937). Dans le cristal de silice, les motifs se répètent et il existe un ordre à longue distance. Ce n’est pas le cas du verre de silice qui présente une structure amorphe. Comme il s’agit d’une représentation plane, il faut en fait concevoir que la structure est composée de tétraèdres dont les sommets sont les atomes d’oxygène et dont le centre est un atome de silicium. Assez remarquablement, deux études assez récentes viennent encore confirmer l’hypothèse de Zachariasen (Poggemann et al., 2001; Huang et al., 2012). Dans le cas de ce dernière article, l’image d’une couche 2D de silice déposée sur un substrat de graphène et prise à l’aide d’un microscope électronique à balayage par transmission peut s’observer sur la figure 1.3. Figure 1.3 – Structure d’une couche de silice déposée sur un substrat de graphène (Huang et al., 2012) Cette image correspond bien à celle de la silice amorphe. La théorie de Zachariasen et Warren, précédemment citée, met aussi en évidence le rôle spécifique des atomes que l’on retrouve dans un verre. Ainsi, les oxydes SiO2, B2O3 ou encore P2O5 sont appelés formateurs de réseau. Ces espèces, lorsqu’elles sont portées à haute température puis refroidies, vont former un verre. Il existe aussi des oxydes dits modificateurs qui peuvent rompre les liaisons du réseau. En effet, dans la silice pure, un atome d’oxygène dit « pontant » est relié à deux atomes de silice formant 23Chapitre 1 : Le verre Figure 1.4 – Représentation schématique en deux dimensions du verre silico-sodique (Warren, 1942) la liaison Si-O-Si. L’inclusion d’oxyde de sodium qui apparait dans le réseau sous la forme d’un ion Na+ vient rompre cette liaison Si-O-Si. L’oxygène, qui n’est alors plus relié qu’à un seul atome de silice, est qualifié de « non pontant ». La représentation schématique du réseau est alors celle de la figure 1.4. Les oxydes Na2O, K2O, CaO, MgO et PbO sont identifiés par Warren comme des modificateurs de réseau. 1.2 Composition et élaboration du verre Les caractéristiques et l’usage d’un verre dépendent principalement de sa composition. Ainsi, les verres utilisés pour le vitrage, la cuisine, les arts, l’isolation (fibres de verre), le confinement des matières radioactives, ont tous une structure atomique amorphe mais des compositions très différentes. Dans le cas des verres à usage courant, il est possible de distinguer globalement 4 classes de composants, certaines ayant déjà été mentionnées dans le paragraphe précédent. ◦ Les vitrifiants : ils conduisent, par refroidissement, à la formation d’un verre. - la silice SiO2, il s’agit du matériau de base du verre à vitre. Le sable de Fontainebleau, souvent utilisé comme matière première, est composé à plus de 99,5 % de silice ; - le borax B2O3, il est notamment utilisé pour les verres de cuisine ou de laboratoire et permet de diminuer le coefficient d’expansion thermique et ainsi d’améliorer la résistance du verre aux chocs thermiques ; - l’anhydride phosphorique P2O5 que l’on retrouve dans les verres d’optique. ◦ Les fondants : ils permettent d’abaisser la température de fusion de la silice qui est de l’ordre de 1750 °C aux alentours de 1500 °C, afin d’économiser de l’énergie et d’augmenter la durabilité 241.2 Composition et élaboration du verre des réfractaires en contact avec la fonte de verre. - l’oxyde de sodium Na2O, obtenu par décomposition de carbonates synthétiques ; - l’oxyde de potassium K2O, provenant de nitrate de potassium KNO3. Il est notamment utilisé pour les verres de soufflage car il permet une meilleure malléabilité sur une plus grande gamme de température (appelé un verre long dans le jargon) ; - l’oxyde de magnésium MgO, extrait d’un minerai appelé dolomite. Au-delà de son rôle de fondant, il augmente la résistance chimique du verre. ◦ Les stabilisants : ils améliorent la stabilité chimique du verre. Sans eux, le verre serait soluble au contact de l’eau. - l’oxyde de calcium CaO (chaux vive) qui est issu du calcaire CaCO3 ; - l’oxyde de plomb PbO qui entre dans la composition du cristal et qui accroit aussi sa masse volumique et son éclat. 1 ; - l’alumine Al2O3 extraite du minerai de bauxite. ◦ Les agents secondaires ou additifs : ils donnent des propriétés particulières au verre. - l’oxyde de fer Fe2O3 pour colorer le verre. Il fait aussi office de stabilisant ; - les oxydes métalliques Cr2O3, CoO, CuO et les lanthanides CeO2, Nd2O3 utilisés pour la coloration (Pajean, 2007) ; - l’oxyde de soufre SO3 pour ajuster l’état d’oxydoréduction. Type de verre SiO2 B2O3 Al2O3 PbO CaO MgO Na2O K2O Silico-sodo-calcique 72 2 9 3 14 Borosilicate 80 12,5 2 5,5 Cristal 51 39 1,7 7,6 Tableau 1.1 – Pourcentage massique des principaux constituants de différents types de verre (Phalippou, 2001) Le tableau 1.1 fournit des compositions usuelles d’un verre à vitre silico-sodo-calcique, d’un verre de cuisine borosilicaté et d’un verre de cristal. Il existe des gammes de variation assez importantes pour chaque type de verre. Ainsi, pour un verre à vitre, les pourcentages massiques de SiO2, Na2O et des autres éléments peuvent respectivement varier entre 70 et 75 %, entre 11 et 16 % et entre 10 et 15 % (Fourment et Fromentin, 2000). De ces compositions vont dépendre les caractéristiques du verre. La plus dépendante de toutes est probablement la viscosité. Cependant, la composition affecte aussi les propriétés mécaniques (masse volumique, module d’Young, coefficient de dilatation thermique), thermiques (chaleur spécifique, conductivité thermique) et 1. Cependant, le plomb est aujourd’hui peu à peu remplacé par des matériaux de substitution à cause de son impact sur la santé et l’environnement (Hynes et Jonson, 1997). Le cristal doit être suffisamment stable pour éviter la migration du plomb dans les liquides en contact du verre. Les normes à respecter, imposées par l’union européenne, sont entrées en vigueur le 18 Décembre 2006 dans le cadre du règlement REACH. 25Chapitre 1 : Le verre optiques (coefficient d’absorption, indices optiques) du verre. Concernant l’élaboration du verre, celle-ci peut se décomposer en 4 phases (Falipou, 1998; Fourment et Fromentin, 2000) : - la fusion : les matières premières du verre sont chauffées à une température de l’ordre de 1500 °C. Il est intéressant de noter qu’une quantité importante de verre broyé appelé calcin est ajoutée au mélange. Dans le cadre d’une politique de développement durable et d’économie des coûts, cette proportion augmente toujours plus et peut atteindre jusqu’à 90% de la composition ; - l’affinage : lors de la fusion, les composés gazeux produits par les diverses réactions chimiques doivent être éliminés. Cela peut être réalisé par agitation mécanique ou par introduction d’air, de vapeur d’eau ou encore de dioxyde de soufre qui entraîne la formation de bulles qui emmènent les composés gazeux vers la surface ; - l’homogénéisation : il s’agit d’assurer que la composition chimique et physique de la masse vitreuse est uniforme. Généralement, cette étape a lieu dans le bassin de fusion en même temps que l’affinage ; - le conditionnement : le verre doit être porté à température de travail en vue d’être mis en forme. Les canaux, appelés « feeders » dans l’industrie verrière, assurent la transition entre le four et les machines de formage et sont équipés d’appareillage de chauffage et refroidissement. Deux grandes technologies existent pour l’élaboration des produits verriers : le four à pot ou le four à bassin. Le four à pot est la plus ancienne des deux. Dans un grand four, les matières premières sont placées dans des pots ou creusets qui sont ensuite chauffés jusqu’à la température de fusion du verre. L’affinage et l’homogénéisation sont réalisés par le courant induit à l’intérieur des pots qui subissent des changements de température au cours du cycle d’élaboration. La durée de vie des pots est limitée à 5 ou 6 mois d’utilisation. Avant l’industrialisation des procédés, les fours à pot étaient alimentés en bois. Depuis, les fours sont alimentés au gaz ou au fioul. Compte-tenu de leurs rendements de production plus faibles que les fours à bassin, l’intérêt des fours à pot réside dans leur capacité à travailler avec différentes compositions (si besoin, une par creuset). Le four à bassin est aujourd’hui la technologie la plus utilisée. Dans le cas de la production du verre à vitre silico-sodo-calcique, le procédé « float » a amené une véritable révolution industrielle. Développé dans les années 50 par Alastair Pilkington, il consiste à déposer un verre fondu sur un bain d’étain en fusion. Contrairement aux fours à pots, les fours à bassin permettent de réaliser les 4 étapes de l’élaboration du verre de manière continue. En termes d’alimentation, l’énergie peut être apportée par des combustibles fossiles s’il s’agit de fours à flammes ou par effet Joule pour des fours électriques. 261.3 Caractéristiques du verre 1.3 Caractéristiques du verre La mise en forme du verre va dépendre du chargement thermique imposé, de la géométrie de la pièce et de ses propriétés physiques. Dans le cadre du thermoformage, la caractéristique du verre la plus importante est la viscosité. C’est elle qui contrôle la vitesse de déformation en fonction de la contrainte appliquée et elle est très dépendante de la température. C’est pourquoi les propriétés thermiques et optiques ont aussi leur importance. Elles ont une influence sur la répartition des flux thermiques au sein du verre et donc sur le champ de température de la pièce. Quant à la masse volumique du verre, au module d’Young, au coefficient de Poisson ou au coefficient d’expansion thermique, ils ont une influence non négligeable sur la déformation du verre. Ainsi, la présente section propose de répertorier les valeurs des propriétés du verre issues de la littérature scientifique. 1.3.1 Propriétés thermiques On distingue ici les propriétés thermiques du verre de ses propriétés optiques. Les propriétés optiques influent sur le transfert radiatif mais n’apparaissent pas explicitement dans l’équation de la chaleur, au contraire de la capacité thermique massique à pression constante cp et de la conductivité thermique kc. Il y a plus de 60 ans, Kittel (1949), se basant sur l’hypothèse du réseau désordonné de Zachariasen (Zachariasen, 1932), proposait de relier la conductivité phonique du verre à sa capacité thermique massique (à volume constant) cv, la vitesse de propagation d’un phonon v et le libre parcours moyen des phonons lm de la façon suivante : kc = 1 4 cv v lm (1.1) Le facteur 1/4 est choisi arbitrairement et a depuis été remplacé par un facteur 1/3 (Mann et al., 1992). Kittel fait ensuite l’hypothèse que la vitesse des phonons au sein du verre varie peu, de même que le libre parcours moyen à une température égale ou supérieure à l’ambiante. Pour un solide, la différence entre cv est cp peut être considérée comme négligeable et il est donc possible de partir du principe que cp ≃ cv. L’équation 1.1 permet alors d’expliquer pourquoi cp et kc ont globalement le même comportement pour le verre de silice, comme l’illustre la figure 1.5. On pourra remarquer que si les valeurs proposées ici ont été mesurées avec plus de précision depuis, elles restent réalistes (André et Degiovanni, 1995). Néanmoins, bien que l’équation 1.1 présente un intérêt évident, il s’agit d’un modèle. Il est donc préférable de pas déduire cp à partir de kc et inversement mais de mesurer séparément l’un et l’autre. 27Chapitre 1 : Le verre −250 −200 −150 −100 −50 0 50 100 0 0.5 1 1.5 2 Température (°C) k c (W.m−1.K−1 ) −250 −200 −150 −100 −50 0 50 100 0 250 500 750 1000 c p (J.kg−1.K−1 ) k c c p Figure 1.5 – Conductivité phonique kc et capacité thermique massique cp de la silice (Kittel, 1949) Conductivité thermique Lors de la résolution numérique de l’équation de la chaleur, il est nécessaire de connaître la puissance qu’une cellule échange par conduction div(−→qc ) et par rayonnement div(−→qr ). Dans le cas d’un matériau isotrope, le vecteur densité de flux conductif s’écrit, d’après la loi de Fourier : −→qc = −kc −−→grad(T) (1.2) kc correspond à la conductivité thermique phonique et elle caractérise le transfert d’énergie ayant lieu dans le verre en s’affranchissant de la part d’échange thermique dû au transfert radiatif. En pratique, déterminer la part de transfert due à la conduction et la part due au rayonnement s’avère complexe. Cela est d’autant plus vrai que la température est élevée et que le transfert radiatif est important. Comme le souligne (Degiovanni, 1994), les méthodes à régime transitoire sont généralement pré- férées aux méthodes à régime permanent. Elle consistent à générer une perturbation thermique à l’intérieur d’un matériau initialement à l’équilibre et à mesurer ensuite l’évolution de la température ou des flux thermiques au cours du temps pour en déduire ses caractéristiques. Parmi les méthodes transitoires, il en existe deux grandes classes : les méthodes par contact et les méthodes photothermiques. Dans le premier cas, la perturbation thermique est amenée par contact direct entre le dispositif de chauffage et le matériau étudié. Cependant, ce contact n’est pas parfait et il est, de ce fait, la principale source d’erreur pour des méthodes régulièrement utilisées comme le fil chaud ou la plaque chaude. Dans le second cas, la perturbation thermique provient d’une source de rayonnement comme, par exemple, pour la méthode flash. Les sources d’erreur peuvent provenir des incertitudes sur la mesure du flux incident et des propriétés ra- 281.3 Caractéristiques du verre diatives et optiques du matériau. Nous ne décrirons pas ici en détail le fonctionnement de ces méthodes car ce n’est pas l’objet de ce travail et certains documents en font déjà la synthèse (Degiovanni, 1994; Krapez, 2007). On pourra néanmoins préciser que la détermination de kc est généralement réalisée de la façon suivante : dans un premier temps, le milieu est thermiquement perturbé et la température en un point précis de l’échantillon est mesurée en fonction du temps. Ensuite, en confrontant les données obtenues à des modèles théoriques représentant la façon dont s’établit le transfert thermique à l’intérieur du verre, il est possible de déterminer la valeur de kc. Comme ces modèles tiennent compte du couplage entre conduction et rayonnement, ils reposent souvent sur des équations très complexes. La figure 1.6 présente les valeurs de conductivité phonique obtenues par différents auteurs. (André, 1992) a utilisé une méthode flash, (Kiyohashi et al., 2002) ont mis en œuvre une méthode à fil chaud et (Mann et al., 1992) ont développé un dispositif original. Les valeurs fournies par 0 200 400 600 800 1000 1200 0.5 1 1.5 2 2.5 3 3.5 Température (°C) k c (W.m−1.K−1 ) Mann 1992 Andre 1992 Kiyohashi 2002 Figure 1.6 – Conductivité phonique du verre sodo-silico-calcique Andre sont régulièrement citées dans la littérature, par exemple (Carré, 1996; Bernard et al., 2005; Devos et al., 2006) et les résultats obtenus par Mann et al. sont très proches. Par ailleurs, ces derniers remarquent que la conductivité phonique est généralement considérée comme ayant une dépendance linéaire en fonction de la température dans la plupart des travaux sur le sujet. En ce qui concerne les valeurs obtenues par Kiyohashi et al., celles-ci sont légèrement décalées. La façon dont Kiyohashi et al. s’affranchissent du rayonnement n’est pas explicitée de manière claire dans l’article en question et il est donc possible que le modèle utilisé soit, par certains aspects, moins précis que les modèles de Andre et Mann et al., ce qui expliquerait les écarts. 29Chapitre 1 : Le verre Capacité thermique massique Dans une étude sur la valeur de la capacité thermique massique en fonction de la composition du verre, (Sharp et Ginther, 1951) font la synthèse des valeurs disponibles à l’époque. Dans un premier temps, ils reportent l’approche de (Winkelmann, 1893) qui consiste à calculer cp en l’écrivant comme la somme d’un facteur attribué à une espèce présente dans le verre multiplié par le pourcentage massique de l’espèce. Ils en concluent que la démarche de Winkelmann donne des résultats satisfaisants mais qu’elle est limitée à son application sur un faible intervalle de température (en l’occurrence de 16 °C à 100 °C). Ils proposent alors d’utiliser une relation de la forme : cp = 0, 00146 aT2 + 2 aT + b (0, 00146T + 1)2 (1.3) Les coefficients a et b sont calculés en fonction du pourcentage de chaque espèce présente dans le verre. Les valeurs de capacité thermique massique obtenues pour un verre float de composition usuelle, comme celle donnée dans le tableau 1.1, sont tracées sur la figure 1.7. 0 500 1000 1500 600 800 1000 1200 1400 1600 Température (°C) c p (J.kg−1.K−1 ) Sharp et Ginther (1951) Primenko et Gudovich (1981) Carré (1996) Buonanno (2005) Zhou (2007) Figure 1.7 – Capacité thermique massique du verre sodo-silico-calcique (Mann et al., 1992) comparent les valeurs de Sharp et Ginther avec les mesures de (Primenko et Gudovich, 1981). Ils remarquent que la formule donnée par Sharp et al. ne peut rendre compte de la soudaine augmentation de la capacité thermique massique autour de la transition vitreuse mais aussi du fait que cp se stabilise à une valeur fixe au-dessus de la transition vitreuse. En revanche, (Carré, 1996) et (Buonanno et al., 2005), dans des travaux plus récents, en tiennent compte, à l’inverse de (Zhou et al., 2007) qui retient une valeur quasi-constante. Aux vues de tous ces éléments, il apparait donc que les valeurs de Primenko et Gudovich sont probablement les plus représentatives de cp et que les approximations retenues par Carré et Buananno et al. leur sont relativement fidèles. 301.3 Caractéristiques du verre 1.3.2 Propriétés optiques Un milieu semi-transparent comme le verre peut être caractérisé par son indice complexe de réfraction n ∗ = n − ik. n est l’indice de réfraction du verre et k l’indice d’absorption. n contrôle les échanges au dioptre (interface verre/air) puisqu’il a un impact sur la part de rayonnement incident transmis à l’interface et sur l’angle d’incidence. Il joue aussi sur l’émission propre du milieu car la luminance est pondérée par un facteur n 2 (voir chapitre 3, partie rayonnement). Le coefficient d’absorption κ peut être calculé à partir de l’indice d’absorption k grâce à la relation : κ = 4πνk c0 (1.4) Avec ν la fréquence de l’onde électromagnétique et c0 la vitesse de la lumière dans le vide. Le coefficient d’absorption κ est très important puisque la puissance radiative émise ou absorbée par un matériau lui est proportionnelle. Indice de réfraction 0 1 2 3 4 5 1.35 1.4 1.45 1.5 1.55 1.6 Longueur d’onde λ (µm) Indice de réfraction n λ Verre clair (Rubin 1985) Borosilicate BK7 (Lee 1997) Sodocalcique (Loulou 1999) Verre clair (Nicolau 2001) Verre float (Synowicki 2011) Figure 1.8 – Indice de réfraction nλ en fonction de la longueur d’onde λ (µm) La figure 1.8 présente les valeurs d’indice de réfraction spectral nλ entre 0 µm et 5 µm. Les auteurs des différentes études n’indiquent pas tous de quel type de verre il s’agit. (Loulou et al., 1999) précise qu’il s’agit d’un verre sodocalcique et (Rubin, 1985) d’un verre clair. Cependant, beaucoup d’éléments de ces articles, qui indiquent généralement que le verre étudié correspond à un verre industriel à usage commun, laissent supposer qu’il s’agit de verre float, à l’exception de (Lee et Viskanta, 1997) dont le borosilicate BK7 a une composition sensiblement différente 31Chapitre 1 : Le verre avec notamment une proportion de bore plus importante. Plusieurs méthodes ont été mises en œuvre pour obtenir ces résultats. (Rubin, 1985) a utilisé un spectromètre à transformée de Fourier pour mesurer la réflectance et la transmittance du verre. Les indices spectraux ont ensuite été obtenus en appliquant les relations de KramersKrönig. (Synowicki et al., 2011) ont eu recours à un ellipsomètre spectrométrique et (Nicolau et Maluf, 2001) ont développé un montage expérimental qui intègre un monochromateur. (Loulou et al., 1999) ne précisent pas comment les données ont été obtenues et (Lee et Viskanta, 1997) fournissent les données du fabricant (Schott®). Les indices obtenus en fonction de la longueur d’onde ont globalement la même allure. Endessous de 0,5 µm, l’indice de réfraction prend des valeurs situées autour de 1,55. Ensuite, de 1 µm à 4 µm, l’indice diminue de façon quasi-linéaire d’une valeur légèrement supérieure à 1,5 pour atteindre 1,45. De 4 µm à 5 µm, l’indice diminue de 1,45 à 1,4. Globalement, les valeurs obtenues en croisant les différentes sources sont relativement similaires. Cependant, Synowicki et al. montrent que le procédé de fabrication float peut avoir un impact sur la valeur de l’indice de réfraction. En effet, les valeurs d’indice de réfraction présentées en figure 1.9 ne sont pas les mêmes dans l’épaisseur du verre et les couches inférieure (face étain) et supérieure (face air) de la plaque. En ce qui concerne la face étain, l’indice de réfraction est 0 0.5 1 1.5 2 2.5 1.2 1.3 1.4 1.5 1.6 Longueur d’onde λ (µm) Indice de réfraction n λ Face étain Dans l’épaisseur Face air Figure 1.9 – Indice de réfraction du verre float (Synowicki et al., 2011) légèrement supérieur à celui dans l’épaisseur. Cela s’explique notamment par la diffusion d’étain dans le verre. Pour la face air, les valeurs des indices de réfraction ont été obtenues à partir des mesures de transmittance et réflectance en faisant l’hypothèse que la couche en contact avec l’air est constituée de 50% de vide. Cela explique pourquoi l’indice de réfraction en face air est 321.3 Caractéristiques du verre très inférieur à l’indice dans l’épaisseur. De ce fait, il faut garder à l’esprit que les résultats sont dépendants du modèle choisi pour le calcul de l’indice de réfraction. Pour résumer, Synowicki et al. mettent donc en évidence le fait qu’il existe un gradient d’indice de réfraction dans l’épaisseur d’un verre float et qu’il devrait être pris en compte dans un cas idéal. Coefficient d’absorption Le coefficient d’absorption spectral est tracé sur la figure 1.10 en fonction de la longueur d’onde. 0 1 2 3 4 5 100 101 102 103 104 Longueur d’onde λ (µm) Coefficient d’absorption κ λ (m−1 ) Verre à vitre (Gardon 1961) Verre clair (Rubin 1985) Verre clair (Nicolau 2001) Verre float (Synowicki 2011) Figure 1.10 – Coefficient d’absorption κλ en fonction de la longueur d’onde λ (µm) κλ peut prendre des valeurs qui varient de plusieurs ordres de grandeur sur la plage [0 µm ; 5 µm]. Les compositions des verres ne sont pas données mais celles-ci doivent être proches puisqu’il s’agit, dans chaque cas, d’un verre silico-sodo-calcique classique. Les mesures du coefficient d’absorption spectral montrent une assez bonne similitude entre les différentes sources. Ce qui est plutôt remarquable compte-tenu du fait que les caractéristiques du verre à vitre présentées par (Gardon, 1961) ne correspondent pas, a priori, à un verre float, car une partie des données date de 1952, soit avant que le procédé d’élaboration du verre sur bain d’étain ne soit développé à l’échelle industrielle. La température peut avoir une influence non négligeable sur les valeurs du coefficient d’absorption spectral comme le montre la figure 1.11. Le fait de passer d’une température de 500 oC à 1100 oC peut doubler voire tripler le coefficient d’absorption spectral. Notons toutefois que ces courbes sont obtenues pour un verre d’écran de télévision (les éléments principaux sont : 62,7% SiO2 ; 8,4% BaO ; 7,6% SrO ; 7,4% Na2O ; 7,1% 33Chapitre 1 : Le verre 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 100 101 102 103 104 Longueur d’onde λ (µm) Coefficient d’absorption κ λ (m−1 ) 500°C 800°C 1100°C Figure 1.11 – Variations du coefficient d’absorption κλ en fonction de la température (Viskanta et Lim, 2002) K2O (Dondi et al., 2009)). Le même phénomène de variation de κλ est observable pour du verre silico-sodo-calcique. Il est par exemple mis en évidence par (Gardon, 1961; Krupa et al., 2001; Faber, 2002). Par ailleurs, Krupa et al. ont étudié l’influence de la proportion de Fe2O3 et FeO dans un verre float classique (75% SiO2 ; 15,6% Na2O ; 8,8% CaO ; 0,8% SO3 ; 0,2% MgO). Le fait d’augmenter la proportion d’oxyde Fe2O3 de 0,05% à 0,53% peut élever la valeur du coefficient d’absorption spectral de 2 à 10 fois sa valeur initiale. Bilan pour le verre silico-sodo-calcique Pour résumer les données présentées sur les propriétés thermiques du verre utilisé pour le thermoformage : • l’indice de réfraction dépend peu de la composition du verre et les différentes sources bibliographiques s’accordent sur une valeur de n d’environ 1,5 à 1 µm et 1,4 à 5 µm avec une variation quasi-linéaire sur la plage [1 µm ; 5 µm]. Par ailleurs, bien que les variations de κ en fonction de la température soient étudiées, nous n’avons répertorié aucun résultat sur la variation de l’indice de réfraction en fonction de la température dans les documents cités précédemment. Néanmoins, il est généralement admis que l’indice de réfraction varie faiblement en fonction de la température (Mann et al., 1992) ; • l’allure globale du coefficient d’absorption en fonction de la longueur d’onde est similaire pour tous les verres silico-sodo-calciques. Cependant, un changement de température du verre 341.3 Caractéristiques du verre ou une variation de la proportion d’oxydes de fer (Fe2O3, FeO) dans la composition peut modifier de presque un ordre de grandeur, dans les cas les plus critiques, la valeur du coefficient d’absorption. Il apparait donc que les valeurs d’indice de réfraction varient peu en fonction des différents paramètres. De ce fait, même dans le cadre d’un travail spécifique, des mesures de nλ ne sont pas forcément indispensables. En revanche, une mesure du coefficient d’absorption en fonction de la longueur d’onde, sans être obligatoire, peut s’avérer très utile car κλ varie fortement en fonction de la composition du verre et de la température. 1.3.3 Masse volumique et coefficient de dilatation thermique Les valeurs de masse volumique et de coefficients de dilatation thermique du verre sont regroupées dans le tableau 1.2. Référence Masse volumique (kg.m−3 ) αs (K−1 ) αl (K−1 ) (Duffrène, 1994) 2508,4 9.10−6 3, 2.10−5 (Zhou et al., 2007) 2583[1 − 9, 05.10−5 (T − 1300)] 9.10−6 3, 02.10−5 (Soudre, 2008) 2527,5 9, 56.10−6 2, 72.10−5 (Su et al., 2011) 2483 8.36.10−6 / Tableau 1.2 – Masse volumique et coefficients de dilatation thermique du verre Les coefficients αs et αl correspondent respectivement aux coefficients de dilatation linéaire à l’état solide (en-dessous de Tg) et liquide (au-dessus de Tg). Les valeurs obtenues, aussi bien pour la masse volumique que pour les coefficients de dilatation, sont assez similaires. Ainsi, il est généralement accepté que le verre silico-sodo-calcique a une masse volumique proche de 2500 kg.m−3 à température ambiante. Cette valeur est légèrement variable en fonction de la composition du verre. Concernant les coefficients de dilatation thermique, en-dessous de Tg, αs prend une valeur autour de 9.10−6 (K−1 ) et au-dessus de Tg, αl vaut environ 3.10−5 (K−1 ). Dans le cas de (Soudre, 2008), les mesures de masse volumique ont été effectuées en utilisant un ultrapycnomètre 1000 de Quantachrome instruments dont le fonctionnement se base sur le principe d’Archimède. Les coefficients de dilatation thermiques ont, quant à eux, été déterminés par un dilatomètre qui consiste à mesurer le changement de volume d’un échantillon en fonction de sa température. Pour les valeurs de coefficients de dilatation, (Duffrène, 1994) reprend les données du National Bureau of Standards (NBS) devenu depuis le National Institute of Standards and Technology (NIST). Quant aux autres sources, l’appareillage utilisé pour mesurer la masse volumique ou le coefficient de dilatation thermique n’est pas précisé. 35Chapitre 1 : Le verre 1.3.4 Module d’Young et coefficient de Poisson Le module d’Young d’un matériau caractérise le rapport entre la contrainte appliquée et la déformation instantanée du matériau. Le coefficient de Poisson correspond au rapport de la déformation dans la direction perpendiculaire à l’effort par rapport à la déformation subie dans la direction de l’effort. En-dessous de la température de transition vitreuse, ces paramètres varient peu. En revanche, à plus haute température, le verre devenant moins visqueux, la déformation élastique augmente pour une même contrainte imposée, ce qui implique que le module d’Young diminue. Cependant, comme l’expliquent (Duffrène et al., 1998), il peut s’avérer difficile de mesurer les variations de E à haute température par des méthodes dites statiques. On leur préfère alors les méthodes dynamiques à hautes fréquences utilisant les ultrasons ou la diffusion Brillouin. C’est cette dernière que Duffrène et al. mettent en oeuvre pour obtenir les valeurs de E. Celles-ci sont représentées, après régression linéaire, sur la figure 1.12. 0 500 1000 0 20 40 60 80 100 Température (°C) E (GPa) Duffrène (1994) Bernard (2005) Zhou (2007) Su (2011) 0 500 1000 0.18 0.2 0.22 0.24 0.26 0.28 0.3 Température (°C) ν (−) Duffrène (1994) Bernard (2005) Zhou (2007) Su (2011) Figure 1.12 – Module d’Young et coefficient de Poisson d’un verre sodo-silico-calcique Les valeurs données par (Bernard et al., 2005) ont la même allure que celles de Duffrène et al. même si la méthode de mesure n’est pas précisée. (Zhou et al., 2007) et (Su et al., 2011) retiennent des valeurs de module d’Young qui correspondent à celles de la température ambiante. Concernant le coefficient de Poisson, Duffrène et al. montrent que celui-ci augmente très légè- rement avec la température en-dessous de la transition vitreuse. Au-dessus, cette évolution est un peu plus rapide mais reste limitée. Ainsi, Bernard et al. prennent une valeur constante de 0,22, comme Su et al. De ce fait, la valeur de 0,19 retenue par Zhou et al. parait légèrement sous-évaluée. 361.3 Caractéristiques du verre 1.3.5 Viscosité La viscosité dynamique η est probablement la propriété la plus importante d’un verre pour le thermoformage. D’un point de vue opérationnel, elle traduit sa capacité de mise en forme. Plus la température est élevée, plus la viscosité est basse et plus le verre est malléable. Ce phénomène peut s’expliquer d’un point de vue structurel. À température ambiante, l’énergie nécessaire pour rompre les liaisons Si-O dans le verre n’est pas assez importante pour qu’il y ait un réarrangement de la matière et on ne constate donc aucune déformation, même sur de grandes échelles de temps. En revanche, plus la température augmente, plus le nombre de liaisons rompues dans le verre est important, les possibilités de déplacement ne sont donc plus limitées et l’on observe une déformation du verre d’un point de vue macroscopique. Analytiquement, η traduit le rapport entre la contrainte appliquée σ et la vitesse de cisaillement γ˙ : η = σ γ˙ (1.5) La figure 1.13 représente la viscosité en fonction de la température. Du fait de sa grande variabilité, elle est tracée en échelle logarithmique. 0 500 1000 1500 2000 0 5 10 15 20 Temperature ( oC) log10 ( η) tension transition vitreuse recuisson Littleton travail fusion Thermoformage Soufflage Moulage Etirage Figure 1.13 – Viscosité d’un verre silico-sodo-calcique en fonction de la température Au point de tension (η = 1013,5 Pa.s), un maintien en température de 4 heures élimine les contraintes mécaniques résiduelles du verre. Si celles-ci sont trop importantes, le verre peut rompre en conditions d’utilisation. Dans le même ordre d’idées, un maintien de 15 minutes à la température du point de recuisson (η = 1012 Pa.s) permet d’obtenir des valeurs de contraintes résiduelles commercialement acceptables. Comme il a déjà été précisé dans la section « défini- 37Chapitre 1 : Le verre tion » du verre, la transition vitreuse correspond à l’intervalle de viscosité compris entre 1012 et 1014 Pa.s avec Tg généralement comprise entre 500 °C et 600 °C. Au-delà de 600 °C, la viscosité devient suffisamment basse pour permettre les opérations de thermoformage. Le point fixe de Littleton, ou point de ramollissement, indique une viscosité η = 106,6 Pa.s, valeur à laquelle les opérations de soufflage peuvent être réalisées. Pour des températures de l’ordre de 1000 °C et au-delà, la viscosité chute autour de 103 Pa.s et le verre devient suffisamment malléable pour être mis en forme par moulage ou étirage. À la température de fusion, la viscosité du verre n’est plus que de 10 Pa.s. Un verre est dit « court » lorsque sa viscosité varie rapidement en fonction de la température. À l’inverse, si sa viscosité varie lentement sur un grand intervalle de température, il s’agit d’un verre long. Ce dernier type de verre est mieux adapté aux opérations de soufflage des artisans verriers car cela leur laisse plus de temps pour le travailler. En général, les valeurs de viscosité en fonction de la température sont traduites sous la forme de lois. Elles dépendent de différents paramètres qui sont déterminés soit théoriquement, soit de manière empirique. Cet aspect sera abordé plus en détails dans le chapitre 3 dédié à la modélisation du comportement thermomécanique du verre. 1.4 Conclusion Le verre peut être défini comme un solide obtenu par le refroidissement rapide d’un liquide surfondu n’ayant pas cristallisé. Lorsque la température d’un verre est inférieure à sa température de transition vitreuse Tg, son état structural est figé. En effet, la viscosité à Tg est généralement comprise entre 1012 et 1014, ce qui empêche la relaxation du verre à une échelle macroscopique. Le verre présente une structure amorphe, c’est-à-dire que les atomes ne présentent pas de motif répétitif sur de grandes distances, à l’inverse d’une structure cristallisée. Cette hypothèse dite du réseau désordonné a été proposée en 1932 par Zachariasen puis confirmée quelques années plus tard par Warren, par diffraction des rayons X. Bien que perfectionné depuis, ce modèle est devenu un classique de la littérature scientifique sur le verre. Le verre de composition silico-sodo-calcique classique, qui constitue le vitrage des bâtiments et d’un grand nombre de véhicules, est composé majoritairement de silice SiO2 assurant un rôle de formateur de réseau, d’oxydes de sodium Na2O et de potassium MgO qui vont abaisser le point de fusion, d’alumine Al2O3 et d’oxyde de calcium CaO qui vont renforcer la stabilité chimique du verre. Dans un premier temps, ces matières premières sont chauffées à une température de l’ordre de 1500 °C avant d’être mélangées puis débarrassées de leurs composés gazeux, pour être finalement transportées par des feeders jusqu’aux machines de formage pour l’obtention du produit final. Des caractéristiques physiques du verre va dépendre sa mise en forme. La viscosité apparait comme le paramètre-clé car elle varie très fortement en fonction de la température et traduit le 381.4 Conclusion degré de formabilité du verre. Concernant les autres propriétés, certaines sont très dépendantes de la composition du verre et d’autres moins. Pour les propriétés mécaniques, à l’exception de la viscosité, la composition du verre importe peu sur les valeurs des différentes grandeurs. En revanche, elle peut avoir un impact non négligeable sur les propriétés thermiques et elle affecte très fortement les propriétés optiques du verre. Tout ceci nous amène à l’idée que dans un cas idéal, une campagne d’essais doit être menée afin de caractériser précisément les propriétés physiques du verre étudié, tout en tenant compte de la dépendance à la température. Notons que dans le cadre de ce travail, entièrement consacré à la modélisation numérique, aucune mesure expérimentale n’a été réalisée. Les propriétés du verre implémentées pour valider le modèle numérique proviennent des articles de (Su et al., 2011), (Rubin, 1985) et (Parsa et al., 2005). Les aspects théoriques concernant le verre ayant été détaillés, le chapitre suivant se focalise plus particulièrement sur le procédé de thermoformage. 39Chapitre 2 Le thermoformage Il existe un grand nombre de procédés de mise en forme du verre. Comparativement aux techniques de moulage ou de pressage, l’opération de thermoformage est relativement longue et peut s’avérer plus coûteuse en pratique. Néanmoins, dans l’industrie, le procédé est particulièrement intéressant lorsqu’il s’agit d’obtenir des pièces dont l’état de surface est excellent. En effet, le verre, mis en forme soit en suspension, soit sur un moule, présente au moins une face qui ne rentre en contact avec aucun dispositif de formage. Dans le cadre de l’artisanat et de plus petites productions, le procédé a l’avantage de pouvoir être mis en œuvre avec des moyens matériels relativement limités : un four et un support pour la mise en forme. La première section de ce chapitre définit ce qu’est le thermoformage et les différentes options de mise en forme. Une courbe type d’un cycle thermique permet d’illustrer chaque phase de l’opération. Dans un second temps, sont présentés des exemples d’application du procédé pour la production de pièces industrielles ou de haute technologie. En l’occurrence, il s’agit de parebrises ou de moules et miroirs utilisés dans le domaine de l’optique. Le contexte de l’étude est ensuite détaillé, en faisant le point notamment sur les paramètres influant sur le résultat d’un essai de thermoformage et sur les travaux déjà réalisés par L. Soudre au cours de la précédente thèse. En guise de conclusion, sont décrits les objectifs de la modélisation numérique et les moyens dont nous disposons pour la développer. 2.1 Description du procédé Le mot thermoformage renvoie à un procédé en particulier, et pas uniquement, d’un point de vue étymologique, à la mise en forme à chaud, sans quoi tous les procédés de mise en forme du verre pourraient être assimilés à du thermoformage. Concrètement, selon (Beveridge et al., 2005), le thermoformage du verre est un « procédé qui consiste à mettre en forme le verre, en général plat, en le faisant ramollir dans un four sur un support d’une forme déterminée, mais sans qu’il dépasse un certain degré de fluidité ». Il convient de préciser que d’un point de vue mécanique, la variable usitée n’est généralement pas la fluidité mais la viscosité. 41Chapitre 2 : Le thermoformage Très souvent utilisé pour la conception de pièces en polymères (Jammet, 1998; Illig, 1999), le thermoformage peut être employé dans l’industrie verrière pour la mise en forme : • des pare-brises (Guardian®, Saint-Gobain®)(Groombridge et al., 2003) ; • des lentilles (Schott®, Corning®)(Stokes, 2000) et autres appareillages d’optique comme les télescopes (Zhang et al., 2003) ; • des pièces de décoration, de mobilier ou d’art de la table (Arc International®, FIAM®, Daum®, Baccarat®) (Beveridge et al., 2005; Soudre, 2008). Dans le cas des pare-brises, le thermoformage est aussi appelé bombage. Par ailleurs, la traduction anglaise courante du thermoformage est slumping ou encore sagging. (a) Thermoformage par suspension (b) Thermoformage par prise d’empreinte (c) Thermoformage sur moule convexe (d) Thermoformage sur moule concave Figure 2.1 – Les différentes techniques de thermoformage Il est possible de distinguer plusieurs types de thermoformage : par suspension, par prise d’empreinte, sur moule convexe ou sur moule concave, avec utilisation ou non d’un pressage mécanique. Ces différentes possibilités sont illustrées sur la figure 2.1. Le thermoformage par suspension est par exemple utilisé pour la mise en forme des pare-brises. Les bords de la plaque de verre sont posés sur des renforts métalliques, l’ensemble de ce cadre pouvant être dénommé squelette (Haussone et al., 2005). Le thermoformage par prise d’empreinte ou sur moule convexe est plus souvent réservé aux artisans verriers pour la réalisation de pièces d’art et de décoration. temps 1 2 3 4 5 6 7 8 9 10 11 12 13 (min) Zone de d´evitrification Recuisson Temp´erature de travail T(oC) 470 540 630 680 730 860 Figure 2.2 – Exemple d’une courbe de température d’un cycle de thermoformage La figure 2.2 montre un exemple type de courbe de thermoformage. La température de consigne du four est tracée en fonction du temps et l’ensemble représente le cycle de mise en forme d’une plaque de 6 mm d’épaisseur. 422.2 Exemples d’application Lors de la montée en température, les paliers 2 et 4 servent à homogénéiser la température de la pièce pour éviter les chocs thermiques. Le palier 6 correspond à la température de travail. Dans cette gamme de 630°C à 860°C, la viscosité du verre atteint une valeur suffisamment faible pour qu’il soit mis en forme sous l’effet de son propre poids. Dans le cas présenté ici, la température de travail est de l’ordre de 680°C. Il est à noter que si celle-ci avait été supérieure à 730°C, les phases de montée et descente 5 et 7 auraient dues être les plus rapides possibles afin de raccourcir au maximum le passage dans la zone de dévitrification du verre, comprise entre 680°C et 730°C. Si cette condition n’est pas respectée, il existe un risque que la structure atomique du verre soit modifiée et que celui-ci cristallise. La phase 8 consiste en un maintien à la température dite de recuisson qui sert à éviter les contraintes mécaniques résiduelles. Cette phase peut être suivie de deux paliers 10 et 12, respectivement 40°C et 90°C en-dessous de la température de recuisson, toujours dans un souci d’éviter les chocs thermiques et d’évacuer les contraintes résiduelles. La durée et la température des paliers, ainsi que les phases de montée et descente en température, 1, 3, 9, 11 et 13 sont choisies en fonction du type de verre, de sa géométrie et du résultat final souhaité. 2.2 Exemples d’application On s’intéresse ici à la mise en œuvre du thermoformage pour des pare-brises ou des pièces d’optique. Les pare-brises sont produits en très grandes quantités d’où l’intérêt d’étudier et d’optimiser le procédé : il est important de réduire les coûts de production ou d’apprendre à concevoir des formes de plus en plus complexes. Pour les pièces d’optique, il s’agit de produire des miroirs qui permettent de focaliser la lumière dans des installations de hautes technologies comme des télescopes ou des dispositifs photovoltaïques. Certains spécialistes cherchent aussi à concevoir des moules pour lentilles polymères, cependant la forme obtenue n’est, pour l’instant, pas optimale. Sachant que le thermoformage est le procédé le plus utilisé pour la production de pare-brises, le fait de ne retrouver dans la littérature scientifique qu’un faible nombre d’études traitant de sa mise en forme est assez regrettable. Cela s’explique par une volonté de la part des industriels de protéger leur savoir-faire. Généralement, l’optimisation du thermoformage va s’appuyer sur l’expérience ou la simulation numérique. La première repose sur une méthode d’essais-erreurs. La recherche des paramètres optimaux est menée en répétant les essais et en ajustant les conditions opératoires, ce qui peut représenter un coût matière et une perte de temps élevés. C’est pour cette raison que la simulation numérique est de plus en plus privilégiée : elle permet d’économiser le coût matière. De plus, à long terme, il est possible de mener une analyse inverse. Idéalement, elle consiste à déterminer numériquement et du premier coup les paramètres à imposer pour obtenir le produit final désiré. Pour pouvoir mettre en place une analyse inverse, il est indispensable de disposer d’un modèle 43Chapitre 2 : Le thermoformage numérique qui respecte fidèlement le comportement réel du verre. Tous ces aspects sont abordés plus en détail dans les paragraphes suivants. Les pare-brises (Manservisi, 2000) remarque que si l’étape de conception d’un pare-brise n’est généralement pas la priorité des concepteurs, qui s’intéressent plus à l’allure globale d’un véhicule, elle n’en reste pas moins une étape cruciale du projet. En effet, si le problème de faisabilité du pare-brise n’a pas été traité en amont, cela peut entrainer des retards dans la conception du prototype. Dans les cas critiques, les concepteurs peuvent être amenés à devoir simplifier la forme du pare-brise pour pouvoir le réaliser. On distingue deux grandes techniques de mise en forme : par pressage ou par thermoformage (ou bombage dans le cas du pare-brise, « gravity bending process » étant son équivalent anglais). Par pressage, la machine exerce une poussée sur l’ensemble de la surface qu’elle vient plaquer contre une matrice pour lui donner sa forme finale. Cette opération peut se faire de manière verticale (la plaque est perpendiculaire au sol) ou horizontale (la plaque est parallèle au sol). Le procédé de pressage vertical est de moins en moins utilisé car il nécessite le recours à des pinces pour tenir la plaque de verre et elles laissent des marques. On lui préfère alors le pressage horizontal (Lochegnies et al., 1995). Néanmoins, le thermoformage est de plus en plus privilégié aux dépens du pressage. (Buonanno et al., 2005) affirment même qu’il s’agit du seul procédé qui permette de préserver ses qualités optiques. On notera cependant que cela concerne uniquement le pare-brise avant d’un véhicule. Pour le pare-brise arrière, les contraintes sont différentes car il est généralement élaboré par un pressage suivi d’une trempe. Bien qu’il apparaisse sous la forme d’une pièce unique, le pare-brise est en fait un assemblage de deux plaques de verre entre lesquelles est placé une feuille de PVB (polyvinyle de butyral). Ce PVB permet d’éviter que le pare-brise vole en éclats lors d’un choc trop violent. L’épaisseur totale du pare-brise est d’environ 4 mm. Une méthode classique pour déterminer la géométrie de la plaque initiale et la forme du squelette consiste à modéliser mathématiquement la forme finale par des courbes de Bézier. (Lochegnies et al., 1996) Le procédé de fabrication commence par le découpage des deux vitres dans une plaque de verre. Une peinture noire est appliquée sur les bords du pare-brise, ainsi qu’à l’endroit où sera fixé le rétroviseur. Un séparateur est ensuite déposé entre les deux vitres pour éviter qu’elles ne collent lors de la mise en forme puis celles-ci sont placées sur un squelette à l’intérieur d’un « box ». Le squelette a l’avantage, par rapport à un moule, de ne pas marquer le verre sur sa partie centrale. Il permet aussi de réduire le transfert thermique entre le verre et le moule et donc de garder une température relativement homogène à l’intérieur du verre. Dans le four, le box est mobile et il va se déplacer, par à-coups, à travers les différentes sections 442.2 Exemples d’application Figure 2.3 – Cycle de mise en forme du pare-brise dans le four qui peuvent elles-mêmes être séparées en plusieurs compartiments. Le nombre total de compartiments est de l’ordre de 15. Dans un premier temps, le verre est préchauffé par des résistances rayonnant dans l’infrarouge et amené à une température relativement homogène et légèrement inférieure à la température de formage (figure 2.3). S’ensuit la mise en forme, qui s’effectue autour de 650 °C. Le refroidissement est contrôlé de sorte à éviter les chocs thermiques et l’étape de recuisson va permettre d’évacuer les contraintes résiduelles. Après la mise en forme, la couche de PVB est insérée entre les deux plaques et l’assemblage est réalisé sous autoclave à une température de 120 °C et une pression de 10 bars, afin d’évacuer les bulles qui auraient pu se former entre le PVB et le verre. La qualité du pare-brise peut être testée, principalement les rayons de courbure, pour pouvoir s’assurer de sa conformité. Ensuite, lors d’une dernière étape de finition, les supports en mousse ou en plastique sont collés, les branchements pour les différents détecteurs, capteurs, etc., sont alors mis en place. Les problèmes de mise en forme rencontrés sont majoritairement des défauts géométriques. Afin d’obtenir un pare-brise conforme, celui-ci doit respecter les rayons de courbure spécifiés par les designers. Lors de la montée en température, si le chauffage n’est pas optimal, il peut apparaitre des zones dites de « reverse » où le rayon de courbure s’inverse comme illustré sur la figure 2.4. Ces phénomènes sont d’autant plus fréquents que la forme du pare-brise est complexe. Le lien entre le chargement thermique imposé d’une part et la forme obtenue d’autre part est très difficile à établir d’un point de vue expérimental. D’autres problèmes de mise en forme peuvent survenir comme des ondulations au niveau des coins du pare-brise (Manservisi, 2000) ou de non-homogénéité de l’épaisseur (Parsa et al., 2005). Plusieurs travaux de recherche portent sur cette problématique et la plupart des auteurs tentent 45Chapitre 2 : Le thermoformage Figure 2.4 – Phénomène de reverse pouvant apparaitre sur un pare-brise d’y répondre en procédant à une analyse inverse. Comme le rappelle Manservisi, sans la simulation numérique, l’amélioration du procédé passe par une méthode d’essais-erreurs coûteuse. Parsa et al. étudient par exemple la mise en forme d’un pare-brise à 610 °C. À cette température, l’opération dure 60 s (il s’agit ici du maintien à la température de palier et non pas de l’ensemble du cycle thermique). Ils montrent alors qu’il est possible d’augmenter la cadence de production en modifiant la température de palier imposée. En montant à 615 °C et 625 °C, les temps de production passent respectivement à 30 s et 15 s, soit un gain de temps d’un rapport 2 ou 4. Parsa et al. proposent aussi d’optimiser le procédé en appliquant un chargement thermique légèrement hétérogène (5 °C d’écart entre la zone la plus chaude et la zone la plus froide). Ceci permet d’obtenir un produit de meilleure qualité d’un point de vue géométrique, ce qui est confirmé aussi bien expérimentalement que numériquement. Cette condition de non-hétérogénité des températures (jusqu’à un certain point bien évidemment, sans quoi le verre subirait, du fait de la dilatation thermique, des contraintes mécaniques trop importantes) est même jugée comme indispensable par (Buonanno et al., 2005) pour produire des formes complexes. Un chauffage homogène risquerait de générer un rayon de courbure excessif, particulièrement aux bords de la plaque. Afin de s’affranchir de ce problème, il est possible de placer des écrans devant certaines zones du pare-brise pour limiter la quantité de rayonnement reçu. Au-delà de la modification du chargement thermique non uniforme, (Lochegnies et al., 1995) montrent qu’il est possible d’obtenir la forme finale voulue en changeant la forme initiale de la plaque ou en modifiant la structure du squelette, par un système d’ajustement par vissage. Cependant, dans les cas de géométries complexes, il faut parfois recourir à un pressage dans les zones du pare-brise où le maintien de la qualité optique n’est pas indispensable (généralement en périphérie de la pièce) pour s’assurer de la conformité du produit. On peut finalement noter qu’il existe expérimentalement de très fortes incertitudes sur la température du verre. Tandis que Parsa et al. parlent d’une température de mise en forme entre 610 °C et 625 °C, Manservisi ou Lochegnies et al. donnent une température de formage de 650 °C. Bien que cet écart puisse s’expliquer par une différence entre les installations et les modèles de pare-brise étudiés, cela peut aussi être dû aux incertitudes de mesure sur la température. Par exemple, Buonanno et al. mettent en place une série de mesures de la température du verre avec 462.2 Exemples d’application des thermocouples de type K. Sur la base de données fournisseurs, l’incertitude sur les valeurs de température de l’ensemble de la chaîne de mesures est évaluée à ±30 °C. Numériquement, les incertitudes sont plutôt dues aux propriétés thermiques du verre et au maillage utilisé. À ces températures, sachant que la viscosité peut varier de plusieurs ordres de grandeur sur quelques dizaines de degrés, on comprend alors mieux l’intérêt de disposer de modèles numé- riques fiables et d’appareillages de mesure précis, sans quoi la difficulté inhérente à la maîtrise du procédé devient insurmontable. Le matériel d’optique Il est possible de distinguer deux types d’objets réalisés par thermoformage et applicables au domaine de l’optique : les moules pour les lentilles optiques et les miroirs. Les moules en verre produits par thermoformage ont comme avantage de présenter une surface très lisse. Ainsi, il est possible de réaliser des lentilles en PVB avec une grande précision (Lochegnies et al., 2010). La mise en forme de la pièce de verre est relativement classique. Le schéma proposé par (Chen et Yi, 2011) représente l’opération en figure 2.5. Dans un premier temps, une préforme de verre est placée sur un moule et chauffée progressivement (figure 2.5-a). Dès que le verre atteint une température de l’ordre de 600 °C, il se déforme suffisamment, par gravité, pour prendre la forme du moule situé en-dessous (figure 2.5-b). Puis la pièce ainsi mise en forme est refroidie puis démoulée (figure 2.5-c). La surface d’intérêt correspond à la surface supérieure (a) Chauffage (b) Mise en forme (c) démoulage Figure 2.5 – Mise en forme d’une pièce d’optique qui n’est pas en contact avec le moule car son état de surface est préservé. Les premiers travaux dans le domaine ont été publiés par (Stokes, 2000). Le terme « thermal replication » employé en anglais fait référence à l’idée de dupliquer la forme du moule sur la surface supérieure de la pièce. En pratique, cette opération pose de gros de problèmes. Le rayon de courbure de la pièce de verre ne correspond pas exactement à celui du moule, ce qui signifie que la copie n’est pas parfaite. (Lochegnies et al., 2010) d’une part, Agnon et Stokes (Agnon et Stokes, 2005) d’autre part, proposent d’utiliser la simulation numérique pour résoudre le problème par analyse inverse. Contrairement à la mise en forme du pare-brise, la température ne joue pas un rôle aussi important. Dans le cas où le cycle de consigne est bien contrôlé, la forme finale de la pièce va plutôt dépendre du design du moule et de la géométrie initiale de la préforme. De ce fait, les axes d’amélioration proposés par les auteurs sont de modifier légèrement la forme du moule et de diminuer l’épaisseur de la préforme. En effet, plus l’épaisseur de la préforme est faible, plus la forme finale de la surface supérieure de la pièce ressemble à celle du moule. 47Chapitre 2 : Le thermoformage Concernant les miroirs, ceux-ci peuvent être utilisés pour le photovoltaïque ou dans le domaine de l’astronomie pour les télescopes. Le moule peut être concave ou convexe, ce qui change complètement la nature du problème. En effet, comme il l’a été montré précédemment, lorsque le moule est concave, la surface supérieure de la pièce est la surface utilisée pour concentrer le rayonnement. Or, cette surface ne correspond pas exactement à la forme du moule. Les problématiques et les conclusions obtenues par (Su et al., 2011; Chen et Yi, 2011) sont donc très proches de celles concernant les moules en verre pour lentilles PVB. Dans le cas d’un moule convexe, c’est la surface inférieure en contact avec le moule qui sera utilisée pour ses propriétés optiques. Cependant, le moule n’est pas exempt de petits défauts, de rugosité, voire de poussières qui se sont déposées à sa surface. Tous ces éléments peuvent marquer le verre et abimer sa surface. Cela signifie donc que le rayon de courbure obtenu peut être meilleur qu’avec un moule concave mais au détriment de son état de surface. Pour se débarrasser des poussières venant polluer le verre, (Ghigo et al., 2009) réalisent la mise en forme sous vide. Pour éviter les problèmes de marquage, le moule est en Zerodur®, une céramique à base silicate qui supporte les hautes températures et possède une micro-porosité acceptable. Quant au verre, il s’agit d’un borosilicate. Dans cette étude, l’objectif est de réaliser des miroirs de grande taille : une plaque de 500 mm de diamètre pour 1,7 mm d’épaisseur est mise en forme. Lors de la phase de formage, une pression est appliquée sur le verre pour s’assurer que celui-ci prenne au mieux la forme du moule. Les contraintes résiduelles doivent être évitées à tout prix. Ainsi Ghigo et al. ont dû utiliser un cycle en température s’étalant sur 4 jours au lieu de 3 pour diminuer au maximum toutes les contraintes. Malgré toutes ces précautions, plusieurs problèmes sont apparus. Quelques poussières se sont incrustées dans le verre même si le fait de travailler sous vide a fortement réduit leur nombre. Le verre présente aussi une courbure non homogène. Le rayon de courbure théorique est de 10 m. Après essai, le rayon de courbure est conforme au centre mais plus important sur les bords, et peut atteindre jusque 11,5 m, soit 15 % d’erreur. Ce phénomène serait dû au maintien de la pression de mise en forme pendant le refroidissement. Quand le verre est démoulé, les contraintes induites par la pression se relâchent et le rayon de courbure augmente. Pour obtenir un rayon de courbure plus conforme, les auteurs proposent de ne plus appliquer la pression pendant de la phase de refroidissement, peu de temps avant d’atteindre la température de transition vitreuse. Pour améliorer l’état de surface de la pièce, ils préconisent de réduire encore la pollution due aux poussières en étant plus méticuleux lors de la mise sous vide. Les méthodes numériques adoptées La majorité des simulations numériques du procédé utilisent, pour le modèle mécanique, une approche lagrangienne associée à la méthode des éléments finis (Manservisi, 2000; Parsa et al., 2005; Chen et Yi, 2011). Plus rarement, une approche de type mécanique des fluides est adoptée 482.3 Intérêt de l’étude (Hunt, 2002). À la température de travail, le verre est souvent considéré comme un fluide purement newtonien (Lochegnies et al., 1996; Chen et Yi, 2011). En ce qui concerne les différents modèles rhéologiques disponibles dans la littérature scientifiques, ces aspects ont déjà été traités dans le rapport de thèse de L. Soudre (Soudre, 2008). Pour la partie thermique, une attention particulière doit être accordée au transfert par rayonnement. En effet, au-dessus de la température de transition vitreuse, le rayonnement peut devenir un mode de transfert majeur. Différentes approches sont adoptées dans la littérature scientifique. Dans les cas les plus basiques, le transfert par rayonnement est purement négligé à l’intérieur du verre ou aux frontières (Chen et Yi, 2011). Une autre possibilité assez simple consiste à imposer la température du verre en la considérant comme homogène sur tout le domaine (Stokes, 2000). D’autres auteurs font le choix de modéliser beaucoup plus finement le transfert radiatif, comme (Buonanno et al., 2005) qui mettent en œuvre une méthode des ordonnées discrètes. Plus globalement, le verre étant un milieu semi-transparent, un grand nombre de méthodes existe. Ces méthodes sont présentées dans le chapitre 4 en faisant le point sur les forces et faiblesses de chacune. La thermodépendance de la viscosité, paramètre-clé du procédé, est souvent prise en compte par une loi dite VFT (Parsa et al., 2005; Lochegnies et al., 2010) et plus rarement par une loi WLF (Su et al., 2011). Ces aspects sont développés plus en détails dans le chapitre 3. 2.3 Intérêt de l’étude Comme on vient de le montrer précédemment sur plusieurs cas concrets, le thermoformage n’est pas complètement maîtrisé par les verriers. Des problèmes de non-conformité de la pièce sont observés : la géométrie obtenue ne correspond pas à celle souhaitée ou des contraintes résiduelles trop importantes mettent en péril l’intégrité de la pièce. Cela s’explique par la difficulté de contrôler parfaitement tous les paramètres et de trouver les conditions opératoires optimales. Ce problème concerne d’autant plus les artisans verriers car leurs moyens financiers sont souvent bien moindres que ceux des industriels ou des laboratoires de recherche. Pour réaliser un objet original, il ne leur est pas possible d’avoir recours à la simulation numérique. Seule la coûteuse méthode d’essais-erreurs permettra de respecter le cahier des charges de la pièce. Dans les cas les plus défavorables, il arrive même après plusieurs essais que la pièce ne puisse pas être produite car la géométrie est trop complexe : il est difficile, voire impossible d’obtenir les paramètres qui conviennent. Il existe une grande diversité des techniques de thermoformage et des objets conçus : englober l’ensemble de ces cas en une seule étude est simplement impossible. Dans un premier temps, il apparait donc comme beaucoup plus raisonnable de recentrer l’étude sur un mode opératoire en particulier, puis, sur du long terme, d’essayer d’extrapoler les résultats obtenus à d’autres configurations d’essai. En l’occurrence, le cas retenu ici est le thermoformage d’une plaque de 49Chapitre 2 : Le thermoformage verre sur moule concave. Il s’inscrit dans la continuité des travaux de (Soudre, 2008) qui a développé un banc d’essais permettant de mesurer le champ de température et le champ de déplacements en temps réel. Dans cette section, les paramètres qui influent sur le déroulement d’un essai sont répertoriés puis reliés aux problèmes qui peuvent survenir s’ils ne sont pas maitrisés. Nous présentons ensuite le four de thermoformage et le banc d’essais développé par Laëtitia Soudre pour étudier le procédé. Finalement, nous nous intéressons aux détails du modèle numérique que nous souhaitons développer et les moyens mis en œuvre pour y parvenir. 2.3.1 Les paramètres de l’essai Il est possible de distinguer globalement trois types de paramètres, ceux associés aux propriétés intrinsèques de la pièce, ceux liés au support choisi et ceux qui dépendent du four. Les principaux problèmes pouvant survenir sont les chocs thermiques, les contraintes résiduelles, la non conformité géométrique de la pièce, le collage ou le marquage du moule sur la surface du verre. La plaque de verre Avant de procéder à un essai, il est nécessaire de connaitre le type de verre mis en forme et les caractéristiques qui lui sont associées. Si ce n’est pas le cas, il existe un risque de mal dimensionner le cycle de température. Lorsque le palier de formage est trop long, cela représente en premier lieu une perte de temps et d’énergie et peut mener, dans un cas critique, à une déformation excessive de la pièce. À l’inverse, lorsque le palier de formage est trop court, la pièce ne peut pas se déformer suffisamment. Il existe aussi le risque d’introduire des contraintes résiduelles si le cycle de refroidissement n’est pas adapté. Plus rarement, des chocs thermiques peuvent survenir si les montées ou descentes en température sont trop rapides. 0 50 100 150 200 250 0 100 200 300 400 500 600 700 Temps (s) Température (°C) 3 mm 6 mm 10 mm Figure 2.6 – Cycle de température en fonction de l’épaisseur d’une plaque de verre de 35 × 30 mm2 (données CERFAV) 502.3 Intérêt de l’étude La géométrie du verre a aussi une influence sur l’essai. Plus une pièce est épaisse, plus sa température met du temps à s’homogénéiser. Les cycles de température utilisés par le CERFAV, pour une plaque de verre de 35 × 30 mm2 , le mettent en évidence sur la figure 2.6. La température du palier de mise en forme peut être légèrement augmentée si la pièce est particulièrement massive. Finalement, la forme initiale de la plaque de verre peut aussi avoir un impact sur l’essai, comme l’ont montré les études citées précédemment concernant les pièces d’optique. Le type de support Il est possible de distinguer deux types de support : le moule et le squelette. Dans le premier cas, le verre vient épouser la forme du moule. Dans le second cas, il s’agit de thermoformage en suspension et la géométrie obtenue dépend de la durée et de la température de palier. Pour l’un comme pour l’autre, la forme de la pièce obtenue ne correspond pas exactement à celle désirée (cf. la mise en forme des pare-brises et pièces d’optique), ce qui n’est pas sans poser problème. L’analyse inverse apparait comme un outil puissant pour améliorer la forme du moule ou du squelette. Les pare-brises sont généralement produits en utilisant des squelettes en acier inoxydable (Buonanno et al., 2005; Groombridge et al., 2003) tandis que pour les pièces d’optique, il s’agit de moules en céramique (Lochegnies et al., 2010; Agnon et Stokes, 2005). Le fait de favoriser l’acier ou la céramique n’est pas forcément justifié dans les articles cités précédemment. En revanche, une certitude s’en dégage, il ne s’agit pas d’un problème de collage puisque les deux peuvent subir ce phénomène. Dans un article sur le pressage du verre, (Rieser et al., 2008) affirment que ce problème ne dépend pas du matériau utilisé et que le fait de réaliser un dépôt de surface n’a aucune influence. Ils soulignent aussi que les résultats de la littérature scientifique sur le sujet sont contradictoires. Leurs propres expériences montrent que le phénomène de collage peut apparaitre pour une température aux alentours de 550 °C et qu’au-delà de 650 °C, il est très probable d’observer un collage entre le moule et le verre. Ces résultats sont confirmés par les études de (Su et al., 2011) et (Chen et Yi, 2011). Dans ces deux études réalisées par le même laboratoire (Department of Integrated Systems Engineering, The Ohio State University, USA), le verre utilisé est un silico-sodo-calcique et le matériau du moule est une céramique MACOR®. Dans les travaux de Chen et Yi, la température du palier de mise en forme est de 620 °C et aucun collage n’est observé. En revanche, Su et al. observent un collage pour une température de mise en forme de 680 °C. Pour éviter ce problème, il est possible d’appliquer un séparateur entre le moule et le verre. Mais celui-ci peut marquer le verre, ce qui dégrade ses qualités optiques. Une alternative consiste à abaisser la température de travail et allonger la durée du palier. La rugosité du moule et ses propriétés thermiques vont aussi avoir une influence sur le produit 51Chapitre 2 : Le thermoformage final. La rugosité peut poser problème dans le cas où la face en contact avec le moule représente la surface d’intérêt. Elle aura aussi une influence sur la résistance thermique de contact entre le verre et le moule (Falipou, 1998). En effet, les propriétés thermiques du moule et la qualité du contact vont avoir un impact sur les flux thermiques échangés à l’interface verre/moule. Le champ de température du verre en sera affecté et sa mise en forme aussi. Pour conclure, à la question « Quel type de moule choisir ? », la simulation numérique et les essais expérimentaux apportent des éléments de réponse et il est nécessaire de rechercher, au cas par cas, le meilleur compromis entre géométrie, propriétés du matériau et qualité optique du moule et ce, sans négliger sa faisabilité et son coût. Le four de thermoformage Comme la viscosité du verre dépend de sa température, le cycle thermique de consigne est le paramètre le plus important du procédé puisqu’il conditionne la mise en forme du verre. Plusieurs technologies pour le chauffage de la pièce de verre existent. Il peut s’agir d’un chauffage par contact. Cela implique que l’élément chauffant touche le verre, ce qui peut être gênant lors de la phase de déformation. De plus, le chauffage par contact peut induire un fort gradient thermique, ce que nous cherchons à éviter pour avoir une déformation homogène de la pièce et minimiser les contraintes à l’intérieur du verre. Le chauffage par convection est mieux adapté. Seulement, le verre étant un assez mauvais conducteur thermique, le chauffage peut s’avérer beaucoup trop long en pratique. C’est pourquoi la majorité des fours retenus pour le thermoformage sont équipés de résistances qui rayonnent dans l’infrarouge. Une partie de ce rayonnement est directement reçu par le verre. Une autre partie est réfléchie ou émise par les parois du four ou par le moule. Comme le verre est un matériau semi-transparent sur les courtes longueurs d’onde, une partie du rayonnement est absorbée de manière volumique par la pièce. Sur les plus grandes longueurs d’onde (en général, au-dessus de 5 µm comme le montre la bibliographie sur le sujet), le verre est considéré comme opaque : il absorbe et réfléchit le rayonnement directement à la surface. Sauf dans le cas stationnaire, la température moyenne dans le four est différente de la température de la plaque de verre, cela occasionne donc des échanges par convection entre l’air et la plaque. De ce fait, au-delà de la température de consigne, la qualité du chauffage influe fortement sur le procédé. Tout d’abord la disposition des résistances peut jouer sur la répartition des flux thermiques dans le four et générer des gradients thermiques plus ou moins importants. Dans le cas du four de thermoformage dont nous disposons au laboratoire ou des fours du CERFAV, les résistances sont placées sur la voûte. Ainsi, une grande quantité de rayonnement arrive directement sur la plaque de verre et permet d’homogénéiser assez rapidement sa température. La puissance totale pouvant être dissipée par les résistances doit être suffisamment forte pour pouvoir élever la température rapidement dans les zones de dévitrification. 522.3 Intérêt de l’étude 2.3.2 Description du banc d’essai de thermoformage Le four de thermoformage, de l’Institut Jean Lamour, est installé dans les locaux de l’École Européenne d’Ingénieurs en Génie des Matériaux (EEIGM). Il s’agit d’un four à cloche électrique à chauffage radiant par le haut, dont la technologie est identique à ceux appartenant au CERFAV. La figure 2.7-a présente une vue globale de l’installation. On observe une plaque de verre qui (a) Vue globale de l’installation (b) Voûte et résistances de chauffage Figure 2.7 – Vue du four de thermoformage vient d’être mise en forme sur le moule, lui-même posé sur la sole. La vue de la figure 2.7-b montre la voûte du four et les résistances de chauffage. La sole, les parois latérales du four et la voûte sont composées de matériaux réfractaires qui réduisent les pertes thermiques et offrent une bonne tenue à haute température. Le four est équipé d’un appareillage de mesure décrit en détails dans l’article (Soudre-Bau et al., 2013) dont nous allons succinctement décrire le fonctionnement. La voûte du four a été percée pour y placer trois hublots transparents qui permettent de recevoir (ou d’envoyer) un signal depuis l’intérieur du four tout en assurant l’isolation thermique. Par le hublot central (figure 2.8), une caméra infrarouge équipée d’un filtre de Christiansen permet de mesurer la température de surface du verre. La surface supérieure du verre est recouverte d’une couche d’oxyde blanc sur laquelle est déposé un mouchetis de peinture noire résistante aux hautes température. Une caméra CCD filme le déplacement de ces points au cours de l’essai. Par une technique de corrélation d’image, il est possible d’obtenir les déplacements dans le plan (~x,~y) de la plaque de verre (en partant du principe que l’axe ~z du repère en trois dimensions est orienté vers le haut). Par le hublot de gauche, un vidéo-projecteur projette des franges sur la surface du verre. La 53Chapitre 2 : Le thermoformage Figure 2.8 – Appareillage de mesure du four de thermoformage largeur de ces franges est modifiée en fonction de la hauteur de la plaque. Cela permet d’évaluer le déplacement de la plaque sur l’axe ~z. Le four est donc équipé d’un matériel de mesure des champs de déplacements et de température en temps réel. Sur la figure 2.9, la température relevée à différentes hauteurs dans le four est tracée en imposant comme température de consigne la courbe typique d’un essai de thermoformage. Les mesures ont été prises par 36 thermocouples de type K, disposés sur une grille qui est parallèle à la sole. 0 2000 4000 6000 8000 10000 12000 0 100 200 300 400 500 600 700 Temps (s) Température (°C) Niveau des résistances 165 mm 75 mm ∆T = 80 °C ∆T = 50 °C Figure 2.9 – Température de l’air à différentes hauteurs dans le four Ces résultats sont très importants. Ils montrent que l’écart de température relevé entre l’air au niveau des résistances et l’air au niveau du moule (à respectivement 75 et 165 mm de hauteur) peut atteindre jusque 80 °C lorsque la température au niveau des résistances est de 600 °C (à 542.3 Intérêt de l’étude t = 2800 s). La température de 600 °C correspond généralement au début du fluage du verre. Or, on voit bien ici qu’il faut distinguer la température des résistances de la température du verre. C’est d’autant plus critique que lors du palier de mise en forme, l’écart reste assez important, autour de 50 °C. À cette température, 50 °C peut décaler les valeurs prises par la viscosité de plusieurs décades. Ainsi, il existe des axes d’amélioration concernant le chauffage du verre en choisissant, par exemple, d’imposer la température de consigne en prenant comme référence non plus la température du four mais la température du verre. Cette problématique fait d’ailleurs l’objet d’un projet ANR PROTHERMOVERRE lancé en 2011 (LEMTA, IJL, CRAN, IECN, CERFAV). 2.3.3 Développement d’un modèle numérique - Objectifs Resituons le contexte : le CERFAV a été sollicité par les artisans verriers qui éprouvaient des difficultés à maitriser le thermoformage. Dans les cas critiques, les artisans sont confrontés à des problèmes de rentabilité du procédé. La méthode d’essais-erreurs s’avère coûteuse sans garantir que la pièce pourra être réalisée à coup sûr, surtout pour les géométries complexes. Pour palier à ce problème, la modélisation numérique apparait comme un outil très puissant car : • la simulation numérique permet de se mettre en conditions d’essai en économisant le coût matière ; • à long terme, un modèle inverse peut être développé avec en ligne de mire, la détermination des paramètres optimaux de l’essai en vue de créer un objet dont on connait la géométrie finale. La mise en place d’un modèle numérique passe globalement par trois phases : • le problème physique est exprimé sous la forme d’équations qui dérivent de modèles théoriques ou de lois empiriques ; • ensuite, le système d’équations valables pour un problème continu est résolu par des méthodes s’appuyant sur une formulation discrète du problème ; • finalement, le problème discret est résolu en implémentant les données dans un programme dédié ou en développant son propre code de calcul. Les deux premières phases reposent sur diverses hypothèses et simplifications qui peuvent être sources d’approximations entre les résultats obtenus numériquement et les résultats de l’essai réel. Pour la dernière phase, il est crucial d’éviter au maximum les erreurs de programmation et donc de valider les codes sur des cas-tests de la littérature. Dans notre étude, le problème physique peut être séparé en une partie mécanique et une partie thermique. La partie mécanique peut être prise en charge par le logiciel commercial Abaqus ® qui utilise une méthode éléments finis. Ce type de logiciel est utilisé en industrie depuis des années avec des résultats très satisfaisants. La question de savoir si Abaqus résout la partie 55Chapitre 2 : Le thermoformage thermique est plus délicate. En effet, Abaqus® ne peut pas tenir compte de la complexité des transferts radiatifs dans le verre. Il est donc nécessaire de réaliser un travail de fond pour savoir si le logiciel peut prendre en charge la conduction en traitant la partie rayonnement en externe ou bien s’il faut externaliser l’ensemble du calcul thermique. Cet aspect sera abordé plus en détails dans la suite du rapport. Par rapport aux éléments exposés ci-dessus, pour développer la modélisation numérique du thermoformage, il sera nécessaire de répondre aux questions suivantes : • D’un point de vue thermomécanique, quelles sont les lois de comportement retenues pour modéliser le comportement du verre ? • Comment modéliser les transferts radiatifs et quelle méthode utiliser ? • Abaqus® peut-il prendre en charge une partie du calcul thermique ? Quelle solution est adoptée, comment est-elle mise en place et pour quels résultats ? Afin de mener à bien le projet, nous disposons d’une station de travail HP Z820 équipée d’un processeur Intel Xeon. 56Chapitre 3 Modélisation du comportement thermomécanique du verre Les aspects mécaniques et thermiques sont fortement liés en ce qui concerne la modélisation de la mise en forme du verre. Figure 3.1 – Couplage thermomécanique La figure 3.1 illustre la problématique. D’une part, la viscosité η (mais aussi, dans une moindre mesure, le module d’Young E, le coefficient de Poisson ν, etc.) est fortement thermodépendante et contrôle la vitesse de déformation du verre : dans la zone de formage, une variation de 10 °C peut entrainer une chute d’une décade de la viscosité. D’autre part, lorsque la plaque de verre change de forme, cela amène une modification sensible des flux thermiques et la température du verre varie. Cela signifie que la déformation mécanique du verre affecte sa température et vice versa, ce qui induit un fort couplage thermomécanique. Un couplage existe aussi entre conduction et rayonnement. En effet, dans l’équation de la chaleur, 57Chapitre 3 : Modélisation du comportement thermomécanique du verre qui régit le transfert thermique, la variation de température d’un élément de volume dépend aussi bien du transfert par conduction que du transfert par rayonnement. Afin de modéliser le comportement du verre, les équations associées à la partie mécanique sont présentées dans la première partie du chapitre et la deuxième partie est consacrée au transfert thermique. 3.1 Modélisation du comportement mécanique En premier lieu, on retient l’hypothèse que le verre est un milieu continu. Cela signifie que le domaine étudié est suffisamment grand pour être considéré comme homogène et traité d’un point de vue macroscopique. Dans le cadre de la modélisation de la mise en forme du verre par thermoformage, deux grandeurs mécaniques présentent un intérêt primordial : • le vecteur déplacement ~u qui permet de déterminer la forme finale de la pièce à partir de sa forme initiale à la condition qu’il soit connu en tous points et à tout instant t; • le tenseur des contraintes σ dont les valeurs permettent d’indiquer l’état de tension dans lequel se trouve le verre et ainsi de savoir s’il est susceptible de subir un choc thermique ou s’il existe des contraintes résiduelles. Le principe fondamental de la dynamique (PFD), aussi appelé équation locale du mouvement, fait intervenir trois équations dont les inconnues sont les composantes du vecteur déplacement ~u. Afin de résoudre le système, il est nécessaire de relier, d’une part, les déplacements ~u au tenseur des déformations ε, et d’autre part, le tenseur des déformations ε au tenseur des contraintes σ en utilisant une loi de comportement. Dans le cas du verre à la température de travail, la loi de comportement est relativement complexe puisqu’elle fait intervenir un modèle rhéologique, ce qui induit une relation non-linéaire entre contraintes et déformations. Il est nécessaire de disposer des valeurs de viscosité en fonction de la température. Elles seront calculées grâce à des lois semi-empiriques. 3.1.1 Équations de base Principe fondamental de la dynamique Le PFD est une application de la seconde loi de Newton. Il associe le vecteur accélération ~γ aux tenseur des contraintes σ et au vecteur des forces volumiques ~f (Maya, 2013) : ρv~γ = ρv D Dt  D~u Dt  = −−−−→ div(σ) + ~f (3.1) 583.1 Modélisation du comportement mécanique ρv est la masse volumique du matériau, t est le temps. Dans notre cas, ~f est associé à la pesanteur et s’exprime comme ~f = ρv~g. L’opérateur différentiel D/Dt (dérivée particulaire) est défini comme : Df Dt = ∂f ∂t + ~v · −−→grad(f) (3.2) Avec f une fonction quelconque définie et dérivable sur l’ensemble du domaine. Lien entre déplacements et déformations Soit un point matériel dont les coordonnées sont définies par le vecteur X~ 0 à l’état initial et le vecteur X~ (X~ 0, t) au cours du temps. Le tenseur gradient de la déformation, aussi appelé matrice jacobienne s’écrit par définition : F(X, t ~ ) = ∂X~ (X~ 0, t) ∂X~ 0 (3.3) On définit ensuite le tenseur E de Green-Lagrange comme : E = 1 2  t F · F − I  (3.4) I est la matrice identité. Le tenseur E est symétrique. D’un point de vue physique, la composante Eii du tenseur E représente le changement relatif de longueur d’un vecteur orienté dans la direction i. La composante Eij traduit la variation d’angle entre un vecteur orienté dans la direction i et la direction j. Sachant que le tenseur gradient de déformations peut s’écrire en fonction des déplacements : F = ∂X~ ∂X~ 0 = ∂(X~ 0 + ~u) ∂X~ 0 = I + ∂~u ∂X~ 0 = I + grad (~u) (3.5) En substituant dans 3.4, on obtient : E = 1 2  grad (~u) +t grad (~u) + grad (~u) · t grad (~u)  (3.6) Dans le cas où la matière se déforme peu, c’est-à-dire pour des déformations inférieures à 10% (Lemaitre et al., 2007), il est possible de retenir l’hypothèse des petites perturbations (ou petits gradients de déplacement). Elle implique que le lien entre le vecteur déplacement et le tenseur des déformations est : E ≃ ε = 1 2  grad (~u) +t grad (~u)  (3.7) ε est la notation usuelle du tenseur des déformations sous l’hypothèse des petites perturbations. 59Chapitre 3 : Modélisation du comportement thermomécanique du verre Dans certains cas, comme celui de la conception d’un pare-brise, les déformations du verre lors de la mise en forme sont cependant trop importantes pour négliger le terme grad (~u)· t grad (~u). Les équations liées aux grandes déformations sont relativement chargées, nous nous limiterons donc dans ce mémoire à l’écriture des lois de comportement en petites déformations bien que les grandes déformations soient utilisées numériquement. Pour plus de détails sur les grandes déformations, il est possible de consulter des ouvrages spécialisés (Rougee, 1997; Dimitrienko, 2011). 3.1.2 Loi de comportement On supposera que le comportement unidimensionnel du verre suit un modèle de Maxwell simple comme illustré sur la figure 3.2 et qu’il est sujet à de la dilatation thermique. L’amortisseur symbolise le comportement du solide visqueux qui correspond à celui d’un fluide newtonien. En 1D, la loi de comportement s’écrit : ε˙η = 1 η(T) ση (3.8) η est la viscosité qui caractérise la vitesse de déformation du matériau en fonction de la contrainte imposée. Cela signifie que lorsque le solide est sollicité, il se déforme continûment et lorsque cette contrainte cesse, la déformation est rémanente. η εη E εe α εα Figure 3.2 – Modèle rhéologique de Maxwell Le ressort représente le comportement linéaire élastique qui s’écrit en 1D sous la forme de la loi de Hooke : εe = σe E (3.9) La déformation est proportionnelle à la force appliquée. Lorsqu’un solide est mis sous contraintes puis relâché, il revient instantanément dans sa position initiale. A température ambiante, c’est la déformation élastique qui est prépondérante. La déformation visqueuse est quasi-inexistante car la viscosité est très grande. A l’inverse, pour une température supérieure à 600 oC, la viscosité devient suffisamment faible pour que le verre soit mis en forme par gravité. La déformation élastique est alors négligeable. Il existe aussi un phénomène de dilatation thermique qui implique une déformation εα lors d’une variation de température T˙ : εα = αL T˙ (3.10) 603.1 Modélisation du comportement mécanique αL caractérise la variation de longueur. Dans le cas du modèle de Maxwell, la contrainte σ appliquée au système est identique pour chaque élément : σ = ση = σe = σα. En revanche, la déformation totale est égale à la somme de la déformation élastique, de la déformation visqueuse et de la dilatation thermique : ε = εη + εe + εα (3.11) En associant toutes les équations de 3.8 à 3.11, il est possible de relier déformation et contrainte : ε˙ = σ˙ E + σ η + αL T˙ (3.12) Il s’agit de la forme 1D de l’équation. Lorsque celle-ci est généralisée en trois dimensions (Richter, 2006; Richter et Hoffmann, 2011), elle devient : ε˙ij = 1 2G σ˙ + 1 3  1 3K − 1 2G  σ˙ kkδij + 1 2ηs σij + 1 3  1 3ηb − 1 2ηs  σkkδij + α T δ ˙ ij (3.13) δij est le symbole de Kronecker qui vaut 1 si i = j et 0 sinon. G et K sont respectivement les modules de cisaillement et de compressibilité. Par analogie ηs et ηb peuvent être assimilés aux modules visqueux de cisaillement et de compressibilité. Les indices s et b correspondent aux termes anglais shear et bulk. Leur expression est : G = E 2(1 + νp) (3.14) K = E 3(1 − 2νp) (3.15) ηs = η 2(1 + νη) (3.16) ηb = η 3(1 − 2νη) (3.17) Dans la réalité, E, νp et νη (νp et νη sont supposés égaux) sont dépendants de la température (Duffrène et Gy, 1997; Duffrène et al., 1998). Cependant les supposer constants est une hypothèse acceptable car bien que ces coefficients varient fortement à haute température, le comportement élastique du verre n’est plus aussi prépondérant qu’à basse température. Certains auteurs considèrent donc le verre comme un fluide Newtonien parfait à haute température (Hyre, 2002; Yi et Jain, 2005), ce qui équivaut à négliger le comportement élastique. 3.1.3 Variation de la viscosité en fonction de la température Différentes lois existent pour modéliser le comportement de la viscosité en fonction de la température. La plus simple est la loi d’Arrhénius. Elle dérive d’un modèle de glissement des plans 61Chapitre 3 : Modélisation du comportement thermomécanique du verre d’atomes dû à un processus thermiquement activé (Zarzycki, 1982) qui peut s’écrire comme : η = η0 exp  ∆G kBT  (3.18) ∆G correspond à la barrière de potentiel qu’il faut vaincre pour générer un mouvement à l’échelle atomique. kB correspond à la constante de Boltzmann. En pratique, l’équation s’exprime en fonction de deux paramètres A et B (Mishra et Dubey, 2009; Hrma et Han, 2012) : log η(T) = A + B T (3.19) A et B sont identifiés en utilisant au minimum deux valeurs de viscosité à des températures différentes. Cependant, comme le remarque (Scholze, 1980), les valeurs sont correctes soit pour des viscosités très élevées, soit pour des viscosités très faibles. En effet, sur la figure 3.3 où la 0 1 2 3 4 5 6 0 5 10 15 20 1000/T (°C−1) log10 (η) Silice Verre silico−sodo −calcique As2 S3 Se Glycérol Figure 3.3 – Viscosité de différents verres (Zarzycki, 1982) viscosité est représentée sur une échelle logarithmique en fonction de l’inverse de la température, on constate que les courbes obtenues pour différents types de verres ne sont pas linéaires. De ce fait, la relation 3.19 est difficilement applicable pour les valeurs de viscosité dans la gamme de température proche de Tg et au-delà. Ainsi, les lois empiriques de Vogel-Fulcher-Tamman (VFT) ou Williams-Landel-Ferry (WLF) sont souvent préférées à la loi d’Arrhénius(Grégoire et al. (2007); Chen et Yi (2011); Su et al. (2011)). La loi VFT (Fulcher, 1925) s’écrit sous la forme : log η(T) = A + B T − T0 (3.20) 623.1 Modélisation du comportement mécanique La VFT permet une bonne représentation des valeurs de viscosité notamment pour les tempé- ratures de travail. Pour pouvoir identifier les paramètres A, B, et T0, les trois points de viscosité fixes peuvent être utilisés. La loi WLF (Williams et al., 1955) s’exprime comme : η(T) = η(T0) × 10  C1(T−T0) C2+(T−T0)  (3.21) Avec η(T0), C1 et C2 les paramètres à déterminer. Il existe des études théoriques afin de justifier les équations VFT (Dagdug, 2000) et WLF (Macedo et Litovitz, 1965) mais nous ne rentrerons pas ici dans les détails. 550 600 650 700 7 8 9 10 11 12 13 Température (s) log η (Pa.s) Parsa (2005) VFT WLF Figure 3.4 – Courbes WLF et VFT obtenues en utilisant les données expérimentales de (Parsa et al., 2005) Utiliser la loi VFT ou la loi WLF présente peu de différences. Mathématiquement, il n’y a pas d’équivalence théorique entre les deux courbes, cependant elles offrent des variations similaires pour des températures proche de Tg et au-delà. Ce dernier point est mis en évidence sur la figure 3.4. Les données expérimentales pour un verre silico-sodo-calcique sont les valeurs de viscosité mesurées par (Parsa et al., 2005). Dans ce cas précis, l’identification des paramètres de la loi VFT donne A = −13.5, B = 16500, T0 = 150 °C. Pour la loi WLF, T0 = 400 °C est imposée arbitrairement puis les trois paramètres identifiés sont η(T0 = 400 oC) = 1019 , C1 = −40 et C2 = 710. Sur la plage de température allant de 550 à 700 °C, les deux lois présentent la même allure. En général, la loi VFT est plus souvent utilisée car les paramètres A, B et T0 sont comparables d’une étude à une autre alors que dans le cas de la WLF, les coefficients C1, C2 et η(T0) vont dépendre de la température de référence T0 choisie. 63Chapitre 3 : Modélisation du comportement thermomécanique du verre 3.1.4 Conditions aux limites mécaniques Les conditions aux limites peuvent être imposées en déplacement ou en contraintes. Dans le cas de conditions limites en déplacement : ~u(~x) = ~f(~u) ∀~x ∈ ∂Ω (3.22) ∂Ω désigne la frontière du domaine Ω considéré. Dans le cas de conditions limites en contraintes : σ · ~n = T~ s(~u) ∀~x ∈ ∂Ω (3.23) ~n est le vecteur normal à la surface orienté vers l’extérieur. T~ s est le vecteur des efforts surfaciques. Dans le cas où les deux types de conditions aux limites sont présents, il s’agit de conditions limites dites mixtes. 3.2 Modélisation du transfert thermique Comme cela a été souligné dans le paragraphe précédent, les caractéristiques mécaniques du verre, particulièrement la viscosité, varient fortement en fonction de la température. C’est pourquoi la connaissance précise du champ de température dans le verre est primordiale pour modé- liser finement le thermoformage du verre. De manière générale, il existe trois modes de transfert thermique : conduction, convection et rayonnement. A l’intérieur du verre, les échanges se font par conduction et rayonnement. Les mouvements de matière au sein du verre sont suffisamment faibles pour que le transfert par convection ne soit pas pris en compte. En revanche, les conditions aux limites sont établies en faisant le bilan des flux conductif, convectif et radiatif entrant et sortant à la surface du verre. 3.2.1 Résolution de l’équation de la chaleur En faisant l’hypothèse qu’il n’existe ni source d’énergie, ni convection au sein du verre, l’équation de la chaleur sous sa forme locale s’écrit : ρv cp ∂T ∂t = −div(~qc + ~qr) (3.24) cp est la capacité thermique massique, T est la température, ~qc est le vecteur densité de flux thermique conductif et ~qr le vecteur densité de flux radiatif. 643.2 Modélisation du transfert thermique 3.2.2 Transfert thermique par conduction Un gradient de températures au sein d’un milieu continu génère un transfert d’énergie thermique par conduction. Ce mode de transfert est lié à la diffusion de l’énergie cinétique moyenne des particules, de la zone où l’énergie est la plus élevée à la zone où elle est la plus faible. D’après la loi établie par J. Fourier en 1822 (Sacadura, 1980), le vecteur densité de flux thermique −→qc s’exprime comme : −→qc = −kc(T) −−−→grad (T) (3.25) La capacité à diffuser l’énergie thermique est caractérisée par la conductivité kc qui peut être considérée comme un scalaire dans le cas d’un matériau isotrope comme le verre. 3.2.3 Transfert thermique par rayonnement Tout corps à une température différente de 0K rayonne : il émet ou absorbe des ondes électromagnétiques qui peuvent se propager dans le vide. Le transfert d’énergie par rayonnement est le seul pouvant se produire sans support matériel, à l’inverse du transfert par conduction ou par convection. Dans le vide, les ondes électromagnétiques se propagent à la vitesse de la lumière c0 = 299792458 m.s −1 . Dans un milieu d’indice de réfraction n, la vitesse de propagation de la lumière c se calcule par la relation : c = c0 n (3.26) Chaque onde électromagnétique possède une longueur d’onde λ, qui peut s’exprimer en fonction de sa fréquence ν et de sa vitesse c : λν = c ou λ = c ν (3.27) λ(µm) ν(Hz) 0, 1 1 10 100 1015 1014 1013 0,4 0,8 UV visible infrarouge Rayonnement thermique Figure 3.5 – Bande de longueurs d’onde du rayonnement thermique Il existe une grande gamme de longueurs d’onde qui va des ondes gamma (de l’ordre de 10−12m) 65Chapitre 3 : Modélisation du comportement thermomécanique du verre aux ondes radios (supérieures à 10m). Comme le montre la figure 3.5, les ondes ayant une influence sur la température de la matière sont comprises dans la gamme UV-visible-infrarouge entre 0, 1µm et 100µm (Modest (1993); Sacadura (1980)). Un échange par rayonnement ne tenant compte que d’une seule longueur d’onde (ou un intervalle de longueur d’onde infinitésimal [λ; λ + dλ]) est appelé rayonnement monochromatique. Dans le cadre des milieux solides dits semi-absorbants, comme le verre, les modèles régissant le transfert radiatif sont généralement plus complexes que ceux décrivant les transferts conductif et convectif. La suite de cette section est donc consacrée à la définition des notions de base du rayonnement thermique. Définitions ◦ Angle solide : Une source ponctuelle, de coordonnées X~ (x, y, z) émet du rayonnement dans un ensemble de directions privilégiées centrées autour de la direction ~s. Cet ensemble de directions est assimilé à un cône comme l’illustre la figure 3.6. dΩ dS r = 1 r = R (x, y, z) ~s (a) Représentation 3D dΩ dS θ r = 1 r = R ~s (x, y, z) (b) Représentation 2D Figure 3.6 – Représentation d’un angle solide L’angle solide infinitésimal dΩ est défini comme la surface interceptée par le cône d’émission et la sphère de rayon unité centrée autour de la source ponctuelle. Il s’exprime en stéradians (abrégé : sr). La relation entre dS, qui est la surface interceptée par le cône et une sphère de rayon R, et l’angle solide dΩ s’écrit : dΩ = dS R2 (3.28) 663.2 Modélisation du transfert thermique ◦ Luminance : Soient deux éléments de surface dS1 et dS2 à une température différente de 0K et séparés par un milieu transparent (qui n’interagit pas avec le rayonnement) comme sur la figure 3.7. −→n2 −→n1 dS1 ~s dS2 θ1 θ2 L Figure 3.7 – Configuration d’échange entre un élément de surface dS1 et un élément de surface dS2 Le flux thermique radiatif monochromatique dQν,1→2 émis par l’élément de surface dS1 et reçu par un élément de surface dS2 s’exprime comme : dQν,1→2 = Lν(X, ~s, T ~ ) dS1 cos θ1 dS2 cos θ2 L2 dν (3.29) Lν(X, ~s, T ~ ) est appelée luminance monochromatique ou spectrale. Il est possible d’écrire la luminance en fonction du flux thermique radiatif comme : Lν(X, ~s, T ~ ) = dQν,1→2 L 2 dS1 cos θ1 dS2 cos θ2dν = dQν,1→2 dΩ1 dS2 cos θ2dν (3.30) En générale, l’unité de la luminance spectrale est le W.m−2 .sr−1 .µm−1 lorsqu’elle est exprimée en fonction de la longueur d’onde (µm). La luminance spectrale correspond donc à la puissance envoyée par unité de surface projetée (perpendiculairement à la direction) par unité d’angle solide dans une direction ~s (figure 3.8) par unité spectrale (en longueur d’onde ou en fréquence). ~z Lν(X, ~s, T ~ ) θ ~s dΩ dS dS cos θ Figure 3.8 – Luminance dans la direction ~s 67Chapitre 3 : Modélisation du comportement thermomécanique du verre Notion de corps noir ◦ Définition : Il est défini comme un corps qui absorbe toute l’énergie radiative reçue à sa surface. Dans le même ordre d’idées, il émet le maximum d’énergie thermique radiative que peut rayonner un matériau à une température T d’équilibre. Il s’agit d’un idéal théorique, en pratique, il n’existe pas de corps noir parfait. Cependant, certains matériaux peuvent se rapprocher du comportement d’un corps noir dans des conditions particulières, comme le plâtre au-delà de 3 µm (Taine et al., 2008). Une enceinte à une température T dotée d’une très légère ouverture peut faire office de corps noir (Sacadura, 1980). ◦ Luminance du corps noir : Soit un corps noir dont la surface est en contact avec un milieu d’indice n. Selon la loi de Plank, établie en 1901 (Modest, 1993), la luminance du corps noir, notée L 0 ν (T), s’écrit : L 0 ν (T) = 2h ν3 n 2  c 2 0 exp  h ν kB T  − 1 −1 (3.31) Avec : – la constante de Planck h = 6, 626.10−34 J.s – la constante de Boltzmann kB = 1, 3805.10−23 J.K−1 La luminance d’un corps noir ne dépend pas du point d’émission X~ ou de la direction ~s mais de la fréquence ν, de la température T et de l’indice n du milieu environnant. Afin de connaître la puissance rayonnée par un corps noir, il est nécessaire d’intégrer la luminance sur tout le spectre de longueurs d’onde et sur l’ensemble de l’angle solide. Pour ce faire, il faut exprimer l’angle solide en fonction des angles polaire θ et azimutal ϕ comme sur la figure 3.9. ~x ~y ~z ϕ dϕ θ dθ Figure 3.9 – Angle solide représenté en utilisant les coordonnées sphériques La puissance rayonnée par unité de surface, appelée émittance, se calcule alors comme : 683.2 Modélisation du transfert thermique M0 (T) = Z +∞ 0 Z π/2 0 Z 2π 0 Lν (X, ~s, T ~ )cos θ sin θ dϕ dθ dν = Z +∞ 0 π L0 ν (T)dν = σBT 4 (3.32) avec σB la constante de Stefan-Boltzmann égale à 5, 67.10−8W.m−2 .K−4 . ◦ Loi de Wien : La luminance du corps noir en fonction de la longueur d’onde est représentée sur la figure 3.10 pour différentes températures. 0 2 4 6 8 10 12 14 0 2 4 6 8 10 12 x 109 Longueur d’ondes (µm) Luminance (W.m−2.sr−1 ) L ν 0 (T) 1200K 1000K 800K 600K 400K Figure 3.10 – Luminance du corps noir en fonction de la longueur d’onde Pour un corps noir à une température T, la loi de Wien donne la longueur d’onde λmax à laquelle la luminance spectrale est la plus élevée : T λmax = 2898K.µm (3.33) Ainsi, plus la température d’un corps est élevée plus le maximum d’énergie radiative émis se déplace vers les courtes longueurs d’onde et donc les hautes fréquences. Cette loi est pratique pour délimiter l’intervalle utile de longueur d’onde ou de fréquence à considérer pour effectuer les calculs radiatifs. Pour donner un ordre d’idées, un intervalle compris entre 0,5λmax et 5λmax correspond à un peu plus de 95% de l’énergie totale rayonnée par un corps noir (Sacadura, 1980). 69Chapitre 3 : Modélisation du comportement thermomécanique du verre Types de milieux Il existe des milieux opaques, semi-transparents et transparents. La distinction entre ces trois milieux dépend de la quantité de rayonnement absorbé après avoir parcouru une certaine distance. ◦ Loi de Beer-Lambert : Soit un flux radiatif de luminance Lν(s, ~s) traversant un milieu d’épaisseur ds dans lequel est négligé, dans un premier temps, les phénomènes dits d’émission propre et de diffusion (qui seront explicités ultérieurement). La loi de Beer-Lambert s’exprime ainsi : dLν(s, ~s) = −κν Lν(s, ~s) ds (3.34) κν est le coefficient d’absorption du milieu. Dans le cas où le coefficient d’absorption est très important, le rayonnement est absorbé sur une très courte distance et il est possible alors d’effectuer les bilans de transfert radiatif à la frontière. Il s’agit alors d’un matériau opaque. Si le coefficient d’absorption est nul ou négligeable, le matériau est alors considéré comme transparent. Si le coefficient d’absorption n’est ni très grand, ni négligeable, le rayonnement est absorbé au fur et à mesure de son trajet et l’on parle alors de milieu semi-transparent. ◦ Le milieu opaque : Pour un milieu opaque, aussi appelé corps opaque, les échanges par rayonnement s’effectuent uniquement à sa frontière. Ces échanges ont lieu sous la forme d’émission, d’absorption ou de réflexion comme l’illustre la figure 3.11. Lorsqu’un flux incident spectral de luminance L i ν ( −→si , T) éclaire la frontière d’un corps opaque, une part caractérisée par la luminance L a ν ( −→sa, T) est absorbée, l’autre part L r ν ( −→sr , T) est réfléchie. Le corps opaque émet aussi une part d’énergie radiative qui s’exprime en fonction de la luminance L e ν (~s, T). milieu transparent corps opaque flux incident L i ν (−→si , T ) flux r´efl´echi L r ν (−→sr , T ) flux absorb´e L a ν (−→sa, T ) flux ´emis L e ν (~s, T ) Figure 3.11 – Bilan du transfert radiatif à la surface d’un milieu opaque 703.2 Modélisation du transfert thermique Afin de quantifier expérimentalement la proportion d’énergie radiative émise, réfléchie ou absorbée, des caractéristiques comme l’émissivité, la réflectivité ou l’absorptivité sont définies. L’absorptivité spectrale αν s’écrit comme la part du flux incident à la surface, provenant de toutes les directions et traversant la frontière, qui est absorbée par le matériau : αν = R 2π L a ν ( −→sa , T) cos θa dΩa R 2π Li ν ( −→si , T) cos θi dΩi (3.35) Dans le même ordre d’idées, la réflectivité spectrale s’écrit : ρν = R 2π L r ν ( −→sr , T) cos θr dΩr R 2π Li ν ( −→si , T) cos θi dΩi (3.36) Comme le flux incident ne peut être qu’absorbé ou transmis, cela implique : αν + ρν = 1 (3.37) L’émissivité spectrale, sans unité, correspond au rapport du flux spectral émis par le matériau dans toutes les directions sur le flux émis par un corps noir à la même température : εν = R 2π L e ν (~s, T) cos θ dΩ R 2π L0 ν (~s, T) cos θ dΩ = Mν(T) M0 ν (T) (3.38) Dans le cas d’un équilibre thermodynamique local, la loi de Kirchhoff induit que : αν = εν (3.39) Elle est valable pour des grandeurs directionnelles et peut être étendue aux grandeurs hémisphé- riques sous l’hypothèse d’un rayonnement diffus. Remarque : un corps noir est un cas particulier de corps opaque pour lequel εν = αν = 1 et ρν = 0 En général, la réflexion du rayonnement est considérée comme étant soit spéculaire, soit diffuse, comme le montre la figure 3.12. ~n L i ν (θi , T ) θi L r ν (θr, T ) θr surface (a) Réflexion spéculaire ~n L i ν (θi , T ) surface (b) Réflexion diffuse Figure 3.12 – Type de réflexion 71Chapitre 3 : Modélisation du comportement thermomécanique du verre Lorsque la réflexion est spéculaire, le rayonnement est réfléchi dans le même plan que le rayonnement incident et θi = θr. Dans le cas d’une réflexion diffuse, il n’existe pas de direction préférentielle et le rayonnement est réfléchi de manière homogène dans toutes les directions. ◦ Le milieu transparent : Un milieu transparent n’interagit pas avec les ondes électromagnétiques le traversant. Le vide est un milieu transparent et son coefficient d’absorption κ est nul. En faisant l’hypothèse que l’air contient des quantités négligeables de vapeur d’eau ou de dioxyde de carbone, il peut être considéré comme un milieu transparent. ◦ Le milieu semi-transparent : Dans un milieu semi-transparent, le rayonnement peut être absorbé mais aussi renforcé par émission propre. Il existe aussi un phénomène de diffusion, c’est-à-dire modification de la direction de propagation du rayonnement, qui peut soit renforcer, soit atténuer le rayonnement. En général, les flux radiatifs dans un milieu semi-transparent sont calculés en établissant l’Équation de Transfert Radiatif (E.T.R.) et en la résolvant via des méthodes numériques. Ainsi, il faut exprimer la variation de luminance dLν(s, ~s, T) le long d’un chemin optique d’abscisse s orienté dans la direction ~s. Le phénomène d’absorption a été abordé précédemment et se traduit analytiquement par la loi de Beer-Lambert (éq. (3.34)). Le renforcement de la luminance par émission propre du milieu s’écrit (Modest, 1993) : dL e ν (s, ~s, T) = κν L 0 ν (T) ds (3.40) Le phénomène de diffusion du rayonnement peut entraîner : – une atténuation du rayonnement car une partie du rayonnement orienté dans la direction ~s se réoriente dans une nouvelle direction −→ s ′ , – un renforcement du rayonnement car le rayonnement orienté dans une direction −→ s ′ peut se réorienter dans la direction ~s. La proportion de pertes par diffusion est donnée par le coefficient de diffusion spectral σd,ν comme : dL d− ν (s, ~s, T) = −σd,ν Lν(s, ~s, T)ds (3.41) Le renforcement du flux par diffusion s’écrit : dL d+ ν (s, ~s, T) = σd,ν 4π Z 4π Φν( −→ s ′ → ~s)Lν(s, −→ s ′ , T) dΩ ds (3.42) 723.2 Modélisation du transfert thermique Φν( −→ s ′ → ~s) est la fonction de phase. Elle traduit la densité de probabilité du changement de direction de −→ s ′ vers ~s. En regroupant tous les termes de pertes par diffusion et absorption ainsi que les gains par diffusion et émission propre, il est possible d’établir l’équation de transfert radiatif : 1 c ∂Lν (~s) ∂t + ∂Lν (~s) ∂s = − dL a ν (~s) ds − dL d− ν (~s) ds + dL d+ ν (~s) ds + dL e ν (~s) ds = −κνLν(~s) − σd,νLν(~s) + σd,ν 4π Z 4π Φν( −→ s ′ → ~s)Lν( −→ s ′ )dΩ + κν L 0 ν (~s) (3.43) Afin d’alléger les notations, les variables s et T sont sous-entendues. Dans le cas des transferts radiatifs au sein du verre, le phénomène de diffusion est inexistant sur la gamme du rayonnement thermique (de 0,1 µm à 100 µm). Compte-tenu du fait que l’évolution du système est très lente pendant l’opération de thermoformage, il est possible de négliger le terme de variation temporelle de la luminance. Ce qui permet de simplifier l’équation de transfert radiatif : ∂Lν(~s) ∂s = −κνLν(~s) + κν L 0 ν (~s) (3.44) La méthode de Monte-Carlo, présentée dans le chapitre suivant, permettra de résoudre cette équation de manière stochastique et non pas déterministe. 3.2.4 Conditions aux limites thermiques En supposant que le verre est entouré d’air, les conditions aux limites peuvent s’écrire comme : Kg(Ta − Tv) + −−−→ q a→v r · ~n = h−−−→ q v→a r + kc −−−→ grad (T) i · ~n (3.45) Kg est un coefficient d’échange global en W.K−1 .m−2 . ~n est le vecteur normal à la surface orienté vers l’extérieur. q i→j r est le flux radiatif qui traverse l’interface du milieu i vers le milieu j. Dans notre cas, les indices a et v désignent respectivement l’air et le verre. La figure 3.13 schématise l’ensemble de ces échanges. En ce qui concerne le rayonnement, les échanges au dioptre (interface verre/air) sont pilotés par la transmittivité τν qui dépend des indices de réfraction spectraux du verre nν,v et de l’air nν,a mais aussi de l’angle polaire qui correspond à l’angle formé entre la surface et le flux incident. 73Chapitre 3 : Modélisation du comportement thermomécanique du verre Kg −−−→ q a→v r −−−→ q v→a r −kc −−→grad(T) ~n Air (Ta) Verre (Tv) Figure 3.13 – Représentation des échanges thermiques à la frontière verre/air Les relations de Fresnel permettent de calculer τν de la façon suivante : τν = 1 − ρν(θv , nν) = 1 − 1 2      cos θv − nν q 1 − (nν) 2 sin2θv cos θv + nν q 1 − (nν) 2 sin2θv   2 +   cos θv − q 1 − (nν) 2 sin2θv cos θv + q 1 − (nν) 2 sin2θv   2    (3.46) Avec θv l’angle polaire formé entre la direction du flux radiatif incident et l’axe −→zl orthogonal à la surface. nν est le rapport des indices spectraux du verre et de l’air : nν = nν,a /nν,v . Sur la gamme spectrale correspondant à la semi-transparence, en supposant que le flux incident de la figure 3.13 provenant de l’air peut être caractérisé par sa luminance spectrale L 0 ν (Ta , nν), la part transmise au verre peut être calculée de la façon suivante : −−−→ q a →v r(ST) · ~n = Z νmax ST νmin ST Z 2π 0 Z π/2 0 τ (θa , nν)L 0 ν (Ta , nν) × cos θa sin θa dθa dϕa dν Avec, respectivement, les dénominations ST pour la gamme semi-transparente, a pour l’air et v pour verre. ν min et ν max indiquent les bornes de l’intervalle semi-transparent. Sur la gamme opaque, au-delà de 5 µm (Rubin, 1985), le verre est assimilé à un corps gris : −−−−−−→ q a →v r(opaque) · ~n = Z νmax opaque νmin opaque πεν I 0 ν (Ta , nν)dν (3.47) L’émissivité du verre peut alors être considérée comme constante en retenant la valeur εν = 0, 9 (Lee et Viskanta, 2001). 74Chapitre 4 Développement d’un code de calcul du transfert radiatif Sur l’intervalle de longueurs d’onde compris entre 0,1 et 5 µm, le verre est un matériau semitransparent absorbant et non diffusant. La modélisation du transfert radiatif dans ce type de milieu est relativement complexe. Contrairement à un corps noir, le rayonnement n’est pas absorbé en surface mais de manière volumique. Il est donc nécessaire de tenir compte des propriétés optiques du verre, de son coefficient d’absorption, de son indice de réfraction et de la variation spectrale de toutes ces grandeurs. Dans ce chapitre, nous évoquons dans un premier temps les principales méthodes numériques qui existent pour résoudre le transfert radiatif dans le but d’exposer les forces et faiblesses de chacune d’entre elles. Ensuite, nous expliquons pourquoi la méthode de Rosseland a été retenue en première approximation et pourquoi nous utilisons la méthode de Monte-Carlo pour des calculs nécessitant une précision optimale. Le reste du chapitre est dédié au fonctionnement global du code de Monte-Carlo et à sa validation. 4.1 Méthodes de calcul du transfert radiatif Dans la littérature scientifique, de nombreuses méthodes permettent de résoudre l’équation de transfert radiatif avec des hypothèses plus ou moins fortes ayant un impact sur la précision des résultats et la durée des temps de calcul. Les principales méthodes sont recensées ici en explicitant rapidement le principe de résolution et les cas dans lesquels elles sont utilisées. Parmi celles-ci, dans le cadre de notre étude, nous avons retenu la méthode de Rosseland en première approximation et la méthode de Monte-Carlo qui sera décrite plus en détail à la suite de cette section. 75Chapitre 4 : Développement d’un code de calcul du transfert radiatif 4.1.1 Méthode des harmoniques sphériques (ou différentielles P-N) Les méthodes d’approximation différentielle permettent d’écrire l’expression de la luminance sous la forme d’une somme infinie d’harmoniques sphériques ne dépendant que de la direction. Développée par (Jeans, 1917), la méthodes des harmoniques sphériques est généralement mise en œuvre en choisissant des ordres faibles (P1 ou P3), mais ces troncatures conduisent souvent à des approximations trop importantes, notamment pour les milieux optiquement épais (Modest, 1993). 4.1.2 Méthode des zones Cette méthode a été développée par (Hottel et Cohen, 1958) : des facteurs d’échange sont calculés entre chaque zone du domaine et le bilan radiatif est ensuite écrit sous la forme d’une matrice NxN, avec N le nombre d’inconnues. Elle se limite à des milieux simples car elle s’avère peu performante si les géométries étudiées sont complexes ou si le milieu est semi-transparent et très hétérogène. Le fait d’utiliser une discrétisation spectrale rend la méthode difficilement applicable car il est alors nécessaire de calculer les facteurs d’échange sur chaque bande considérée. 4.1.3 Méthode des transferts discrets La méthode des transferts discrets (ou suivi de rayons) est relativement récente et a été exposée pour la première fois par (Lockwood et Shah, 1981). Elle est basée sur une technique de résolution de l’équation de transfert radiatif sur l’ensemble du chemin optique parcouru par le rayon. La méthode peut souffrir du problème appelé « effet de rayons » car, comme le souligne (Collin, 2006), la qualité des résultats peut être affectée si le nombre de directions discrètes choisi n’est pas suffisant. 4.1.4 Méthode des ordonnées discrètes La méthode des ordonnées discrètes a été développée par (Chandrasekhar, 1960) pour le calcul du transfert radiatif unidimensionnel en astrophysique puis appliquée aux problèmes de transfert radiatif multidimensionnel par (Truelove et Hyde, 2007; Fiveland, 1982). Certains auteurs se sont intéressés à sa mise en œuvre pour modéliser les transferts dans le verre (Lacroix et al., 2002). La méthode se base sur la transformation de l’équation de transfert en équations diffé- rentielles partielles. L’espace angulaire est discrétisé en un nombre fini de directions et le calcul du flux radiatif est réalisé en intégrant numériquement la luminance dans toutes les directions. La méthode est sujette à des problèmes dits de "fausse diffusion" qui peuvent mener à la surestimation des températures du milieu (Lee et Viskanta, 2001) ou encore des effets de rayons qui génèrent des discontinuités dans les valeurs de flux (Coelho, 2002; Trovalet, 2011). Elle nécessite souvent un processus itératif afin d’obtenir les bonnes valeurs de luminance. Elle conduit à des 764.1 Méthodes de calcul du transfert radiatif résultats fiables mais les temps de calcul seront d’autant plus importants que le milieu étudié est complexe. La méthode des volumes finis repose sur le même principe. 4.1.5 Méthode de Rosseland La méthode de Rosseland, aussi connue sous l’appelation "méthode d’approximation de diffusion", doit son nom à un astrophysicien norvégien (Rosseland, 1936). Retenue en première approximation pour nos simulations numériques, elle sera un peu plus détaillée que les précé- dentes sur le plan théorique. En premier lieu, la méthode de Rosseland est préconisée pour les milieux optiquement épais (la distance moyenne d’absorption du rayonnement doit être infé- rieure à la dimension caractéristique du domaine) sans quoi les résultats obtenus peuvent être trop grossiers et donc inexploitables. Comparativement à d’autres méthodes, elle est relativement simple à mettre en place et les temps de calcul sont raisonnables. En revanche, elle peut conduire à une sous-estimation des températures au niveau de la frontière (Lee et Viskanta, 2001). Le principe de la méthode se base sur l’hypothèse que lorsque le milieu est suffisamment épais, le transfert par rayonnement peut être considéré comme diffusif. Le vecteur densité de flux radiatif peut alors d’écrire sous la forme : −→qr = −kr −−−→grad (T) (4.1) kr, appelée conductivité radiative, s’écrit (Siegel et Howell, 1992) : kr = Z ∞ 0 4π 3κν ∂L0 ν (T) ∂(T) dν (4.2) Lorsque le milieu est absorbant et diffusant, il faut prendre en compte le coefficient d’extinction βν au lieu du coefficient d’absorption κν . La démonstration permettant d’obtenir l’expression de kr est fournie en annexe 1. Après dérivation, kr a pour expression : kr = Z +∞ 0 4π 3κν " 2h 2ν 4n 2 c 2 0 k # × (1/T2 )(e hν/kT ) e hν/kT − 1 2 ! dν (4.3) Concernant les conditions aux limites, le rayonnement incident reçu et transmis à la frontière est considéré comme directement absorbé par le matériau. La conductivité radiative va ensuite traduire la capacité du matériau à diffuser le rayonnement en son sein. 4.1.6 Méthodes alternatives : éléments finis et différences finies Nous nous contentons ici de citer des études utilisant ces méthodes de calcul, moins souvent rencontrées pour la résolution du transfert radiatif, comme la méthode des éléments finis (Rousse 77 Algorithmique distribu´ee d’exclusion mutuelle : vers une gestion efficace des ressources Jonathan Lejeune To cite this version: Jonathan Lejeune. Algorithmique distribu´ee d’exclusion mutuelle : vers une gestion efficace des ressources. Data Structures and Algorithms. Institut d’Optique Graduate School, 2014. French. . HAL Id: tel-01077962 https://tel.archives-ouvertes.fr/tel-01077962 Submitted on 27 Oct 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.Ecole doctorale EDITE de Paris ´ Algorithmique distribu´ee d’exclusion mutuelle : vers une gestion efficace des ressources THESE ` pr´esent´ee et soutenue publiquement le 19 septembre 2014 pour l’obtention du Doctorat de l’Universit´e Pierre et Marie Curie (mention informatique) par Jonathan Lejeune Composition du jury Pr´esident : Franck Petit Professeur UPMC Rapporteurs : Abdelmadjid Bouabdallah Professeur UTC Christine Morin Directrice de recherche Inria Examinateurs : Achour Mostefaoui Professeur Universit´e de Nantes Mohamed Naimi Professeur Universit´e de Cergy-Pontoise Encadrants : Luciana Arantes Maˆıtre de conf´erences UPMC Julien Sopena Maˆıtre de conf´erences UPMC Directeur de thèse : Pierre Sens Professeur UPMC Laboratoire d’Informatique de Paris 6 — UMR 7606Mis en page avec la classe thesul.i Cette thèse est dédiée à : ma mère mon père pépère Alexandre mémère Antoinette pépère Michel mémère Mireille et Rebeccaiiiii Remerciements Une thèse marque la fin de longues années d’études. Sa rédaction permet de se rendre compte qu’un travail d’expertise approfondi a été accompli et donne l’agréable sensation d’avoir apporté une pierre à l’édifice. Je tiens dans un premier temps à remercier toute personne qui a contribué d’une façon ou d’une autre à la réalisation et à l’aboutissement de cette thèse. Je n’aurais jamais pu imaginer, il y a 8 ans, lors de mes premiers pas dans l’enseignement supérieur, dans ma petite université de Picardie, que je serai allé découvrir la capitale pour préparer un doctorat en informatique. Je n’étais d’ailleurs pas destiné initialement à l’informatique croyant à tort qu’il fallait être un "geek" pour y prendre goût. J’ai donc un premier remerciement pour M. Gwenaël Richomme qui a contribué grandement à mon changement d’orientation grâce à son cours passionnant d’introduction à l’algorithmique et à la programmation. Lors de ma venue à Paris en septembre 2009 pour préparer le master SAR de l’UPMC, je pensais encore être destiné à l’industrie. Le changement de cap, je le dois à Olivier Marin que je remercie pour m’avoir aider à faire le premier pas dans le domaine de la recherche grâce à son sujet de projet sur le Map/Reduce. Le projet a ensuite débouché sur un stage au LIP6 où j’ai fait la connaissance de Julien Sopena et de Luciana Arantes. C’est sans nul doute grâce à ce stage ayant abouti sur deux publications et un voyage à Lisbonne que l’idée de faire une thèse commençait à germer. Cette thèse fait suite à mon stage de fin d’études qui m’a été proposé par Pierre Sens, Julien Sopena et Luciana Arantes. Ce stage a été très bénéfique pour moi car il m’a donné 6 précieux mois de plus et a sans nul doute contribué à terminer cette thèse dans les temps. Je tiens donc à remercier chaleureusement mon directeur de thèse et mes encadrants pour la confiance qu’ils m’ont accordée lors de ce recrutement ainsi que l’aide et conseils précieux qu’ils m’ont apportés durant ces trois ans. J’adresse un grand merci à mes collègues doctorants et ex-doctorants de l’équipe REGAL (en particulier Florian David qui a été aussi un très bon colocataire) et de l’équipe Move. Je remercie particulièrement Sébastien Monnet qui a participé quasiment à toutes mes répétitions de présentation et de soutenance de cette thèse. Je remercie le projet ANR MyCloud qui a été à l’origine du sujet ainsi que ses membres avec qui j’ai eu d’enrichissantes conversations scientifiques. Je remercie Mme Christine Morin et M. Abdelmadjid Bouabdallah d’avoir accepté de rapporter cette thèse ainsi que M. Mohamed Naimi, M. Achour Mostefaoui et M. Franck Petit d’avoir accepté de faire partie du jury. Je terminerai cette page en remerciant les personnes de ma famille qui ont très grandement contribué à mon éducation et sans qui je ne serai pas ce que je suis devenu : mes parents et mes grands-parents. Il me reste à remercier immensément ma chère Rebecca qui fait mon bonheur tous les jours et qui m’a sans cesse encouragé pendant ces trois ans.ivRésumé Les systèmes à grande échelle comme les Grilles ou les Nuages (Clouds) mettent à disposition pour les utilisateurs des ressources informatiques hétérogènes. Dans les Nuages, les accès aux ressources sont orchestrés par des contrats permettant de définir un niveau de qualité de service (temps de réponse, disponibilité ...) que le fournisseur doit respecter. Ma thèse a donc contribué à concevoir de nouveaux algorithmes distribués de verrouillage de ressources dans les systèmes large échelle en prenant en compte des notions de qualité de service. Dans un premier temps, mes travaux de thèse se portent sur des algorithmes distribués de verrouillage ayant des contraintes en termes de priorités et de temps. Deux algorithmes d’exclusion mutuelle ont été proposés : un algorithme prenant en compte les priorités des clients et un autre pour des requêtes avec des dates d’échéance. Dans un second temps, j’ai abordé le problème de l’exclusion mutuelle généralisée pour allouer de manière exclusive plusieurs types de ressources hétérogènes. J’ai proposé un nouvel algorithme qui réduit les coûts de synchronisation en limitant la communication entre processus non conflictuels. Tous ces algorithmes ont été implémentés et évalués sur la plateforme nationale Grid 5000. Les évaluations ont montré que nos algorithmes satisfaisaient bien les contraintes applicatives tout en améliorant de manière significative les performances en termes de taux d’utilisation et de temps de réponse. Mots-clés: Algorithmique distribuée, exclusion mutuelle, QoS, expérimentation Abstract Distributed large-scale systems such as Grids or Clouds provide large amounts of heterogeneous computing resources. Clouds manage ressource access by contracts that allow to define a quality of service (response time, availability, ...) that the provider has to respect. My thesis focuses on designing new distributed locking algorithms for large scale systems that integrate notions of quality of service. At first, my thesis targets distributed locking algorithms with constraints in terms of priorities and response time. Two mutual exclusion algorithms are proposed : a first algorithm takes into account client-defined priorities and a second one associates requests with deadlines. I then move on to a generalized mutual exclusion problem in order to allocate several types of heterogeneous resources in a exclusive way. I propose a new algorithm that reduces the cost of synchronization by limiting communication between non-conflicting processes. All algorithms have been implemented and evaluated over the national platform Grid 5000. Evaluations show that our algorithms satisfy applicative constraints while improving performance significatively in terms of resources use rate and response time. Keywords: Distributed algorithm, mutual exclusion, QoS, experiments vviSommaire 1 Introduction générale 1 1.1 Présentation et contexte général de la thèse . . . . . . . . . . . . . . . 1 1.2 Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.3 Organisation du manuscrit . . . . . . . . . . . . . . . . . . . . . . . . . 3 Partie I Exclusion mutuelle distribuée : concepts, modèles et algorithmes 2 Exclusion mutuelle distribuée 7 2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2.2 Description et formalisation du système considéré . . . . . . . . . . . . 8 2.3 Définition de l’exclusion mutuelle . . . . . . . . . . . . . . . . . . . . . 9 2.3.1 États des processus . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.3.3 Ordonnancement . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.3.4 Métriques d’évaluation de performances . . . . . . . . . . . . . 10 2.4 Taxonomie des algorithmes . . . . . . . . . . . . . . . . . . . . . . . . 11 2.4.1 Algorithmes à permissions . . . . . . . . . . . . . . . . . . . . . 11 2.4.2 Algorithmes à jeton . . . . . . . . . . . . . . . . . . . . . . . . 12 2.4.3 Algorithme centralisé . . . . . . . . . . . . . . . . . . . . . . . . 14 2.4.4 Algorithmes hybrides et hiérarchiques . . . . . . . . . . . . . . 14 2.5 Algorithmes de bases des contributions de la thèse . . . . . . . . . . . . 15 2.5.1 L’algorithme de Raymond . . . . . . . . . . . . . . . . . . . . . 15 2.5.2 Les algorithmes de Naimi-Tréhel . . . . . . . . . . . . . . . . . 18 2.6 Extensions de l’exclusion mutuelle . . . . . . . . . . . . . . . . . . . . 20 2.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 viiviii Sommaire 3 Exclusion mutuelle à priorités 25 3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 3.2 Extension du modèle du système considéré . . . . . . . . . . . . . . . . 26 3.3 Taxonomie des algorithmes à priorité . . . . . . . . . . . . . . . . . . . 26 3.3.1 Priorités statiques . . . . . . . . . . . . . . . . . . . . . . . . . 26 3.3.2 Priorités dynamiques . . . . . . . . . . . . . . . . . . . . . . . . 27 3.4 Description des algorithmes principaux . . . . . . . . . . . . . . . . . . 27 3.4.1 Algorithme de Mueller . . . . . . . . . . . . . . . . . . . . . . . 27 3.4.2 Algorithme de Chang . . . . . . . . . . . . . . . . . . . . . . . . 28 3.4.3 Algorithme de Kanrar-Chaki . . . . . . . . . . . . . . . . . . . 29 3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 Partie II Exclusion mutuelle à priorité et exclusion mutuelle à contraintes temporelles 31 4 Temps d’attente et inversions de priorité dans l’exclusion mutuelle 33 4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 4.2 Définition des inversions . . . . . . . . . . . . . . . . . . . . . . . . . . 34 4.3 Réduction des inversions . . . . . . . . . . . . . . . . . . . . . . . . . . 36 4.3.1 Corps de l’algorithme . . . . . . . . . . . . . . . . . . . . . . . 36 4.3.2 Amélioration des communications . . . . . . . . . . . . . . . . . 38 4.3.3 Retard d’incrémentation de priorité . . . . . . . . . . . . . . . . 39 4.3.4 Prise en compte de la topologie . . . . . . . . . . . . . . . . . . 39 4.4 Évaluation du mécanisme de réduction d’inversions . . . . . . . . . . . 40 4.4.1 Protocole d’évaluation . . . . . . . . . . . . . . . . . . . . . . . 40 4.4.2 Résultats en charge constante . . . . . . . . . . . . . . . . . . . 41 4.4.3 Résultats en charge dynamique . . . . . . . . . . . . . . . . . . 49 4.4.4 Étude en charge constante avec priorité constante . . . . . . . . 51 4.4.5 Synthèse de l’évaluation . . . . . . . . . . . . . . . . . . . . . . 55 4.5 Réduction du temps d’attente . . . . . . . . . . . . . . . . . . . . . . . 55 4.5.1 Un équilibre sur deux objectifs contradictoires . . . . . . . . . . 56 4.5.2 Principes de l’algorithme Awareness . . . . . . . . . . . . . . . 56 4.5.3 Description de l’algorithme Awareness . . . . . . . . . . . . . . 57ix 4.6 Évaluation des performances de l’algorithme Awareness . . . . . . . . . 61 4.6.1 Protocole d’évaluation . . . . . . . . . . . . . . . . . . . . . . . 62 4.6.2 Résultats pour une fonction de palier donnée . . . . . . . . . . 62 4.6.3 Impact de la fonction de palier sur les inversions et le temps de réponse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 4.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 5 Exclusion mutuelle avec dates d’échéance 69 5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 5.2 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 5.2.1 Cloud Computing . . . . . . . . . . . . . . . . . . . . . . . . . . 70 5.2.2 Service Level Agreement . . . . . . . . . . . . . . . . . . . . . . 71 5.3 Description de l’algorithme . . . . . . . . . . . . . . . . . . . . . . . . 71 5.3.1 Description générale . . . . . . . . . . . . . . . . . . . . . . . . 71 5.3.2 Contrôle d’admission . . . . . . . . . . . . . . . . . . . . . . . . 74 5.3.3 Mécanisme de préemption . . . . . . . . . . . . . . . . . . . . . 77 5.4 Évaluation des performances . . . . . . . . . . . . . . . . . . . . . . . . 81 5.4.1 Protocole d’évaluation . . . . . . . . . . . . . . . . . . . . . . . 81 5.4.2 Métriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 5.4.3 Impact global . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 5.4.4 Impact de la préemption pour une charge donnée . . . . . . . . 84 5.4.5 Impact de la charge . . . . . . . . . . . . . . . . . . . . . . . . 86 5.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 Partie III Contribution dans la généralisation de l’exclusion mutuelle 89 6 Présentation de l’exclusion mutuelle généralisée 91 6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 6.2 Généralités et notations . . . . . . . . . . . . . . . . . . . . . . . . . . 92 6.3 Le modèle à une ressource en plusieurs exemplaires . . . . . . . . . . . 92 6.3.1 Section critique à entrées multiples ou k-mutex . . . . . . . . . 92 6.3.2 Plusieurs exemplaires par demande . . . . . . . . . . . . . . . . 93x Sommaire 6.4 Le modèle à plusieurs ressources en un seul exemplaire . . . . . . . . . 94 6.4.1 Les conflits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 6.4.2 Propriétés à respecter . . . . . . . . . . . . . . . . . . . . . . . 95 6.4.3 Algorithmes incrémentaux. . . . . . . . . . . . . . . . . . . . . 95 6.4.4 Algorithmes simultanés . . . . . . . . . . . . . . . . . . . . . . 96 6.5 Le modèle à plusieurs ressources en plusieurs exemplaires . . . . . . . . 98 6.6 Conclusion et synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 7 Verrouiller efficacement les ressources sans connaissance préalable des conflits 101 7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 7.2 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 7.3 Suppression du verrou global . . . . . . . . . . . . . . . . . . . . . . . 104 7.3.1 Mécanisme de compteurs . . . . . . . . . . . . . . . . . . . . . . 104 7.3.2 Ordonnancement total des requêtes . . . . . . . . . . . . . . . . 104 7.4 Évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 7.4.1 Protocole d’évaluation . . . . . . . . . . . . . . . . . . . . . . . 105 7.4.2 Résultats sur le taux d’utilisation . . . . . . . . . . . . . . . . . 107 7.4.3 Résultats sur le temps d’attente . . . . . . . . . . . . . . . . . . 109 7.5 Ordonnancement dynamique . . . . . . . . . . . . . . . . . . . . . . . . 109 7.5.1 Principes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 7.5.2 Évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 7.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 Partie IV Conclusion générale 113 8 Conclusion générale 115 8.1 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 8.2 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 8.2.1 Perspectives spécifiques aux contributions . . . . . . . . . . . . 117 8.2.2 Perspectives globales . . . . . . . . . . . . . . . . . . . . . . . . 117 Bibliographie 119 Publications associées à cette thèse 125xi Liste des notations 127 Annexes 129 A Implémentation distribuée de l’algorithme d’exclusion mutuelle gé- néralisée 129 A.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 A.2 Les messages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 A.2.1 Information véhiculée . . . . . . . . . . . . . . . . . . . . . . . 130 A.2.2 Mécanisme d’agrégation . . . . . . . . . . . . . . . . . . . . . . 130 A.3 États des processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 A.4 Variables locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 A.5 Description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132xii SommaireTable des figures 2.1 Machine à états de l’exclusion mutuelle classique . . . . . . . . . . . . . . . 9 2.2 Algorithme de Raymond . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.3 Exemple d’exécution de l’algorithme de Raymond . . . . . . . . . . . . . . 17 2.4 Algorithme de Naimi-Tréhel avec file distribuée [NT87a] . . . . . . . . . . 19 2.5 Algorithme de Naimi-Tréhel avec files locales [NT87b] . . . . . . . . . . . . 19 2.6 Exemple d’exécution des deux versions de l’algorithme de Naimi-Tréhel . . 21 2.7 Schéma récapitulatif de l’état de l’art de l’exclusion mutuelle . . . . . . . . 24 3.1 Exemple d’exécution de l’algorithme de Kanrar-Chaki . . . . . . . . . . . . 30 4.1 Exemple de classe d’inversions de priorité . . . . . . . . . . . . . . . . . . . 35 4.2 Algorithme retard-distance . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 4.3 Performances du mécanisme de retard avec une charge intermédiaire . . . 42 4.4 Analyse approfondie des inversions pour une charge intermédiaire . . . . . 44 4.5 Étude de l’impact de la charge sur le nombre de messages, le taux d’utilisation et le nombre d’inversions . . . . . . . . . . . . . . . . . . . . . . . . 46 4.6 Impact de la charge sur les requêtes pénalisées et favorisées . . . . . . . . . 48 4.7 Rapport (nombre total d’inversions / nombre total de requêtes) avec une charge dynamique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4.8 Schémas des distributions de priorités considérées dans l’arbre . . . . . . . 52 4.9 Temps de réponse moyen en fonction de la distribution des priorités dans l’arbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 4.10 Temps de réponse moyen en fonction de la distribution des priorités dans l’arbre (tableau des valeurs) . . . . . . . . . . . . . . . . . . . . . . . . . . 54 4.11 Différence de comportement entre les différents algorithmes . . . . . . . . . 58 4.12 Ordre de grandeur en nombre d’émissions de requêtes de priorité p, pour acheminer le jeton en zone de priorité p 0 < p . . . . . . . . . . . . . . . . . 58 4.13 Algorithme Awareness . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 4.14 Performances de l’algorithme "Awareness" en charge moyenne (ρ = 0.5N) et en charge haute (ρ = 0.1N) . . . . . . . . . . . . . . . . . . . . . . . . . 63 4.15 Étude de cinq familles de fonction de palier en charge moyenne (ρ = 0.5N) et en charge haute (ρ = 0.1N) . . . . . . . . . . . . . . . . . . . . . . . . . 67 5.1 Algorithme à dates d’échéances . . . . . . . . . . . . . . . . . . . . . . . . 72 5.2 Contrôle d’admission avec acquittement . . . . . . . . . . . . . . . . . . . . 76 xiiixiv Table des figures 5.3 Contrôle d’admission sans acquittement . . . . . . . . . . . . . . . . . . . . 78 5.4 Exemple pour comparer les deux stratégies de validation . . . . . . . . . . 78 5.5 Fonction de condition de préemption . . . . . . . . . . . . . . . . . . . . . 79 5.6 Description des différentes politiques de préemption . . . . . . . . . . . . . 80 5.7 Comparaison globale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 5.8 Impact de la taille de préemption ψ . . . . . . . . . . . . . . . . . . . . . 85 5.9 Impact de la charge pour ψ = 4 . . . . . . . . . . . . . . . . . . . . . . . . 86 6.1 Exemple de construction de graphe de conflit . . . . . . . . . . . . . . . . . 94 6.2 Exemple illustrant l’effet domino . . . . . . . . . . . . . . . . . . . . . . . 96 6.3 Schéma récapitulatif de la généralisation de l’exclusion mutuelle distribuée 99 7.1 Illustration de l’impact des objectifs sur le taux d’utilisation . . . . . . . . 103 7.2 Exemple d’exécution d’obtention des compteurs . . . . . . . . . . . . . . . 105 7.3 Illustration du taux d’utilisation pour l’exclusion mutuelle généralisée . . . 107 7.4 Impact sur le taux d’utilisation . . . . . . . . . . . . . . . . . . . . . . . . 108 7.5 Impact sur le temps d’attente moyen . . . . . . . . . . . . . . . . . . . . . 110 7.6 Évaluation du mécanisme de prêt en mémoire partagée . . . . . . . . . . . 111 A.1 Structures véhiculées par les messages de l’implémentation distribuée . . . 131 A.2 Machine à états des processus . . . . . . . . . . . . . . . . . . . . . . . . . 131 A.3 Implémentation distribuée : procédures d’initialisation, de demande et de libération de section critique . . . . . . . . . . . . . . . . . . . . . . . . . 133 A.4 Implémentation distribuée : procédures de réception de requêtes 1 et 2 et de compteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 A.5 Implémentation distribuée : procédure de réception et d’envoi de jeton . . . 136Chapitre 1 Introduction générale Sommaire 1.1 Présentation et contexte général de la thèse . . . . . . . . 1 1.2 Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.3 Organisation du manuscrit . . . . . . . . . . . . . . . . . . . 3 1.1 Présentation et contexte général de la thèse Si nos sociétés modernes sont souvent décrites comme égoïstes, elles sont en réalité basées sur le partage des ressources : le guichet de bureau de poste, la caisse du supermarché, le médecin ou bien encore la bouteille de vin du repas dominical. Ce partage peut être inéquitable et résulte plus d’une somme d’intérêts individuels que d’une véritable gé- nérosité. Il ne serait en effet guère rentable d’avoir son propre médecin, son propre réseau postal, etc. Une mutualisation des ressources est donc indispensable et nous oblige à défi- nir des règles, des conventions sociales pour l’organiser : prise de rendez-vous, émission de tickets, salles d’attente, politesse, ... Ces protocoles structurent notre société. D’un point de vue informatique, les programmes évoluent dans un système composé de ressources partagées pouvant aussi bien être matérielles (processeur, carte graphique, carte réseau, disque, etc.) que logicielles (variables, table de base de données, etc.). Il faut donc à l’instar de la société humaine définir des protocoles, des algorithmes pour synchroniser les accès des différents processus. Ce problème de synchronisation est un des piliers de l’algorithmique. Identifié par Edsger Dijkstra [Dij65], il est connu sous le nom de l’exclusion mutuelle. Ce paradigme permet d’assurer que l’exécution d’une portion de code manipulant une ressource partagée (section critique) se fera toujours de manière exclusive (propriété de sureté) et que tout processus souhaitant l’utiliser y accédera en temps fini (propriété de vivacité). Pour mettre en place un algorithme d’exclusion mutuelle, les processus doivent obligatoirement communiquer. Ils peuvent alors communiquer de deux façons : soit par l’intermédiaire d’une mémoire partagée (principalement rencontré dans le système d’exploitation d’une machine), soit par l’intermédiaire d’un réseau par passage de messages (principalement rencontré dans les systèmes répartis comme les clusters, les grilles ou les nuages). 12 Chapitre 1. Introduction générale Le sujet de cette thèse porte sur l’exclusion mutuelle par passage de messages. Dans ce mode de communication, de nombreuses solutions ont été apportées pour lesquelles on peut distinguer deux grandes classes : l’approche à permissions [Lam78, RA81, Mae85] où il est possible d’entrer en section critique après la réception de la permission d’un ensemble de processus et l’approche basée sur la circulation d’un jeton unique [Mar85, SK85, NT87a] où la possession du jeton donne le droit exclusif d’entrer en section critique. Le jeton se transmet alors généralement entre les processus sur une topologie logique comme un anneau [Mar85] ou un arbre [Ray89b, NT87a]. Les nombreux algorithmes distribués d’exclusion mutuelle ne sont pas forcément bien adaptés aux besoins spécifiques des systèmes distribués modernes. Ces systèmes tels que les Clouds mettent souvent à disposition un ensemble de ressources partagées hétérogènes et les applications s’exécutant sur ces systèmes peuvent avoir des contraintes différentes en termes de priorité, temps de réponse ou fiabilité. Plusieurs extensions de l’exclusion mutuelle ont été introduites ces dernières années pour prendre en compte les priorités des demandes d’accès, assurer un accès exclusif à plusieurs exemplaires de ressources (kmutex), gérer plusieurs types de ressources, tolérer les pannes, etc. Cependant, la plupart de ces algorithmes se montrent inefficaces et/ou inadaptés aux grands systèmes actuels, à cause de coûts de synchronisation élevées, de temps d’attente trop important ou un non respect des priorités. Cette thèse a donc pour but de concevoir de nouveaux algorithmes d’exclusion mutuelle. Nous nous intéressons plus particulièrement à la prise en compte des requêtes à priorités différentes, à assurer l’accès à une ressource avant une date d’échéance requise et enfin à l’exclusion mutuelle généralisée pour gérer les requêtes nécessitant plusieurs ressources. 1.2 Contributions Cette thèse apporte les trois contributions suivantes dans le domaine de l’exclusion mutuelle distribuée. Exclusion mutuelle distribuée à priorités. Les algorithmes d’exclusion mutuelle classiques assurent que les requêtes soient satisfaites selon un ordre FIFO. Cependant, un tel ordre peut être incompatible avec les différents niveaux de requêtes exprimées par les clients. L’exclusion mutuelle à priorité permet de prendre en compte cette différence. Son but est de satisfaire les requêtes en respectant l’ordre des priorités. Cependant, un respect strict de cet ordre peut amener à des famines pour les requêtes de faibles priorités. Un mécanisme de priorités dynamiques que l’on peut trouver dans les algorithmes de Chang [Cha94] ou Kanrar-Chaki [KC10] est donc indispensable afin d’assurer que toute requête atteindra en temps fini la priorité maximale et ainsi préserver la vivacité. Mais une telle stratégie génère beaucoup d’inversions de priorités. Nous proposons donc un premier algorithme afin de ralentir l’incrémentation de priorité ([CCgrid12, Compas13]). Bien que ce ralentissement assure toujours la propriété de vivacité, les petites priorités peuvent avoir des temps d’attente énormes dans certaines configurations. Un second algorithme a donc été proposé dans [ICPP13]. Cet algorithme se base sur la circulation d’un jeton dans une topologie d’arbre statique et permet de réduire considérablement le temps d’attente1.3. Organisation du manuscrit 3 d’obtention de l’accès à la section critique pour un taux d’inversions donné. Exclusion mutuelle distribuée à contrainte temporelles. Les algorithmes actuels n’intègrent pas les notions de qualité de service en termes de temps de réponse. Nous avons donc proposé une extension de l’exclusion mutuelle en prenant en compte les contraintes temporelles exprimées par les applications. Notre algorithme publié dans [CCgrid12, CCgrid13] se base sur la circulation d’un jeton dans un arbre statique et permet aux requêtes clientes de spécifier au moment de leur émission une date d’échéance de satisfaction. Un mécanisme de contrôle d’admission accepte ou refuse les requêtes en fonction de l’état actuel du système. Si une requête passe avec succès le contrôle, le système s’engage à satisfaire la requête avant la date d’échéance (exigence client). Afin de maximiser l’utilisation de la ressource partagée (exigence fournisseur), l’algorithme ordonnance les requêtes en fonction de leur localité dans la topologie tout en respectant les dates d’échéance des requêtes acceptées. Exclusion mutuelle généralisée à plusieurs ressources. Il est possible dans un système à grande échelle qu’une section critique concerne plusieurs ressources. Il s’agit du paradigme du "Cocktail des philosophes" introduit par Chandy-Misra [CM84]. Le fait d’introduire plusieurs ressources dans une requête peut amener à des interblocages dans les requêtes conflictuelles (qui demandent des ressources communes) violant ainsi la vivacité. La plupart des algorithmes existants [Lyn81, SP88, CM84, GSA89, BL00] peuvent résoudre ce problème d’interblocage soit au prix d’une connaissance préalable sur les conflits entre les requêtes amenant une hypothèse très forte sur le système soit au prix d’un coût important de synchronisation impliquant une perte d’efficacité dans l’utilisation des ressources. Nous avons donc conçu un algorithme qui ne nécessite pas de connaître a priori les requêtes conflictuelles et qui réduit de manière significative les coûts de synchronisation. Cet algorithme limite entre autres les échanges entre les sites qui n’accèdent pas aux mêmes ressources. Cette réduction des coûts réduit le temps d’attente global des requêtes et améliore le taux d’utilisation des ressources. Cette contribution a donné lieu à une publication dans une conférence francophone [Compas14]. Une version internationale est en cours de soumission. Tous les algorithmes produits dans cette thèse ont été implémentés avec OpenMPI [oMP] et évalués sur la plate-forme nationale académique Aladin Grid 5000 [g5k]. Ces évaluations montrent un gain très important de nos algorithmes par rapport aux algorithmes de l’état de l’art. 1.3 Organisation du manuscrit Ce manuscrit s’articule autour de quatre parties. La première partie présente l’exclusion mutuelle de manière générale. Cette partie est composée de deux chapitres : • le chapitre 2 introduit le problème de l’exclusion mutuelle, donne ses principales propriétés et présente une taxonomie d’algorithmes répartis. Les algorithmes de4 Chapitre 1. Introduction générale bases sur lesquels nos travaux reposent (Raymond [Ray89b] et Naimi-Tréhel [NT87a, NT87b]) seront présentés plus en détails. • le chapitre 3 présente un état de l’art de l’exclusion mutuelle à priorité. Il présente également les algorithmes sur lesquels nos travaux se baseront (Chang [Cha94], Kanrar-chaki [KC10] et Mueller [Mue99]) La deuxième partie présente les contributions relatives à la synchronisation autour d’une seule ressource : • le chapitre 4 présente notre contribution sur l’exclusion mutuelle à priorités. On décrit dans un premier temps notre algorithme réduisant le nombre d’inversions de priorités avec une étude de performances approfondie. Dans un second temps nous présenterons l’algorithme amélioré permettant d’équilibrer le temps d’attente et le taux d’inversions indépendamment de la topologie considérée. • le chapitre 5 présente la contribution sur les requêtes à contrainte de temps. Les différents mécanismes qui composent cet algorithme y sont détaillés et évalués. La troisième partie traite du problème de l’exclusion mutuelle généralisée : • le chapitre 6 présente un état de l’art des différents modèles de généralisation d’exclusion mutuelle. Il schématise également les liens entre ces modèles. • le chapitre 7 présente les principes de notre algorithme d’exclusion mutuelle généralisée pour verrouiller plusieurs ressources hétérogènes. L’implémentation distribuée étant relativement complexe est décrite en annexe de ce manuscrit. Enfin, la quatrième partie conclut ce manuscrit. Cette partie rappelle les contributions et présente en dernier lieu nos ouvertures et perspectives de recherche.Première partie Exclusion mutuelle distribuée : concepts, modèles et algorithmes 5Chapitre 2 Exclusion mutuelle distribuée Sommaire 2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2.2 Description et formalisation du système considéré . . . . 8 2.3 Définition de l’exclusion mutuelle . . . . . . . . . . . . . . 9 2.3.1 États des processus . . . . . . . . . . . . . . . . . . . . . . 9 2.3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.3.3 Ordonnancement . . . . . . . . . . . . . . . . . . . . . . . . 10 2.3.4 Métriques d’évaluation de performances . . . . . . . . . . . 10 2.4 Taxonomie des algorithmes . . . . . . . . . . . . . . . . . . 11 2.4.1 Algorithmes à permissions . . . . . . . . . . . . . . . . . . 11 2.4.2 Algorithmes à jeton . . . . . . . . . . . . . . . . . . . . . . 12 2.4.3 Algorithme centralisé . . . . . . . . . . . . . . . . . . . . . 14 2.4.4 Algorithmes hybrides et hiérarchiques . . . . . . . . . . . . 14 2.5 Algorithmes de bases des contributions de la thèse . . . . 15 2.5.1 L’algorithme de Raymond . . . . . . . . . . . . . . . . . . 15 2.5.2 Les algorithmes de Naimi-Tréhel . . . . . . . . . . . . . . . 18 2.6 Extensions de l’exclusion mutuelle . . . . . . . . . . . . . . 20 2.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.1 Introduction Dans un système distribué, les processus sont susceptibles d’accéder à une ou plusieurs ressources partagées (variables, pages mémoires, fichiers, etc.). Pour éviter les incohérences dues aux accès concurrents des processus, il est indispensable que ceux-ci synchronisent leurs accès. Ce problème fut identifié par Edsger Dijkstra en 1965 [Dij65]. Il l’a formalisé au travers du paradigme de l’exclusion mutuelle qui est devenu un pilier de l’algorithmique répartie. Ce paradigme assure qu’à un instant donné, au plus un processus peut exécuter une partie d’un code concurrent, appelée section critique. Dans le cadre de cette thèse nous nous intéresserons à l’exclusion mutuelle distribuée où les processus communiquent 78 Chapitre 2. Exclusion mutuelle distribuée par passage de messages. Ce chapitre a pour but de présenter ce problème fondamental et se découpe de la manière suivante. La section 2.2 décrit le système que nous considérons et introduit les notations qui serviront tout au long de ce manuscrit. La section 2.3 définit formellement l’exclusion mutuelle. Ensuite la section 2.4 donne une classification des algorithmes distribués que l’on trouve dans la littérature. Deux algorithmes d’exclusion mutuelle classique à jeton sur lesquels les contributions de cette thèse sont basées (les algorithmes de Raymond [Ray89b] et de Naimi-Tréhel [NT87a, NT87b]) seront présentés en section 2.5. Enfin la section 2.6 décrit brièvement les différentes extensions de l’exclusion mutuelle et la section 2.7 donne un schéma récapitulatif de cet état de l’art. 2.2 Description et formalisation du système considéré Nous considérons un système distribué composé d’un ensemble Π= {s1, s2, ..., sN } de N nœuds. Ces nœuds n’exécutant qu’un seul processus, dans la suite les mots "nœuds", "processus" et "sites" sont interchangeables. Le système est considéré statique, autrement dit Π est constant. Les différentes hypothèses sur le système sont données ci dessous. Hypothèse 1. Tous les sites sont fiables, ne partagent pas de mémoire et communiquent uniquement par circulation de messages au travers de liens point à point. Hypothèse 2. Les liens sont fiables (ni duplication ni perte de message) et FIFO. Hypothèse 3. Le temps de communication entre deux nœuds est borné mais inconnu. Hypothèse 4. Le graphe de communication est complet, i.e,. chaque processus peut communiquer avec n’importe quel autre processus. Pour demander un accès à la section critique, un processus doit faire appel à la fonction bloquante Request_CS de l’algorithme permettant d’assurer l’exclusivité d’exécution sur la section critique. Lorsque son exécution de section critique se termine il doit faire appel à la fonction Release_CS pour indiquer à d’autres processus que la section critique est libre. Hypothèse 5. Un processus peut demander la section critique en appelant la primitive Request_CS si et seulement si sa précédente requête a été satisfaite par une section critique qui s’est terminée par un appel à Release_CS. L’hypothèse 5 implique qu’il y a au plus N requêtes pendantes dans le système. Hypothèse 6. Le temps d’exécution de la section critique est fini. Dans la suite de ce rapport, les algorithmes seront spécifiés avec un pseudo-code événementiel. A chaque réception d’un message de type typem le site exécute la fonction Receive_typem. Les primitives de l’algorithme se résument donc aux primitives Request_CS, Release_CS et l’ensemble des primitives Receive_ correspondantes aux types de messages de l’algorithme. Enfin, nous supposons que les processus possèdent un2.3. Définition de l’exclusion mutuelle 9 Figure 2.1 – Machine à états de l’exclusion mutuelle classique verrou local permettant aux primitives de s’exécuter de manière exclusive afin d’éviter toute incohérence sur les variables locales partagées. Nous notons le temps d’exécution du système T. T est discrétisé par rapport aux exécutions des primitives sur les différents sites et peut être vu comme un ensemble d’instants t. L’instant t0 ∈ T correspond au moment où le système s’initialise. Par conséquent il n’existe pas d’instant t 6= t0 tel que t < t0. L’instant tnow désigne l’instant courant. 2.3 Définition de l’exclusion mutuelle Cette section présente les notions de bases qui serviront tout au long de ce manuscrit à savoir : la machine à états du problème, les propriétés fondamentales définissant l’exclusion mutuelle, l’ordonnancement des requêtes de section critique. Le lecteur pourra trouver une présentation complémentaire du problème de l’exclusion mutuelle dans le chapitre 2 de la thèse de J. Sopena [Sop08]. 2.3.1 États des processus Dans les modèles classiques de la littérature les processus ont trois états possibles : • tranquilt si : le processus si ne demande pas la section critique à l’instant t ∈ T. • requestingt si : le processus si est en attente de la section critique à l’instant t ∈ T. • inCSt si : le processus si est en train d’exécuter la section critique à l’instant t ∈ T. La machine à états est composée de trois transitions : • de tranquilsi à requestingsi : événement provoqué par le processus ssi lorsque celuici souhaite entrer en section critique en faisant appel à Request_CS. • de requestingsi à inCSsi : événement indiquant que le processus si peut entrer en section critique • de inCSsi à tranquilsi : événement provoqué par le processus si lorsque celui-ci sort de la section critique en faisant appel à Release_CS. Le schéma de la machine à états est représenté dans la figure 2.1.10 Chapitre 2. Exclusion mutuelle distribuée 2.3.2 Propriétés Les algorithmes d’exclusion mutuelle doivent respecter deux propriétés fondamentales : • la sûreté : au plus un processus exécute la section critique. Formellement : ∀t ∈ T∃si ∈ Π tel que inCSt si ⇒ @sj ∈ Π tel que inCSt sj • la vivacité : si le temps d’exécution de section critique est fini, chaque processus demandeur accédera à la section critique dans un temps fini (pas de famine). Formellement : ∀si ∈ Π, ∀t ∈ T, ∃t 0 ∈ T tel que t 0 > t, requestingt si ⇒ inCSt 0 si 2.3.3 Ordonnancement Toute requête pendante doit pouvoir être différenciée d’une autre pour déterminer celle qui accédera à la section critique d’abord. Cette différenciation se fait selon un ordre total propre à l’algorithme qui définit sa politique d’ordonnancement. Pour éviter la famine toute requête pendante doit devenir en un temps fini la plus prioritaire de cet ordre. La politique d’ordonnancement de l’algorithme est primordiale pour assurer la vivacité. L’exclusion mutuelle classique obéit à un ordonnancement du type "premier arrivé, premier servi", c’est à dire que les requêtes sont satisfaites en fonction de leur date d’enregistrement dans le système. Ce mécanisme de date peut s’implémenter entre autres par une horloge logique ou bien par un ajout dans une file d’attente gérée de manière distribuée ou centralisée. Cette politique d’ordonnancement permet d’assurer la vivacité : toute nouvelle requête q 0 plus récente que q sera satisfaite après q et comme nous considérons un système où le nombre de processus N est fini, ceci implique que toute requête q a un nombre fini de requêtes plus prioritaires. Ainsi toute requête deviendra en un temps fini la plus prioritaire. 2.3.4 Métriques d’évaluation de performances En plus de leurs propriétés fondamentales, les algorithmes distribués d’exclusion mutuelle doivent être performants. D’après [Sin93], les performances d’un algorithme d’exclusion mutuelle se caractérisent par la minimisation des métriques suivantes : • le temps de réponse ou temps d’attente : le temps entre le moment où un site envoie une requête et le moment où il est autorisé à entrer en section critique. • le temps de synchronisation : le temps entre le moment où un site libère la section critique et le moment où le site suivant entre en section critique. Le temps de synchronisation désigne le temps du protocole entre deux utilisations successives de la ressource critique. Si on considère négligeable le temps de calcul, ceci se ramène au temps de communication. Dans le cadre de cette thèse, cette métrique a été remplacée par le taux d’utilisation de la ressource qui désigne le pourcentage de temps passé à l’utilisation de la ressource sur une période donnée. • la complexité en messages : le nombre de messages nécessaires pour chaque demande d’entrée en section critique. Cette métrique n’est pas directement liée aux performances d’accès à la ressources mais reflète la capacité de l’algorithme à passer à l’échelle.2.4. Taxonomie des algorithmes 11 2.4 Taxonomie des algorithmes Plusieurs publications comme Michel Raynal [Ray91b], Mukesh Singhal [Sin93] et Martin G. Velasquez [Vel93] décrivent au début des années 90 une classification des algorithmes d’exclusion mutuelle. Ces classifications, classent les algorithmes en deux grandes catégories : • Les algorithmes à permissions : le site demandeur doit recevoir l’accord d’un ensemble d’autres sites pour accéder à la section critique. • Les algorithmes à jeton : un jeton unique circule sur l’ensemble des sites et donne le droit à son possesseur d’entrer en section critique. L’unicité du jeton assure la sûreté. 2.4.1 Algorithmes à permissions Dans ce type d’algorithmes, un processus désirant entrer en section critique doit envoyer une requête à un groupe de processus et attendre leur accord. En absence d’horloge globale, les requêtes sont généralement estampillées avec les horloges logiques de Lamport [Lam78]. Ces estampilles temporelles permettent d’ordonner totalement les requêtes concurrentes dans une file d’attente et ainsi assurer un accès équitable à la section critique. Les algorithmes à permissions peuvent être encore subdivisés en trois sous-catégories : permissions individuelles, permissions d’arbitre et permissions généralisées. Permissions individuelles Dans ce type d’algorithmes, un processus donne sa permission à un site ayant envoyé une requête, s’il n’est pas en section critique ou s’il attend la section critique mais que sa requête est moins prioritaire, i.e., moins récente d’après l’horloge logique. Un site peut donc donner plusieurs permissions à différents sites de manière simultanée. Une requête est satisfaite lorsque le site demandeur reçoit N − 1 permissions. La demande de permission peut se faire de deux manières : • Statique : les destinataires des requêtes sont l’ensemble des nœuds. Ce principe de diffusion générale a été introduit par G. Ricart et A.K. Agrawala dans [RA81] qui améliore l’algorithme de Lamport [Lam78] au niveau de la complexité en nombre de messages (2N − 1 au lieu de 3N − 1 ), en utilisant toujours les horloges de Lamport et en enlevant l’hypothèse des canaux FIFO qui est indispensable pour l’algorithme de Lamport. • Dynamique : Pour diminuer le nombre de messages par requête, les processus maintiennent de l’information sur la liste des permissions. Un processus si peut considérer qu’il a la permission d’un site sj , si sj ne lui a pas envoyé de nouvelle requête. Ainsi un site n’enverra pas de requête aux sites non-demandeurs. O.S.F. Carvalho et G. Roucairol nous donnent un algorithme à permissions individuelles dynamiques dans [CR83].12 Chapitre 2. Exclusion mutuelle distribuée Permissions d’arbitre Dans cette approche, un site (l’arbitre) donne sa permission à un seul site à la fois. ainsi lorsqu’il donne sa permission à un site si , toute autre requête reçue sera mise en attente. Le site pourra alors donner sa permission à la prochaine requête lorsque si sortira de sa section critique. Il est ainsi impossible d’avoir deux permissions simultanées provenant d’un même site. L’algorithme de référence est celui de M. Maekawa [Mae85]. Il utilise un mécanisme de quorum. L’ensemble des sites est divisé en sous-ensembles de manière à ce que l’intersection de chaque sous-ensemble E ⊆ Π avec un autre sous-ensemble E 0 ⊆ Π ne soit pas vide. Ceci permet théoriquement de réduire la complexité en nombre de messages à O( √ N) alors qu’elle est en moyenne de O(N) dans les algorithmes à permissions individuelles. Cependant, le fait qu’un arbitre ne donne sa permission qu’à un seul demandeur, peut conduire à des situations d’interblocages. De plus, la construction des ensembles est un problème NP-complet. Permissions généralisées Ces algorithmes combinent les deux stratégies décrites ci-dessus. Ils ont été introduits par Sanders [San87] et ont été repris par Singhal [Sin92]. Ainsi, chaque site si maintient un sous-ensemble de sites E ⊆ Π. Lorsque si reçoit une demande de la part d’un site sj ∈ E, si donnera une permission de type arbitre et dans le cas contraire (sj ∈/ E) une permission de type individuel. Ces algorithmes permettent de résoudre le problème d’inter-blocage de l’algorithme de Maekawa. 2.4.2 Algorithmes à jeton Dans ces algorithmes, un seul processus obtient une permission globale qui est matérialisé par la possession d’un jeton. La présence d’un unique jeton assure de manière triviale la sûreté. Le jeton se transmet de processus en processus. Il existe deux sous catégories d’algorithmes à jeton : • Non-structurés : pas de topologie logique imposée sur les sites. • Structurés : les sites sont organisés selon une topologie bien particulière (un arbre ou un anneau par exemple). Algorithmes à jeton structurés Une topologie logique relie les sites via des liens. Cette topologie peut évoluer au cours de l’exécution de l’algorithme, dans ce cas cette topologie est dite dynamique et dans le cas contraire elle est dite statique, i.e., les liens logiques restent les mêmes durant toute l’exécution et seule leur direction peut changer. • Topologie statique : Nous pouvons distinguer dans la littérature trois types de topologies statiques : ∗ Anneau : Dans les algorithmes [Lan78] et [Mar85] le jeton circule le long d’un anneau unidirectionnel. L’anneau permet d’assurer la propriété de vivacité. En effet, étant donné que le jeton circule le long de l’anneau, il est certain qu’un processus aura le jeton à un moment donné. L’algorithme de J. Martin [Mar85]2.4. Taxonomie des algorithmes 13 adapte sa complexité en messages en fonction de la charge (i.e., la quantité de requêtes pendantes) : en faible charge la complexité est de O(N) alors qu’en forte charge la complexité devient constante. ∗ Arbre : Le nœud racine de l’arbre est le site qui détient le jeton. Les liens sont orientés vers la racine de manière à ce que lorsqu’un site demande le jeton, cette demande soit propagée jusqu’à la racine. Ainsi, un lien entre deux nœuds indiquera toujours la direction de la racine, i.e., du site possédant le jeton. La complexité moyenne de ces algorithmes est de O(logN). Dans cette catégorie nous pouvons citer les algorithmes de Nielsen-Mizuno [NM91] et de Raymond [Ray89b]. Nos algorithmes des chapitres 4 et 5 se basant sur l’algorithme de Raymond [Ray89b], la section 2.5.1 détaillera ce dernier. ∗ Graphe : Tous les nœuds sont placés dans une topologie arbitraire. Contrairement à la topologie de l’arbre, les cycles de la topologie sont possibles. Les requêtes d’un site se propagent sur le réseau par un mécanisme d’inondation. Le jeton est ensuite retransmis de site en site jusqu’à son destinataire. [CSL90] et [HPR88] sont deux exemples de ce type d’algorithme. • Topologie dynamique : Dans ce type d’algorithme, la topologie logique change au cours de l’exécution. La dynamicité de la structure reflète l’historique des accès à la section critique permettant ainsi d’accroître les performances pour les sites qui ont un accès fréquent à la section critique. Les algorithmes de référence de cette catégorie sont les algorithmes de Naimi-Tréhel [NT87a, NT87b] et Naimi-TréhelArnold [NTA96]. Leur topologie est un arbre dynamique ou plus exactement une forêt dynamique. Chaque nœud maintient deux listes chaînées distribuées : next pour sauvegarder l’ordre des requêtes pendantes et f ather (ou last) qui indique le chemin vers le dernier demandeur. Ainsi le dernier demandeur est la racine d’un arbre de la forêt. Ces algorithmes ont une complexité moyenne en nombre de messages de O(logN). Notons que l’algorithme de Naimi-Tréhel avec files locales [NT87b] permet d’avoir une complexité constante en cas de forte charge. Ces algorithmes servant de base à l’algorithme du chapitre 7 sont détaillés en section 2.5.2. Algorithmes à jeton non-structurés Les algorithmes non-structurés n’imposent pas de topologie particulière : le graphe logique correspond à un graphe complet. Les requêtes se font par diffusion, i.e., un site demandeur enverra une demande de jeton à un ensemble de nœuds. L’ordre des requêtes peut être sauvegardé dans une file d’attente incluse dans le jeton. De façon identique aux algorithmes à permissions individuelles, il existe deux sous-classes d’algorithmes :. • Algorithmes statiques : Ces algorithmes ne sauvegardent pas l’historique des différentes exécutions en section critique. Chaque requête est ainsi diffusée à l’ensemble des nœuds. Nous pouvons donner l’exemple de l’algorithme de Susuki-Kasami [SK85]. Le site possédant le jeton, une fois sorti de sa section critique, le renverra au site le plus ancien dont la requête n’a pas encore été satisfaite. • Algorithmes dynamiques : pour réduire le nombre de messages et éviter de solliciter les sites qui utilisent peu souvent la section critique, les sites maintiennent14 Chapitre 2. Exclusion mutuelle distribuée un historique des derniers demandeurs. Une requête n’est alors diffusée qu’aux sites présents dans l’historique. Chang, Singhal et Liu [CSL91] ont proposé en 1991 un algorithme de ce type en améliorant l’algorithme de Susuki-Kasami [SK85]. 2.4.3 Algorithme centralisé Des solutions centralisées existent où les différents processus demandant l’accès à la section critique s’adressent à un site coordinateur. Le coordinateur a une connaissance globale de l’ensemble des requêtes pendantes et ordonne les accès à la section critique. Les processus entrent en section critique uniquement sur l’accord du coordinateur. Bien que cette solution ait une complexité en messages constante, son principal défaut réside dans le fait qu’il y ait un goulot d’étranglement au niveau de ce coordinateur ce qui rend un passage à l’échelle difficile lorsque la charge augmente. En effet la capacité à gérer les requêtes dépend beaucoup de la puissance de traitement de la machine centrale. Il est à noter que l’algorithme centralisé est un cas particulier d’un algorithme à jeton à arbre statique de hauteur 1 (topologie en étoile) où le nœud central fait office de coordinateur. 2.4.4 Algorithmes hybrides et hiérarchiques Ces algorithmes répartissent le graphe de communications sur plusieurs niveaux hié- rarchiques. Ainsi les nœuds d’un niveau k sont partitionnés en plusieurs groupes. Chaque groupe est souvent représenté par un nœud mandataire (le proxy) qui fait l’intermédiaire avec le niveau k+1. Un nœud de niveau k ne peut s’adresser qu’aux nœuds de son groupe et aux nœuds d’un groupe de niveau k+1 s’il est mandataire. A l’instar d’un routeur dans un réseau, les mandataires jouent le rôle de coordinateurs vis-à-vis des autres membres du groupe. Autrement dit, les mandataires d’un niveau k font aussi partie du niveau k + 1. Souvent, on se limite à seulement deux niveaux. Une des caractéristiques de ces algorithmes est que chaque niveau est cloisonné et peut être associé à un type d’algorithme différent. Ceci qui permet de faire cohabiter par exemple un algorithme à jeton avec un algorithme à permissions. Cependant, comme dans le modèle centralisé, les mandataires représentent un goulot d’étranglement et sont sensibles aux pannes. Voici trois exemples représentatifs de ce type d’algorithme : • Erciyes [Erc04] : Cet algorithme s’exécute sur deux niveaux hiérarchiques. Le premier niveau utilise un algorithme centralisé avec un coordinateur qui fait office d’intermédiaire avec le niveau supérieur. Au niveau supérieur les coordinateurs du premier niveau sont organisés en anneau. Lorsqu’un coordinateur reçoit une requête d’un de ses sites, il envoie cette requête à son successeur dans l’anneau. La requête peut être satisfaite si cette dernière fait un tour complet de l’anneau (adaptation de l’algorithme de Ricart-Agrawala [RA81] sur un anneau). L’information sur l’ensemble des requêtes pendantes est entièrement répartie sur les coordinateurs. • Bertier-Arantes-Sens [BAS04, BAS06] : La topologie sous-jacente du système est une grille (un ensemble de clusters). Le principe est de privilégier les demandes locales au sein du cluster possédant le jeton au détriment des demandes des autres clusters. Pour éviter la famine, un mécanisme de préemption a été mis en place :2.5. Algorithmes de bases des contributions de la thèse 15 au-delà d’un certain seuil, dans le cluster qui possède le jeton, les requêtes internes ne sont plus prioritaires sur les requêtes externes. Les deux niveaux se basent sur l’algorithme de Naimi-Tréhel [NT87a]. • Sopena et al. [SLAAS07] : L’algorithme est sur deux niveaux hiérarchiques : un niveau coordinateur (niveau 2) et un niveau pour les nœuds applicatifs (niveau 1). Il existe ainsi deux types de verrou : inter pour le niveau 2, et intra pour un groupe de nœuds au niveau 1. L’algorithme est générique, c’est-à-dire qu’il peut combiner n’importe quel type d’algorithme. Si l’on considère des algorithmes à jeton, le nombre total de jetons est de k + 1 (k intra et 1 inter). Les algorithmes hiérarchiques trouvent leur intérêt dans les environnements hétérogènes en termes de latence réseau. Ils sont principalement utilisés pour des applications qui s’exécutent sur une grille ou un ensemble de clusters éloignés géographiquement. 2.5 Algorithmes de bases des contributions de la thèse Cette section détaille les trois algorithmes d’exclusion mutuelle classique sur lesquels les contributions de cette thèse sont basées. Ces algorithmes sont l’algorithme de Raymond [Ray89b] et les deux versions de l’algorithme de Naimi-Tréhel [NT87a, NT87b]. Ces algorithmes sont des algorithmes à jeton circulant dans un arbre statique pour Raymond et une forêt d’arbres dynamiques pour Naimi-Tréhel. Le choix de ces algorithmes s’explique par leurs bonnes performances en termes de complexité en messages qui est en moyenne logarithmique. 2.5.1 L’algorithme de Raymond Présentation L’algorithme de Raymond [Ray89b] repose sur la circulation d’un jeton entre processus dans un arbre statique : seule la direction des liens change de sens pendant l’exécution de l’algorithme. Les nœuds forment ainsi un arbre orienté dont la racine est toujours le possesseur du jeton et donc le seul à pouvoir entrer en section critique. Cet arbre est utilisé pour acheminer les requêtes en direction du jeton : à la réception d’un message de requête sur si ou bien à la création d’une nouvelle requête de si , ce dernier stocke cette requête dans une FIFO locale et retransmet le message à son père. Cependant, pour des raisons d’efficacité, les requêtes ne sont pas retransmises par un nœud ayant déjà fait une demande (la file locale n’est pas vide). Un nœud devient requesting à partir du moment où sa file locale est non vide et toute requête qu’un site retransmet le fait en son nom et non au nom de l’initiateur de la requête. Ainsi chaque nœud fait office de mandataire pour ses fils directs. Lorsque la racine sort de la section critique, elle envoie le jeton au premier élément de sa file locale et prend ce dernier comme père. Quand un processus reçoit le jeton, il dépile la première requête de sa file locale. Si cette requête est de lui, il peut exécuter la section critique ; sinon il retransmet le jeton au premier élément de sa file locale, le choisit comme nouveau père et si des requêtes demeurent pendantes, lui envoie16 Chapitre 2. Exclusion mutuelle distribuée Local variables :1 begin2 3 father : site ∈ Π or nil; 4 Q : FIFO queue of sites ; 5 state ∈ {tranquil, requesting, inCS} end6 7 Request_CS() begin8 if father 6= nil then9 10 add self in Q; 11 if state = tranquil then 12 state ← requesting; 13 send Request to father; 14 wait(father = nil); 15 state ← inCS; 16 /* CRITICAL SECTION */ end17 18 Release_CS() begin19 20 state ← tranquil; if Q 6= ∅ then21 22 father ← dequeue(Q); 23 send Token to father; if Q 6= ∅ then24 25 state ← requesting; 26 send Request to father; end27 Initialization28 begin29 30 Q ← ∅; 31 state ← tranquil; 32 father ← according to the initial topology; end33 34 Receive_Request() from sj begin35 if father = nil and state = tranquil then36 37 father ← sj ; 38 send Token to father; else if father 6= sj then39 40 add sj in Q; if state = tranquil then41 42 state ← requesting; 43 send Request to father; end44 45 Receive_T oken() from sj begin46 47 father ← dequeue(Q); if father = self then48 49 father ← nil; 50 notify(father = nil); else51 52 send Token to father; if Q 6= ∅ then53 54 state ← requesting; 55 send Request to father; else56 57 state ← tranquil; end58 Figure 2.2 – Algorithme de Raymond une requête pour récupérer le jeton. La figure 2.2 montre le pseudo-code de l’algorithme de Raymond. Exemple La figure 2.3 présente un exemple commenté d’exécution de l’algorithme de Raymond dans un système distribué de 5 processus. Avantages Sa complexité est en moyenne logarithmique par rapport au nombre de nœuds N lorsque la charge est faible et devient constante lorsque la charge augmente. Cette économie de messages est possible grâce au fait qu’un site ne retransmet pas de message de requête à son père si sa file locale contient des requêtes. L’autre avantage de l’algorithme de Raymond est que il est possible de considérer un graphe de communication non complet. Ainsi, la topologie logique peut correspondre complètement ou partiellement à la topologie physique du réseau sous-jacent.2.5. Algorithmes de bases des contributions de la thèse 17 État initial : s1 possède le jeton et est en section critique. Étape 1 : s5 et s3 entrent en état requesting. Des messages de requête sont envoyés aux pères respectifs. Étape 2 : s2 et s1 reçoivent les requêtes : ils les ajoutent dans leur file locale. s2 devient requesting pour la requête de s5 et envoie une requête à s1. De plus, s4 entre en état requesting et envoie une requête à s2. Étape 3 : s2 reçoit la requete de s4 : aucun message n’est retransmis car ceci a déjà été fait pour s5. Étape 4 : s1 sort de la section critique, dépile le premier élément de sa file locale et envoie le jeton à s3. Comme Q1 n’est pas vide, s1 envoie également, un message de requête pour la requête de s2. Étape 5 : s3 reçoit le jeton et entre en section critique puisque s3 est le premier élé- ment de sa file locale. s3 re- çoit ensuite le message de requête et ajoute s1 dans Q3. état requesting état requesting par délégation état tranquil porteur du jeton message de requête message de jeton lien structurel f ather Figure 2.3 – Exemple d’exécution de l’algorithme de Raymond18 Chapitre 2. Exclusion mutuelle distribuée 2.5.2 Les algorithmes de Naimi-Tréhel Présentation Les deux versions de l’algorithme de Naimi-Tréhel (file distribuée [NT87a, NTA96] et files locales [NT87b]) se basent sur la circulation d’un jeton dans une structure de forêt d’arbres dynamiques. Sur le même principe que l’algorithme de Raymond, les nœuds envoient toujours leurs requêtes à leur père. Chaque site si possède deux variables : • last : indique l’identifiant du dernier demandeur de section critique du point de vue de si , autrement dit l’identifiant du site de l’initiateur du dernier message de requête reçu par si . Cette variable permet de définir une structure d’arbre dynamique où la racine d’un arbre (last = nil) est le dernier site qui obtiendra le jeton parmi l’ensemble des sites ayant une requête pendante. Initialement, la racine est le porteur du jeton. Lorsqu’un site souhaite entrer en section critique il envoie un message de requête au site pointé par son last qui correspond au porteur de jeton le plus probable car il est de son point de vue le demandeur le plus récent. • next : cette variable permet de stocker l’ordre dans lequel les requêtes seront satisfaite. Elle diffère entre les deux versions. Dans la version à file distribuée [NT87a, NTA96] c’est un pointeur de site indiquant le prochain porteur du jeton. Dans la version à files locales, cette variable est une FIFO locale. Version avec file distribuée [NT87a, NTA96] : En recevant un message de requête, la requête est transmise au site pointé par la variable last si cette dernière est différente de nil. Si au contraire last est égal à nil, le site receveur est donc une racine : si il possède le jeton sans être en section critique, le jeton est directement transmis à l’initiateur de la requête sinon il met à jour son pointeur next sur ce dernier. À la réception du jeton, un site passe directement en section critique. Le pseudo-code de cet algorithme est donné en figure 2.4. Version avec files locales [NT87b] : L’objectif de cette version est de réduire le nombre de messages de requête. À l’instar de l’algorithme de Raymond il est inutile de transmettre une requête au last si le site courant est lui-même en état requesting signifiant qu’il aura le jeton dans un temps fini. La file distribuée des next est donc remplacée par une FIFO locale. Un site restera une racine tant qu’il est en état inCS ou en état requesting. Par conséquent, lorsqu’un site reçoit un message de requête et qu’il est dans un de ces deux états, cette requête est ajoutée dans la FIFO locale. À la libération du jeton, la file locale est transmise dans le jeton jusqu’au prochain porteur. À sa réception, le nouveau porteur fusionne sa file locale avec celle du jeton. Afin de respecter la propriété de vivacité, les requêtes présentes dans la file du jeton précèdent celles de la file du nouveau porteur. L’ensemble des files locales next forment donc une file distribuée virtuelle pour laquelle il est possible de trouver une file distribuée équivalente dans la première version de l’algorithme. Le pseudo-code de cet algorithme est donné en figure 2.5.2.5. Algorithmes de bases des contributions de la thèse 19 Local variables :1 begin2 3 state ∈ {tranquil, requesting, inCS} next : site ∈ Π or nil; 4 last : site ∈ Π or nil; end5 Initialization6 begin7 8 state ← tranquil; 9 next ← nil; if self = elected_node then10 11 last ← nil; else12 13 last ← elected_node; end14 15 Request_CS() begin16 17 state ← requesting; if last 6= nil then18 19 send Request(self) to last; 20 last ← nil; 21 wait(state = inCS); 22 state ← inCS; 23 /* CRITICAL SECTION */ end24 25 Release_CS() begin26 27 state ← tranquil; if next 6= nil then28 29 send Token to next; 30 next ← nil; end31 32 Receive_Request(requester : site) from sj begin33 if last = nil then34 if state 6= tranquil then35 36 next ← requester; else37 38 send Token to requester; else39 40 send Request(requester) to last; 41 last ← requester; end42 43 Receive_T oken() from sj begin44 45 state ← inCS; 46 notify(state = inCS); end47 Figure 2.4 – Algorithme de Naimi-Tréhel avec file distribuée [NT87a] Local variables :1 begin2 3 state ∈ {tranquil, requesting, inCS} next : FIFO queue of sites; 4 last : site ∈ Π or nil; end5 Initialization6 begin7 8 state ← tranquil; 9 next ← ∅; if self = elected_node then10 11 last ← nil; else12 13 last ← elected_node; end14 15 Request_CS() begin16 17 state ← requesting; if last 6= nil then18 19 send Request(self) to last; 20 last ← nil; 21 wait(state = inCS); 22 state ← inCS; 23 /* CRITICAL SECTION */ end24 25 Release_CS() begin26 27 state ← tranquil; if next 6= ∅ then28 29 last ← getLast(next); 30 site next_holder ← dequeue(next); 31 send Token(next) to next_holder; 32 next ← ∅; end33 34 Receive_Request(requester : site ) from sj begin35 if last = nil then36 if state 6= tranquil then37 38 add requester in next; else39 40 send Token(∅) to requester; 41 last ← requester; else42 43 send Request(requester) to last; 44 last ← requester; end45 46 Receive_T oken(remote_queue : Queue ) from sj begin47 48 state ← inCS; 49 next ← remote_queue + next; 50 notify(state = inCS); end51 Figure 2.5 – Algorithme de Naimi-Tréhel avec files locales [NT87b]20 Chapitre 2. Exclusion mutuelle distribuée Exemple La figure 2.6 présente une comparaison d’exécution des deux versions de l’algorithme de Naimi-Tréhel dans un système distribué de 5 processus. Il permet d’illustrer les différences entre les deux versions. Nous pouvons nous rendre compte à l’étape de deux de l’exemple que la version à file locale permet d’économiser deux messages de requête. a l’étape 3, nous pouvons constater à file d’attente globale équivalente, que la version à files locales réduit de manière significative le nombre de liens logiques. Avantages Contrairement à l’algorithme de Raymond, un envoi de jeton donnera directement un accès à la section critique par le prochain porteur ce qui réduit les transferts réseau, permettant ainsi d’augmenter le taux d’utilisation de la ressource critique. De plus, un site ayant besoin peu souvent de la section critique n’est pas sollicité pour transmettre des messages de requête. Dans les deux versions la complexité en messages est en moyenne logarithmique par rapport à N, mais la version avec file locale a une complexité constante lorsque la charge augmente. 2.6 Extensions de l’exclusion mutuelle Le problème de l’exclusion mutuelle classique permet de gérer un accès FIFO sur une ressource partagée. Cependant, diverses extensions de ce problème fondamental peuvent être trouvées dans la littérature. Exclusion mutuelle à priorité : les requêtes sont associées à un niveau de priorité et l’objectif principal est de respecter le plus possible cet ordre (éviter les inversions). Ce type d’extension permet de considérer différents types d’utilisation (ex : utilisateur et administrateur) ou différents types de client (ex : Nuages). Cette extension fait partie d’une des contributions de cette thèse (chapitre 4). Le chapitre 3 présente un état de l’art de l’exclusion mutuelle à priorité. Exclusion mutuelle à contraintes de temps : les requêtes doivent être satisfaites avant une date limite requise. Ce type d’extension applicable aux systèmes temps-réel à passage de messages a été défini au cours de cette thèse dans la contribution [CCgrid12] et est détaillée dans le chapitre 5. Exclusion mutuelle généralisée : Dans cette extension, on propose de généraliser le problème initial : 1. soit à plusieurs exemplaires de la ressource et ainsi autoriser plusieurs processus à être en section critique en utilisant un ou plusieurs exemplaires de la ressource. Le problème du k-mutex, est un exemple de ce type de problème. 2. soit à plusieurs ressources en un seul exemplaire et autoriser plusieurs processus à être en section critique s’ils utilisent des ensembles de ressources disjoints. Cette2.6. Extensions de l’exclusion mutuelle 21 Etape File distribuée Files locales État initial : s1 possède le jeton et est en section critique. Étape 1 : s2, s3, s4, et s5 demandent la section critique et envoient un message request à leur lien last. Tous les sites sont désormais racines. Étape 2 : s1 reçoit la requête de s3 puis la requête de s2. s2 reçoit la requête de s4 puis la requête de s5. Étape 3 : Pour la version avec file distribuée, s3 (respectivement s4) reçoit la requête de s2 (resp. s5). Étape 4 : s1 sort de section critique et envoie le jeton à s3. s3 reçoit le jeton et entre en section critique. état requesting état tranquil porteur du jeton message de requête message de jeton lien next lien structurel last Figure 2.6 – Exemple d’exécution des deux versions de l’algorithme de Naimi-Tréhel22 Chapitre 2. Exclusion mutuelle distribuée extension aussi connu sous le nom du "cocktail des philosophes" a été introduite par Chandy et Misra en 1984 [CM84]. 3. soit l’union des deux extensions précédentes en considérant plusieurs ressources en plusieurs exemplaires. Ces extensions font l’objet d’une contribution de cette thèse et le lecteur pourra trouver une description plus détaillée dans le chapitre 6. Exclusion mutuelle de groupe : introduit par Joung en 1998 [Jou98] où des groupes de processus du système accèdent simultanément à une ressource partagée. Ce problème est aussi connu sous le nom de la "conversation des philosophes" où les philosophes passent leur temps à penser tout seul ou bien à discuter ensemble dans une salle de réunion sur un sujet particulier. Lorsqu’ils cessent de penser (souhaitent entrer en section critique), ils choisissent un sujet de conversation de leur choix pour en discuter dans la salle de réunion. Comme il n’y a qu’une seule salle (la ressource partagée), la conversation peut commencer si et seulement si la salle est vide. Des philosophes intéressés par la discussion peuvent la rejoindre en cours de route. Le temps de conversation est supposé fini pour assurer que la salle sera à terme disponible pour une autre conversation. La propriété de sûreté assure qu’il y ait au plus un seul sujet de conversation dans la salle. La propriété de vivacité assure que tout philosophe accédera à la salle en temps fini avec le sujet de conversation qui l’intéresse. Enfin, on peut ajouter une propriété de concurrence assurant que tout philosophe intéressé par une conversation en cours pourra accéder à la salle de réunion. Dans cette extension nous pouvons référencer les articles [WJ00], [Jou03], [Vid03], [JPT03], [MN06] et [AWCR13]. Combinaison : Toutes ces extensions sont orthogonales et peuvent être combinées. Nous pouvons citer l’algorithme de Swaroop-Singh qui combine l’exclusion mutuelle de groupe avec l’exclusion mutuelle à priorité [SS07]. 2.7 Conclusion L’exclusion mutuelle classique se définit sur deux propriétés : la sûreté et la vivacité. Il existe une grande diversité d’algorithmes d’exclusion mutuelle pour les systèmes distribués. Ces algorithmes reposent soit sur l’obtention de permissions soit sur la circulation d’un jeton. Les algorithmes à base de permissions sont plus coûteux en nombre messages du fait qu’un site demandeur fait une diffusion sur un ensemble de sites. Leur complexité est en général de O(N) mais celle-ci peut être réduite si les processus s’adressent non pas à la totalité des processus mais à un sous-ensemble. Il est possible pour cela d’utiliser les quorums de Maekawa [Mae85] qui restent cependant assez complexes à construire. Le mécanisme d’ordonnancement des requêtes dans les algorithmes à permissions est principalement basé sur les horloges de Lamport [Lam78] et garantit ainsi la politique d’ordonnancement du « premier arrivé premier servi » assurant une équité.2.7. Conclusion 23 Le nombre de messages des algorithmes à jeton est réduit lorsqu’ils ne se basent pas sur un mécanisme de diffusion comme [SK85] mais sur une topologie logique. Le fait de rendre un algorithme dynamique améliore ses performances car un site demandeur s’adressera aux sites qui ont le plus de chances d’avoir le jeton. Les sites qui ont rarement besoin de la section critique sont donc mis à l’écart des communications et ne servent pas d’intermédiaires. La propriété de sûreté ne se résume qu’à l’unicité du jeton et la vivacité est respectée grâce à la propriété de la structure utilisée pour la topologie des sites. De nombreux articles cités dans ce chapitre prouvent que le problème originel de l’exclusion mutuelle a été grandement étudié. Il s’agit d’un problème simple qui n’est cependant pas adapté à certaines utilisations. Nous avons ainsi présenté plusieurs extensions (priorité, nombre de ressources, priorité, ...). La suite de ce manuscrit se propose d’étudier et d’apporter des solutions nouvelles à ces différents types de problème. Pour conclure ce chapitre la figure 2.7 synthétise et classifie des algorithmes d’exclusion mutuelle classique.24 Chapitre 2. Exclusion mutuelle distribuée Figure 2.7 – Schéma récapitulatif de l’état de l’art de l’exclusion mutuelleChapitre 3 Exclusion mutuelle à priorités Sommaire 3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 3.2 Extension du modèle du système considéré . . . . . . . . . 26 3.3 Taxonomie des algorithmes à priorité . . . . . . . . . . . . 26 3.3.1 Priorités statiques . . . . . . . . . . . . . . . . . . . . . . . 26 3.3.2 Priorités dynamiques . . . . . . . . . . . . . . . . . . . . . 27 3.4 Description des algorithmes principaux . . . . . . . . . . . 27 3.4.1 Algorithme de Mueller . . . . . . . . . . . . . . . . . . . . . 27 3.4.2 Algorithme de Chang . . . . . . . . . . . . . . . . . . . . . 28 3.4.3 Algorithme de Kanrar-Chaki . . . . . . . . . . . . . . . . . 29 3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.1 Introduction Nous avons vu dans le chapitre précédent que l’exclusion mutuelle classique satisfaisait les requêtes dans un ordre "premier arrivé, premier servi". Or dans certains systèmes distribués, cette approche n’est pas adaptée lorsque l’on doit gérer des processus avec des priorités différentes. Le modèle de l’exclusion mutuelle a donc été étendu pour gérer ce type d’ordonnancement et des algorithmes distribués ont été proposés (généralement une extension ou une combinaison des algorithmes de base présentés en section 2.4). L’exclusion mutuelle à priorités ajoute une contrainte supplémentaire dans l’ordonnancement des requêtes : les requêtes doivent être satisfaites dans l’ordre de leur priorité dans la mesure du possible. Cette priorité est généralement représentée par une valeur entière : plus cette valeur est élevée, plus la priorité de la requête est haute. La notion de priorité induit donc des ré-ordonnancements dynamiques de la file des requêtes pendantes en fonction des niveaux de priorité des nouvelles requêtes. Le non respect de l’ordre des priorités introduit des inversions de priorités. Une inversion de priorité est le fait qu’une requête soit satisfaite avant une requête pendante plus prioritaire. Une définition plus approfondie de l’inversion de priorité est donnée en section 4.2. 2526 Chapitre 3. Exclusion mutuelle à priorités Le strict respect de l’ordre des priorités peut cependant induire des famines, c’est à dire un temps infini pour qu’un processus obtienne la section critique violant ainsi la propriété de vivacité. La famine peut apparaître lorsqu’un processus de haute priorité émet des requêtes en permanence empêchant ainsi les autres processus de plus basses priorités d’accéder à la section critique. Ainsi, pour éviter ceci, nous verrons qu’il existe des algorithmes à priorités dynamiques qui augmentent les priorités des requêtes en attente pendant l’exécution de l’algorithme. Toute requête pourra alors atteindre à terme la priorité maximale et ainsi assurer qu’elle sera satisfaite en temps fini. La section 3.2 étend le modèle du système considéré décrit en section 2.2. Dans la section 3.3 nous présenterons les deux familles d’algorithmes d’exclusion mutuelle à priorité (statique et dynamique). La section 3.4 décrira trois algorithmes (Mueller, Chang et Kanrar-Chaki) qui nous serviront de base de comparaison. 3.2 Extension du modèle du système considéré Nous définissons l’ensemble des priorités P⊂ IN de P éléments. Si deux priorités pi , pj ∈ P et pi < pj alors la priorité pj est plus importante que pi . Nous notons pmin∈ P la priorité minimale du système où @p ∈ P, p < pmin. De même, nous notons pmax ∈ P la priorité maximale du système où @p ∈ P, pmax < p. La demande de section critique se fait désormais en ajoutant un paramètre p ∈ P, pmin ≤ p ≤ pmax à la primitive Request_CS, qui devient alors Request_CS(p). 3.3 Taxonomie des algorithmes à priorité La taxonomie des algorithmes d’exclusion mutuelle à priorité peut se résumer en deux familles : priorité statique et priorité dynamique. 3.3.1 Priorités statiques Dans cette famille d’algorithme, la priorité d’une requête reste la même jusqu’à sa satisfaction. Elle respecte scrupuleusement l’ordre des priorités impliquant aucune inversion de priorité. Cependant une famine pour les plus basses priorités reste possible si des requêtes de priorité haute demandent en permanence la section critique. Nous citons ci-dessous quelques algorithmes à priorité statique. • L’algorithme de Goscinksi [Gos90] est une extension de l’algorithme de SuzukiKasami [SK85]. Cet algorithme se base sur un mécanisme de diffusion (complexité en nombre de messages de O(N)). Les requêtes pendantes sont enregistrées dans une file globale et sont ordonnée en fonction de leur priorité. La file est incluse dans le jeton. • L’algorithme de Housni-Tréhel [HT01] adopte une approche hiérarchique où les nœuds sont groupés par priorité. Dans chaque groupe, un nœud routeur représente le groupe auprès des autres groupes. Les processus d’un même groupe sont organisés en arbre statique comme dans l’algorithme de Raymond [Ray89b] et les routeurs appliquent entre eux l’algorithme de Ricart-Agrawala [RA81]. L’inconvénient est3.4. Description des algorithmes principaux 27 que chaque processus ne peut faire des requêtes qu’en gardant toujours la même priorité (celle de son groupe). • Johnson-Newman-Wolfe ont décrit trois algorithmes dans [JNW96]. Deux d’entre eux utilisent une technique de compression de chemin de Li-Hudak [LH89] pour un accès rapide et un faible coût en messages. Le troisième algorithme étend l’algorithme de Raymond [Ray89b]. Chaque processus maintient une file locale de requêtes reçues triée par ordre de priorité. Seules les nouvelles requêtes avec une priorité plus importante sont retransmises au père dans la structure logique. • L’algorithme de Mueller [Mue98] étend l’algorithme de Naimi-tréhel avec files locales [NT87b]. Une description plus détaillée de cet algorithme est donnée en section 3.4.1. 3.3.2 Priorités dynamiques Dans la famille de priorité dynamique, la priorité d’une requête est incrémentée au cours du temps pour assurer la vivacité. Généralement les priorités des requêtes pendantes augmentent à chaque enregistrement d’une nouvelle requête de plus haute priorité. Ainsi, l’émission de requêtes de plus haute priorité a pour effet d’augmenter les petites priorités ce qui à terme amène l’accès à la section critique. L’inconvénient majeur d’une telle approche est que des inversions de priorités peuvent désormais se produire. En effet, l’incrémentation des priorités amènera au fait que des requêtes à petites priorités entreront en section critique avant d’autres requêtes de priorité supérieure. De plus ces algorithmes ont un surcoût en messages dû aux mises à jour des priorités dans le système. Les deux algorithmes de référence de cette famille sont : • l’algorithme de Chang [Cha94] • l’algorithme de Kanrar-Chaki [KC10] Ces deux algorithmes se basent sur la circulation d’un jeton dans un arbre statique comme l’algorithme de Raymond [Ray89b]. Ils sont décrits de manière détaillée respectivement en section 3.4.2 et 3.4.3. 3.4 Description des algorithmes principaux 3.4.1 Algorithme de Mueller L’algorithme de Mueller [Mue98] se base sur l’algorithme de Naimi-Tréhel qui utilise un arbre dynamique comme structure logique pour la transmissions des requêtes. Comme la file des requêtes pendantes peut être réordonnancée dynamiquement à cause d’éventuelles nouvelles requêtes de priorité plus importante, la version à file distribuée [NT87a] n’est pas adaptée. En effet, elle rend difficile l’insertion de requêtes au milieu de la file. Le coût de maintien de la cohérence de cette file devient alors prohibitif. L’algorithme de Mueller se base par conséquent sur la version à files locales [NT87b]. Les files locales sont triées en fonction des priorités des requêtes qu’elles contiennent et la concaténation de ces files permet de former une file d’attente virtuelle. La retransmission de requêtes se fait à l’instar de l’algorithme de Raymond [Ray89b], où un site retransmet une requête à son28 Chapitre 3. Exclusion mutuelle à priorités père que si sa file locale ne contient aucune requête de plus forte priorité. Ce mécanisme est récursif jusqu’à la racine qui est le détenteur du jeton. À chaque libération du jeton, la file locale du site correspondant est transmise dans le jeton et le pointeur de structure indiquant la direction du jeton est mis à jour en y affectant l’identifiant du destinataire du jeton. À la réception du jeton, la file transmise est fusionnée avec la file locale du récepteur. La file qui en résulte est réordonnée en fonction des priorités. L’algorithme possède en plus, des mécanismes temporels et de datation des requêtes pour différencier deux requêtes de même priorité et ainsi privilégier la plus ancienne. Pour limiter l’inversion de priorité, Mueller a étendu son algorithme dans [Mue99] afin de l’améliorer avec les protocoles PCP (Priority Ceiling Protocol) et PIP (Priority Inheritance Protocol [SRL90]) utilisés dans les systèmes temps-réel. L’implémentation de cet algorithme est cependant relativement complexe. De plus, en cas de système chargé l’arbre dynamique tend à devenir une chaîne puisque la racine n’est pas le dernier demandeur mais le détenteur du jeton. L’algorithme présente alors une complexité en messages en O( N 2 ). 3.4.2 Algorithme de Chang Chang [Cha94] reprend l’algorithme de Raymond [Ray89b] en se basant sur une topologie d’arbre statique. Sur le même principe que l’algorithme de Raymond : • chaque site possède une file locale triée par priorité et par ordre FIFO en cas de priorité égale ; • un site retransmet un message de requête que si celle-ci a une priorité supérieure à la priorité maximale de la file locale. Il est en effet inutile de transmettre un message de requête de plus faible priorité sachant qu’il existe une requête de priorité supérieure qui sera satisfaite avant. Chang applique un mécanisme de priorités dynamiques aux requêtes. Ce mécanisme est appelé aging strategy : • un processus incrémente de un chaque priorité des requêtes dans sa file locale avant d’envoyer le jeton ; • à la réception d’une requête de priorité p, le processus met à la priorité p toute requête dans la file locale dont la priorité est inférieure à p ; • à la réception du jeton qui inclut le nombre total d’exécutions de la section critique, le processus incrémente la priorité de toutes ses anciennes requêtes du nombre de sections critiques qui ont été exécutées depuis son dernier passage. Un tel mécanisme réduit l’écart en terme de temps de réponse moyen entre les priorités (contrairement à l’algorithme de Kanrar-Chaki décrit en section 3.4.3) mais induit un plus grand nombre d’inversions. Cet algorithme possède une légère optimisation dans l’envoi des messages. Dans l’algorithme de Raymond, rappelons que lorsque le jeton est envoyé par un processus qui possède une file locale non-vide, ce processus enverra aussi un message de requête pour éviter la famine de ses requêtes présentes dans sa file locale. L’optimisation de Chang consiste à inclure cette requête directement dans le jeton. L’algorithme de Chang hérite des propriétés de l’algorithme de Raymond. Sa complexité moyenne en messages reste toujours logarithmique par rapport à N.3.5. Conclusion 29 3.4.3 Algorithme de Kanrar-Chaki L’algorithme de Kanrar-Chaki [KC10] introduit également un mécanisme de priorité dynamique en se basant sur une topologie statique d’arbre comme l’algorithme de Raymond. Le mécanisme de propagation des requêtes et la politique de stockage dans les files locales sont similaires à l’algorithme de Chang : les files locales sont triées en fonction des priorités (FIFO en cas de priorités égales) et un site retransmet un message de requête que si celle-ci a une priorité supérieure à la priorité maximale de la file locale. Cependant le mécanisme de priorité dynamique de l’algorithme de Kanrar-Chaki diffère de celui de Chang. En effet, la priorité d’une requête de la file locale est incrémentée d’un niveau à la réception de chaque message requête ayant une priorité strictement supérieure. Contrairement à Chang, la réception de requête est le seul moment où une priorité peut augmenter. De plus l’algorithme de Kanrar-Chaki n’utilise pas l’optimisation de Chang qui est d’inclure une requête dans le jeton. Nous donnons un exemple d’exécution de cet algorithme dans la figure 3.1 afin de faciliter sa compréhension car notre nouvel algorithme à priorités présenté dans le chapitre 4 est inspiré de celui de Kanrar-Chaki. 3.5 Conclusion Nous avons vu dans ce chapitre, les deux familles d’algorithmes d’exclusion mutuelle à priorité. La famille à priorité statique respecte scrupuleusement l’ordre des priorités mais ne respecte pas la propriété de vivacité tandis que la famille à priorité dynamique permet de respecter la vivacité mais génère des inversions. Globalement les algorithmes que nous avons présenté en section 3.4 se basent sur la circulation d’un jeton dans une topologie logique. Ils ont le même mécanisme de propagation des requêtes : • la racine de l’arbre est le détenteur du jeton, • chaque processus possède une file locale triée en fonction des priorités et en cas de priorité égale c’est la requête la plus ancienne qui sera favorisée, • une requête est retransmise au site père que si elle est de priorité supérieure à la priorité maximale de la file. Les algorithmes de Chang et Kanrar-Chaki héritent des avantages de la topologie statique de l’algorithme de Raymond, en particulier la simplicité de mise en œuvre et la complexité en messages logarithmique par rapport à N. En revanche, un site situé au cœur de l’arbre utilisant peu la section critique sera sollicité tout de même à transmettre le jeton. L’algorithme de Mueller a l’avantage que les sites peu demandeurs de la section critique resteront peu sollicités par la transmission de messages : les messages de jeton sont envoyés directement au prochain site qui exécutera la section critique. Cependant, le fait que le site racine soit possesseur du jeton dégrade la complexité en message car les liens logiques tendront à former à chaque transfert du jeton une chaîne et non un arbre.30 Chapitre 3. Exclusion mutuelle à priorités État initial : s1 possède le jeton et est en section critique. s3 et s5 demandent la section critique avec les priorités respectives 1 et 3. Étape 1 : s1 et s2 re- çoivent les requêtes de s3 et s5 : ils les ajoutent dans leur file locale. s2 devient requesting pour la requête de s5 et envoie une requête à s1. De plus s4 entre en état requesting et envoie une requête à s2 avec la priorité 4. Étape 2 : s2 reçoit la requête de s4, incrémente la priorité locale de s5, insère la requête et transmet une requête de priorité 4 à s1 car sa priorité maximale a changé. s1 reçoit la requête de s2, incrémente localement la priorité de s3 et insère la requête. Étape 3 : s1 reçoit la requête de s2, il incrémente la priorité de s3 et met à jour la priorité de s2. Notons qu’à ce stade la priorité de s3 est égale à 3 pour s1 alors qu’elle reste toujours à 1 pour s3. Étape 4 : s1 sort de la section critique, dépile le premier élément de sa file locale et envoie le jeton à s3. Comme Q1 n’est pas vide, s1 envoie également, un message de requête pour la requête de s3. Étape 5 : s2 reçoit le jeton et le retransmet à s5 en lui envoyant aussi une requête de priorité 4 pour la requête de s4. s2 ajoute la requête de s1 de priorité 3 à la réception mais ne retransmet rien car sa priorité maximale est de 4. état requesting état requesting par délégation état tranquil porteur du jeton message de requête message de jeton lien structurel f ather Figure 3.1 – Exemple d’exécution de l’algorithme de Kanrar-ChakiDeuxième partie Exclusion mutuelle à priorité et exclusion mutuelle à contraintes temporelles 31Chapitre 4 Temps d’attente et inversions de priorité dans l’exclusion mutuelle Sommaire 4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 4.2 Définition des inversions . . . . . . . . . . . . . . . . . . . . 34 4.3 Réduction des inversions . . . . . . . . . . . . . . . . . . . . 36 4.3.1 Corps de l’algorithme . . . . . . . . . . . . . . . . . . . . . 36 4.3.2 Amélioration des communications . . . . . . . . . . . . . . 38 4.3.3 Retard d’incrémentation de priorité . . . . . . . . . . . . . 39 4.3.4 Prise en compte de la topologie . . . . . . . . . . . . . . . . 39 4.4 Évaluation du mécanisme de réduction d’inversions . . . . 40 4.4.1 Protocole d’évaluation . . . . . . . . . . . . . . . . . . . . . 40 4.4.2 Résultats en charge constante . . . . . . . . . . . . . . . . 41 4.4.3 Résultats en charge dynamique . . . . . . . . . . . . . . . . 49 4.4.4 Étude en charge constante avec priorité constante . . . . . 51 4.4.5 Synthèse de l’évaluation . . . . . . . . . . . . . . . . . . . . 55 4.5 Réduction du temps d’attente . . . . . . . . . . . . . . . . . 55 4.5.1 Un équilibre sur deux objectifs contradictoires . . . . . . . 56 4.5.2 Principes de l’algorithme Awareness . . . . . . . . . . . . . 56 4.5.3 Description de l’algorithme Awareness . . . . . . . . . . . . 57 4.6 Évaluation des performances de l’algorithme Awareness . 61 4.6.1 Protocole d’évaluation . . . . . . . . . . . . . . . . . . . . . 62 4.6.2 Résultats pour une fonction de palier donnée . . . . . . . . 62 4.6.3 Impact de la fonction de palier sur les inversions et le temps de réponse . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 4.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 3334 Chapitre 4. Temps d’attente et inversions de priorité dans l’exclusion mutuelle 4.1 Introduction Nous avons vu dans le chapitre 3 que dans l’exclusion mutuelle distribuée à priorité, les algorithmes pouvaient être classés en deux catégories : les algorithmes à priorités statiques qui respectent scrupuleusement l’ordre des priorités mais violent la propriété de vivacité et les algorithmes à priorités dynamiques qui permettent d’assurer la vivacité mais induisent des inversions de priorités. Nous proposons alors un nouvel algorithme qui : 1. respecte la propriété de vivacité : ceci ne peut se faire que par un algorithme à priorité dynamique. Par conséquent notre solution finale appartiendra à cette famille et se basera sur l’algorithme de Kanrar-Chaki (voir section 3.4.3) qui repose sur une topologie en arbre statique. 2. limite le nombre d’inversions : les inversions sont indispensables pour assurer la vivacité car sans inversion, il y a un risque de famine. Notre objectif est donc de les limiter en introduisant un mécanisme de ralentissement des incrémentations de priorités. 3. garde une bonne complexité en messages : Le mécanisme de ralentissement des incrémentations pour réduire les inversions induit un surcoût en messages. Nous introduisons donc un mécanisme qui prend en compte la localité des requêtes pour limiter ce surcoût. 4. garde un temps d’attente raisonnable pour les requêtes à faibles priorités. La limitation en inversions de priorités peut induire dans certaines topologies des temps d’attente très importants pour les requêtes à faible priorité. Nous avons donc étendu notre mécanisme de réduction d’inversion pour donner lieu à un nouvel algorithme appelé "Awareness" s’appuyant sur une vision globale des requêtes. Cet algorithme permet d’être indépendant de la topologie sous-jacente et ainsi d’éviter les cas pathologiques du premier algorithme. Les trois premiers objectifs sont associés aux publications [CCgrid12] et [Compas13]. La contribution du quatrième objectif a été publiée dans [ICPP13]. Ce chapitre est composé de la section 4.2 qui définit formellement la notion d’inversion de priorité. La contribution est ensuite décrite en deux parties : la première partie décrit et évalue nos mécanismes permettant de satisfaire les trois premiers objectifs dans une topologie aléatoire (sections 4.3 et 4.4) et la deuxième partie décrit et évalue l’algorithme "Awareness" (sections 4.5 et 4.6). 4.2 Définition des inversions Intuitivement, une inversion de priorité se produit lorsque une requête est satisfaite avant une autre requête pendante de priorité supérieure ou bien plus simplement lorsque l’ordre des priorités a été violé. Lorsqu’une inversion se produit on peut distinguer deux types de requêtes : • Une requête favorisée : la requête qui est satisfaite avant la requête de priorité plus importante.4.2. Définition des inversions 35 • Une requête pénalisée : la requête du processus qui attend le jeton pendant que le processus de requête de priorité inférieure entre en section critique. La figure 4.1 montre cinq requêtes avec leur priorité originale respective où les lignes horizontales représentent le temps d’attente de chaque requête. On rappelle qu’une requête reqi de priorité pi est plus prioritaire qu’une requête reqj de priorité pj si pi > pj . On observe que la requête req1 est donc une requête favorisée puisqu’elle est satisfaite pendant que la requête req2 attend le jeton. La requête req2 est alors une requête pénalisée. Nous notons qu’une requête peut être à la fois favorisée et pénalisée (par exemple les requêtes req2 et req3). Figure 4.1 – Exemple de classe d’inversions de priorité Soit le triplet (p, tr, ta) ∈ P × T × T qui représente une requête où p est la priorité, tr est la date où elle a été émise, et ta la date où le jeton a été acquis. Chaque triplet est unique car la sûreté assure qu’il n’est pas possible que la date d’acquisition du jeton soit la même pour deux requêtes différentes. Les métriques relatives à l’inversion de priorité peuvent être exprimées par : • Le nombre de requêtes favorisées : #{(p, tr, ta) ∈ P × T × T | ∃(p 0 , t0 r , t0 a ) ∈ P × T × T, p < p0 ∧ ta ∈ ]t 0 r , t0 a [ } • Le nombre de requêtes pénalisées : #{(p, tr, ta) ∈ P × T × T | ∃(p 0 , t0 r , t0 a ) ∈ P × T × T, p0 < p ∧ t 0 a ∈ ]tr, ta[ } • Le nombre total d’inversions de priorité : #{((p, tr, ta),(p 0 , t0 r , t0 a )) ∈ (P × T × T) 2 | p 0 < p ∧ t 0 a ∈ ]tr, ta[ } Si l’on considère de nouveau la figure 4.1, on dénombre ainsi : • 3 requêtes favorisées (lignes en pointillés) ; • 4 requêtes pénalisées (lignes horizontales ayant au moins un point) ; • 8 inversions (nombre total de points). Contrairement à ce que l’on pourrait penser intuitivement, le nombre d’inversions n’est pas la somme du nombre de requêtes pénalisées et de requêtes favorisées comme nous pouvons le remarquer dans l’exemple.36 Chapitre 4. Temps d’attente et inversions de priorité dans l’exclusion mutuelle 4.3 Réduction des inversions Notre solution pour améliorer les communications et réduire les inversions se base sur l’algorithme de Kanrar-Chaki (voir section 3.4.3). Nous avons choisi cet algorithme car il a un faible nombre de messages par section critique (O(Log(N))). De plus, son mécanisme d’incrémentation de priorité assure l’absence de famine. Dans un premier temps, nous appliquons l’optimisation du trafic de messages proposée dans l’algorithme de Chang [Cha94] à savoir l’ajout d’une requête dans le jeton lorsqu’il reste des requêtes pendantes. Nous ajoutons ensuite deux mécanismes : • le mécanisme "retard" qui utilise des paliers pour ralentir l’incrémentation des priorités ; • le mécanisme "distance" limite le nombre de transmission du jeton en considérant le nombre de nœuds intermédiaires entre l’actuel possesseur du jeton et les nœuds demandeurs. L’optimisation du trafic de messages et ces deux mécanismes seront décrits après une description du corps de l’algorithme permettant d’améliorer les communications et de réduire les inversions. 4.3.1 Corps de l’algorithme Pour chaque site si , l’algorithme définit les variables locales suivantes (ligne 1 à 5) : • state : indique l’état du processus • f ather : l’identifiant du site voisin sur le chemin menant au processus qui détient le jeton (processus racine). • Q : la file locale de requêtes pendantes reçues par le site. Chaque élément de la file est un tuple (s, p, l, d) ∈ Π × (P ∪ {pmax + 1}) × IN × IN où • s est l’identifiant du voisin qui a transmis la requête • p est la priorité courante de la requête dans la file locale. Il est possible que cette priorité locale soit supérieure à pmax. Ce point est détaillé dans la section 4.3.4 • l est le niveau de retard courant qui correspond au nombre courant de requêtes concurrentes de priorité supérieure qui ont déjà été prises en compte pour augmenter la priorité p à la priorité p + 1. • d est la distance en nombre de nœuds intermédiaires dans l’arbre séparant l’initiateur de la requête et le nœud courant. Chaque file locale est triée par ordre décroissant de priorité p, puis par ordre croissant de distance d en cas de priorité égale, par ordre de niveau de retard l décroissant en cas de distance égale puis enfin par ordre FIFO en cas de niveaux de retard égaux. Nous définissons les fonctions suivantes qui manipulent la file locale Q : • add(s, p, l, d) : ajoute une requête (s, p, l, d) en fonction de la politique d’ordre définie ci-dessus. • dequeue(Q) : considère que Q n’est pas vide, retourne le premier élément en l’effaçant de la file Q. • head(Q) : retourne le premier élément de Q mais ne l’efface pas. Si Q est vide l’élément retourné est (nil, nil, nil, nil). • reorder(Q) : permet de réordonner la file en fonction de sa politique de tri.4.3. Réduction des inversions 37 Local variables :1 begin2 3 father : site ∈ Π or nil; 4 Q : queue of tuple (s, p, l, d) ∈ Π × (P ∪ {pmax + 1}) × IN × IN ; 5 state ∈ {tranquil, requesting, inCS}; end6 7 Initialization begin8 9 Q ← ∅; 10 state ← tranquil; 11 father ← according to the initial topology; end12 13 Receive_Request(pj ∈ P, dj ∈ IN) from sj begin if father = nil and state = tranquil then14 15 Send Token(∅,∅) to sj ; 16 father ← sj ; 17 else if sj 6= father then 18 (sold, pold, lold, dold) ← head(Q); 19 foreach (s, p, l, d) ∈ Q do 20 (shead, phead, lhead, dhead) ← head(Q); if s = sj then21 if pj ≥ p then22 23 p ← pj ; 24 d ← dj ; 25 l ← 0 ; 26 else if pj > p or (pj = p and p = phead) then 27 l ← l + 1; if l = F(p + 1) then28 29 p ← p + 1; 30 l ← 0; if @(s, p, l, d) ∈ Q, s = sj then31 32 add (sj , pj , 0, dj ) in Q; 33 reorder (Q) ; if father 6= nil then34 35 if (sold, pold, lold, dold) 6= head(Q) then 36 Send Request(pj , dj + 1) to father; end37 Request_CS(p ∈ P)38 begin39 40 state ← requesting; if father 6= nil then41 42 add (self, p, 0, 0) in Q ; if (self, p, 0, 0) = head(Q) then43 44 Send Request(p,1) to father; 45 wait(father = nil); 46 state ← inCS; 47 /* CRITICAL SECTION */ end48 Release_CS()49 begin50 51 state ← tranquil; if Q 6= ∅ then52 53 (snext, pnext, lnext, dnext) ← dequeue(Q); 54 (shead, phead, lhead, dhead) ← head(Q); Send Token min(phead, pmax),dhead + 1 55 to snext; 56 father ← snext; end57 58 Receive_Token(pj ∈ P, dj ∈ IN) from sj begin59 60 father ← nil ; 61 (snext, pnext, lnext, dnext) ← dequeue(Q); if pj 6= nil then62 63 foreach (s, p, l, d) ∈ Q do 64 (shead, phead, lhead, dhead) ← head(Q); 65 if pj > p or (pj = p and p = phead) then 66 l ← l + 1; if l = F(p + 1) then67 68 p ← p + 1; 69 l ← 0; 70 add (sj , pj , 0, dj ) in Q; 71 reorder (Q) ; if snext = self then72 73 notify(father = nil); 74 else 75 (shead, phead, lhead, dhead) ← head(Q); Send Token min(phead, pmax),dhead + 1 76 to snext; 77 father ← snext; end78 Figure 4.2 – Algorithme retard-distance38 Chapitre 4. Temps d’attente et inversions de priorité dans l’exclusion mutuelle Lorsqu’un site désire accéder à la ressource avec une priorité p, il exécute la fonction Request_CS (ligne 38). Celle-ci inclut sa requête dans sa file locale (ligne 42). Si cette requête est la première de la file (c’est à dire la plus prioritaire), le processus envoie un message de requête à son père (ligne 44). Chaque requête reçue contient la priorité de la requête p et sa distance d en nombre de sauts depuis l’initiateur. Lorsqu’un processus si reçoit une requête (ligne 13) d’un voisin sj , si si est la racine mais n’utilise pas le jeton (état tranquil) alors le jeton est envoyé en direction du demandeur (ligne 15) via sj . Si si n’est pas la racine, la requête est ajoutée dans Q. Si il existe déjà une requête dans Q provenant de sj , la priorité et la distance sont mises à jour et l’indice de retard réinitialisé à zéro (lignes 22 à 25). Les indices de retard et éventuellement les priorités des autres requêtes pendantes dans Q sont incrémentés (lignes 26 à 30). Ensuite si le processus a ajouté la requête en tête de file alors le message de requête est retransmis au père (ligne 36). Le test de la ligne 17 est utile quand le jeton est en transit entre le site courant et sj . En effet, lorsque le jeton est en transit, il existe un cycle sur les liens f ather entre l’envoyeur du message jeton et son destinataire. Il peut donc arriver qu’un message de requête provenant de sj croise le message de jeton que le processus courant vient d’envoyer. Le test de la ligne 17 permet ainsi de ne jamais enregistrer une requête venant du site père et évite ainsi des cycles dans la transmission de messages. Lorsqu’un processus reçoit le jeton, si le jeton contient une requête (voir section 4.3.2), il met à jour les priorités des requêtes dans la file locale et y ajoute ensuite cette requête (lignes 62 à 70). Si sa propre requête est la tête de file (sa requête est la plus prioritaire), le processus peut entrer en section critique et passer à l’état inCS (ligne 73). Sinon, le jeton est transmis au nœud de la requête de la tête de file (ligne 76) Enfin, lorsqu’un site sort de section critique en appelant la procédure Release_CS (ligne 50), si sa file locale n’est pas vide, le jeton est envoyé au processus de la requête de la tête de file. Si après la suppression de cette requête, la file demeure non vide, le processus inclut dans le jeton la première requête de la file. Le jeton est ensuite envoyé et le lien f ather est mis à jour (lignes 55 et 56). 4.3.2 Amélioration des communications Dans l’algorithme de Kanrar-Chaki, lorsqu’un site ayant plusieurs requêtes en attente envoie le jeton pour satisfaire la première requête de la file, il envoie également un message de requête pour récupérer le jeton. Ceci permet de satisfaire les autres requêtes en attente dans la file locale. Ces envois successifs de deux messages causalement liés posent un problème d’efficacité. Une solution proposée dans l’algorithme de Chang est d’adjoindre la requête lors de l’envoi du jeton (lignes 55 et 76). On économise ainsi un message à chaque envoi du jeton tout en maintenant la cohérence du protocole. Un autre défaut de l’algorithme de Kanrar-Chaki, réside dans l’envoi systématique d’une requête lorsqu’un site désire entrer en section critique. Nous proposons alors de limiter cet envoi au seul cas où aucune requête pendante de priorité supérieure n’a été émise (ligne 43). On évite ainsi de nombreux envois inutiles en cas de forte charge.4.3. Réduction des inversions 39 4.3.3 Retard d’incrémentation de priorité Outre l’envoi de messages inutiles, l’algorithme de Kanrar-Chaki présente un grand nombre d’inversions. En effet, le mécanisme d’incrémentation conduit rapidement à ce que des requêtes initialement de faible priorité obtiennent la priorité maximale dans une file locale. Nous proposons donc un nouveau mécanisme permettant de retarder l’incrémentation de priorité. La valeur d’une priorité d’une requête pendante n’est pas incrémentée à chaque insertion d’une nouvelle requête de plus haute priorité mais seulement après un certain nombre d’insertions. Nous définissons alors une fonction de palier notée F : P → IN. F(p) qui permet de définir la politique d’incrémentation c’est à dire le nombre d’insertions de requêtes de priorité supérieure à p−1 pour qu’une requête de priorité p−1 passe localement à la priorité p (lignes 27 à 30 et lignes 66 à 69). F est une fonction monotone croissante et positive et peut être assimilée à un paramètre de l’algorithme. Puisque notre objectif premier est de réduire le nombre d’inversions au maximum, nous considérerons dans les expérimentions une fonction de palier exponentiellement croissante (F(p) = 2p+c , où la constante c permet d’éviter que les petites priorités n’augmentent trop vite). Ainsi plus la priorité suivante à atteindre est grande plus il sera long de l’obtenir. 4.3.4 Prise en compte de la topologie Dans l’algorithme original de Kanrar-Chaki, les requêtes de même priorité ne sont pas ordonnées. Cependant la topologie induit des coûts de transmission différents suivant la localisation des sites demandeurs. En ajoutant de l’information à une requête, il devient envisageable d’optimiser le transfert du jeton et donc le nombre de messages ainsi que le taux d’utilisation de la section critique. On ajoute à chaque requête un compteur incrémenté à chaque retransmission. On utilise alors ce compteur pour prendre en compte la localité des requêtes. Cette localité est quantifiée par le nombre de liens intermédiaires entre si et sj que le jeton doit traverser. Ainsi, pour deux requêtes pendantes de même priorité, le jeton sera envoyé à la plus proche. Cependant un tel mécanisme peut introduire des famines puisqu’il peut arriver que le jeton se transmette indéfiniment dans une portion de l’arbre où il existe des processus qui demandent en permanence la section critique avec la même priorité. Ceci peut générer une famine pour d’éventuels processus de même priorité en attente de la section critique se situant loin de cette portion d’arbre : les processus proches dans l’arbre passeront en permanence devant les requêtes éloignées. Pour palier à ce problème, lorsqu’un nœud reçoit une requête de priorité p, il incrémente l’indice de retard de toutes les requêtes de priorité p 0 si p > p0 ou bien si p est la plus haute priorité locale et p = p 0 (lignes 26 et 65). Ainsi il est possible que localement une requête soit de priorité pmax + 1, ce qui permet d’assurer que dans un temps fini toute requête sera la première d’une file locale.40 Chapitre 4. Temps d’attente et inversions de priorité dans l’exclusion mutuelle 4.4 Évaluation du mécanisme de réduction d’inversions 4.4.1 Protocole d’évaluation Les expériences ont été réalisées sur une grappe de 32 machines avec un processus par machine. Ceci permet d’éviter les effets de bord de contention au niveau des cartes réseau puisqu’il y a un seul processus par carte. Chaque nœud a deux processeurs Xeon 2.5GHz, 16 Go de mémoire RAM, s’exécute sur un noyau Linux 2.6 (cluster Grid5000 Nancy). Les nœuds sont reliés par un switch Ethernet de 20 Gbit/s. Les algorithmes ont été implémentés en C++ en utilisant l’intergiciel OpenMPI. Une expérience est caractérisée par : • N : le nombre de processus (32 dans notre cas). • α : le temps d’une section critique (5 millisecondes dans notre cas). • β : intervalle de temps d’attente entre la sortie d’une section critique par un processus et l’émission de la prochaine requête par ce même processus, autrement dit le temps où un site reste à l’état tranquil (paramètre calculé grâce à une valeur de charge ρ décrite ci-après) • γ : la latence réseau,i.e., le temps d’acheminement d’un message entre deux processus voisins (0,15 millisecondes dans notre cas) • ρ : la charge du système exprimée par le rapport β/(α + γ). La charge détermine la fréquence à laquelle la section critique est demandée, autrement dit le débit de requêtes en entrée du système. Ce paramètre est inversement proportionnel à la charge du système : plus la valeur de ce paramètre est faible, plus la charge est haute et vice versa. Ce rapport s’exprime proportionnellement à N. Le paramètre γ doit être pris en compte dans le calcul de la charge ρ si sa valeur n’est pas négligeable par rapport à α. En effet le temps de transfert du jeton peut être vu comme une extension du temps de section critique α. • θ : le temps de l’expérience (120 secondes dans notre cas). • F(p) : fonction de palier (égale à 2 p+c , où c = 6) Les métriques considérées dans cette évaluation de performances sont celles décrites en section 2.3.4, à savoir : • le nombre de messages moyen par requête : le ratio entre le nombre de total de messages de ce type émis par le protocole nombre total de requêtes. • le temps de réponse moyen : le temps moyen entre l’émission d’une requête et l’obtention de la section critique. Cela correspond au temps moyen en état requesting. Dans cette étude, cette métrique est donnée par niveau de priorité. • le taux d’utilisation : le pourcentage de temps passé en section critique durant l’expérience. En plus de ces métriques propres à l’exclusion mutuelle classique, nous ajoutons une métrique supplémentaire propre à l’exclusion mutuelle à priorité qui est le nombre total d’inversions de priorités décrit en section 4.2. Nous normalisons ici ce nombre total d’inversions par le nombre total de requêtes émises car les différents algorithmes considérés n’ont pas le même débit d’exécution de section critique. Dans chaque expérience nous avons considéré une topologie logique en arbre binaire et 8 priorités différentes. Nous avons comparé les algorithmes suivants :4.4. Évaluation du mécanisme de réduction d’inversions 41 • L’algorithme de Kanrar-Chaki [KC10] (voir section 3.4.3). • L’algorithme de Chang [Cha94] (voir section 3.4.2). • CommOpti correspond à une version modifiée de l’algorithme de Kanrar-Chaki avec l’optimisation de communication décrit en section 4.3.2. • CommOpti_retard correspond à l’algorithme CommOpti auquel on a ajouté le mécanisme de retard d’incrémentation de priorité (voir section 4.3.3). • CommOpti_retard_distance correspond à l’algorithme CommOpti_retard auquel on a ajouté le mécanisme de prise en compte de topologie : le mécanisme "distance" (voir section 4.3.4) 4.4.2 Résultats en charge constante Dans cette partie, nous présentons des résultats d’évaluation de performances lorsque la charge de requête reste constante dans une expérience, i.e., la fréquence de demandes de section critique (paramètre ρ) ne varie pas dans une expérience. L’intervalle entre deux demandes (paramètre β) est calculé de manière aléatoire suivant une loi de Poisson où la moyenne est calculée grâce au paramètre de charge ρ. Dans chaque expérience, les processus demandent la section critique périodiquement et choisissent de manière uniformément aléatoire une priorité à chaque nouvelle requête. Pour considérer un régime stationnaire durant les mesures, nous avons introduit un temps de préchauffage au moment du démarrage du système. Par conséquent la charge de requête pendante est constante durant les mesures de l’expérience. Dans cette partie, notre étude comporte deux étapes : nous considérons dans un premier temps une charge fixe donnée et dans un second temps nous étudions l’impact de différentes charges (chacune toujours constante dans une expérience) sur le comportement de l’algorithme. Évaluation de performance pour une charge donnée Étude globale La charge est fixée à ρ = 0, 5N qui correspond à une charge intermédiaire (environ 50 % des processus attendent la section critique). La figure 4.3 montre le comportement des algorithmes sur les différentes métriques considérées. Nous pouvons observer dans la figure 4.3(a) que l’algorithme de Kanrar-Chaki pré- sente environ 25 % d’inversions en moins que l’algorithme de Chang tout en ayant 1 taux d’inversion très élevé avec en moyenne 4 inversions par requête. Cependant ceci se fait au détriment de la complexité en nombre de messages (figure 4.3(b)) : 40 % de messages supplémentaires. Les performances de CommOpti montrent que le simple ajout des mé- canismes d’optimisation des messages à l’algorithme de Kanrar-Chaki suffisent à obtenir une complexité comparable à celle de Chang tout en conservant le même taux d’inversion. Toutefois, le nombre d’inversions de priorités obtenues par CommOpti reste encore très important (4 inversions par requête). L’ajout du mécanisme de retard d’incrémentation permet de réduire considérablement ce nombre d’un facteur 25. Ce bon résultat sur la métrique la plus importante pour un algorithme à priorité se fait au détriment du nombre de messages. En effet, avec le mécanisme de retard, les sites atteignent la priorité maximale42 Chapitre 4. Temps d’attente et inversions de priorité dans l’exclusion mutuelle 0 1 2 3 4 5 6 Kanrar_Chaki Chang CommOpti CommOpti_retard CommOpti_retard_distance Nombre d’inversions / nombre total de requêtes (a) Nombre total d’inversions / nombre total de requêtes 0 1 2 3 4 5 6 7 8 9 Kanrar_Chaki Chang CommOpti CommOpti_retard CommOpti_retard_distance Nombre de messages par requête REQUEST TOKEN (b) Nombre de messages par requête 1 10 100 1000 10000 Kanrar_Chaki Chang CommOpti CommOpti_retard CommOpti_retard_distance temps de réponse moyen (en ms) prio0 prio1 prio2 prio3 prio4 prio5 prio6 prio7 (c) Temps d’attente moyen par priorité 0 10 20 30 40 50 60 70 80 90 Kanrar_Chaki Chang CommOpti CommOpti_retard CommOpti_retard_distance Taux d’utilisation de la ressource (pourcentage) (d) Taux d’utilisation de la ressource critique Figure 4.3 – Performances du mécanisme de retard avec une charge intermédiaire4.4. Évaluation du mécanisme de réduction d’inversions 43 plus lentement et sont donc susceptibles de retransmettre d’avantage de requêtes. Pour contrebalancer le surcoût en messages généré par le mécanisme de retard, l’ajout du mécanisme "distance" qui prend en compte la topologie des requêtes permet d’économiser 5 % des messages tout en conservant un taux d’inversions de priorités très faible. Nous pourrons constater plus tard que ce gain est plus important lorsque la charge augmente. En ce qui concerne le temps de réponse moyen, nous observons dans la figure 4.3(c) que l’algorithme original de Kanrar-Chaki a un comportement régulier (en forme d’escalier),i.e., quand la priorité augmente, le temps de réponse moyen diminue. À l’inverse, avec le mécanisme de retard, les écarts de latence entre les différentes priorités sont moins réguliers : la priorité 0 voit sa latence largement augmentée (traitement "best-effort"), tandis que les plus hautes priorités bénéficient d’une forte amélioration des temps d’accès. Enfin, lorsque l’on compare les latences de CommOpti_retard avec CommOpti_retard_distance, on remarque qu’il n’y a pas de différence sur les latences moyennes des différentes priorités. Le gain en nombre de messages ne se fait qu’au prix d’une augmentation de l’écart type pour les faibles priorités. Pour terminer, la figure 4.3(d) nous permet de vérifier que les performances de nos différents mécanismes en termes de respect des priorités ne se font pas au dépend des performances globales : le taux d’utilisation du jeton reste inchangé autour de 80%. En conclusion cette étude confirme que le retard de l’incrémentation est essentiel pour le respect de l’ordre des priorités tandis que la localité des requêtes est utile pour la réduction du nombre de messages générés par l’algorithme. Approfondissement de l’étude sur les inversions La figure 4.4 présente une série de résultats visant à affiner l’étude de performance sur les inversions. Ainsi, les sous-figures montrent pour chaque algorithme : • Le pourcentage de requêtes pénalisées et le nombre de requêtes favorisées (Figures 4.4(a) et 4.4(b)). • Pour chaque niveau de priorité, le pourcentage de requêtes pénalisées et favorisées respectivement (Figures 4.4(c) et 4.4(d)). • Le nombre moyen de requêtes favorisées par requête pénalisée et le nombre moyen de requêtes pénalisées par requête favorisée (Figures 4.4(e) et 4.4(f)). Comme nous pouvons l’observer dans les figures 4.4(a) et 4.4(b), les algorithmes sans mécanisme de retard induisent plus de requêtes pénalisées que de favorisées mais pour les algorithmes avec mécanisme de retard, ces deux métriques ont la même valeur. Dans les figures 4.4(c) et 4.4(d), on retrouve cette différence pour chacune des priorités. Mais cette figure nous montre aussi des différences sur la distribution des requêtes pénalisées et favorisées au sein d’un même algorithme : dans les algorithmes avec mécanisme de retard, le nombre de requêtes pénalisées augmente linéairement avec la priorité, tandis que dans les autres algorithmes, les requêtes les plus pénalisées sont les requêtes de priorités intermédiaires. Pour comprendre ces différences, il faut savoir que le risque d’être pénalisé est un compromis entre deux phénomènes : • le nombre de requêtes susceptibles de dépasser une requête plus prioritaire dépend uniquement de la priorité initiale, et non de l’algorithme. En effet, plus la priorité44 Chapitre 4. Temps d’attente et inversions de priorité dans l’exclusion mutuelle 0 10 20 30 40 50 60 70 80 90 Kanrar_Chaki Chang CommOpti CommOpti_retard CommOpti_retard_distance Pourcentage de requête pénalisées (a) Pourcentage de requêtes pénalisées 0 10 20 30 40 50 60 70 80 90 Pourcentage de requêtes favorisées Kanrar_Chaki Chang CommOpti_retard CommOpti_retard CommOpti_retard_distance (b) Pourcentage de requêtes favorisées 0 10 20 30 40 50 60 70 80 90 100 Kanrar_Chaki Chang CommOpti CommOpti_retard CommOpti_retard_distance Pourcentage de requêtes pénalisées par priorité prio0 prio1 prio2 prio3 prio4 prio5 prio6 prio7 (c) Pourcentage de requêtes pénalisées par priorité 0 20 40 60 80 100 Kanrar_Chaki Chang CommOpti CommOpti_retard CommOpti_retard_distance Pourcentage de requêtes favorisées par priorité prio0 prio1 prio2 prio3 prio4 prio5 prio6 prio7 (d) Pourcentage de requêtes favorisées par priorité 0 2 4 6 8 10 12 Kanrar_Chaki Chang CommOpti CommOpti_retard CommOpti_retard_distance Nombre moyen de requêtes favorisées par requête pénalisée (e) Nombre moyen de requêtes favorisées par requête pénalisée 0 2 4 6 8 10 12 Kanrar_Chaki Chang CommOpti CommOpti_retard CommOpti_retard_distance Nombre moyen de requêtes pénalisées par requête favorisée (f) Nombre moyen de requêtes pénalisées par requête favorisée Figure 4.4 – Analyse approfondie des inversions pour une charge intermédiaire4.4. Évaluation du mécanisme de réduction d’inversions 45 d’une requête est haute, plus le nombre de requêtes de priorité inférieure augmente. Ainsi, la probabilité de se faire dépasser par une requête de priorité inférieure augmente. • La probabilité de dépasser qui dépend du mécanisme d’incrémentation et de la priorité initiale. Plus la priorité initiale d’une requête est basse et plus le mécanisme d’incrémentation est rapide, plus elle risque de pénaliser des requêtes de priorité supérieure. Dans les algorithmes bénéficiant du retard de l’incrémentation, le deuxième phénomène devient négligeable. Le premier phénomène explique à lui seul la linéarité entre le nombre d’inversions et la priorité. À l’inverse, dans le cas des autres algorithmes, l’augmentation est rapide et donc non négligeable, on remarque ainsi que : • La vitesse d’augmentation est très rapide pour les faibles priorités (priorités 0 et 1) puisqu’elles ont de grande chance de se faire dépasser par des requêtes de priorité supérieure. Cette augmentation rapide a pour effet de fortement pénaliser les priorités intermédiaires de valeur 3. • Les requêtes de plus hautes priorités (priorités 6 et 7) peuvent être doublées par plus de requêtes mais ces dernières n’augmentent que plus lentement leur priorité (cas pour les priorités 4 et 5) ou sont très éloignées ( cas pour les priorités 0 et 1). Dans ces algorithmes on observe donc un compromis entre les deux phénomènes conduisant à pénaliser d’avantage les priorités intermédiaires. La figure 4.4(e) montre que pour les algorithmes avec retard d’incrémentation, les requêtes pénalisées ne sont doublées en moyenne qu’une seule fois (écart-type faible), tandis qu’elles le sont 5 à 6 fois dans les autres approches. En considérant les figures 4.4(a) et 4.4(b), on peut conclure que les requêtes pénalisées sont moins nombreuses et qu’elles sont doublées par moins de requêtes. Ceci explique les très bons résultats en termes d’inversions globales observées dans la figure 4.3(a). Évaluation de l’impact de la charge Nous présentons maintenant les résultats d’une étude de l’impact de la charge (paramètre ρ) sur les performances des différents algorithmes. Nous avons ainsi renouvelé les expériences avec différentes valeurs de ρ proportionnellement au nombre de processus N : 0.1N, 0.375N, 0.5N, 1N, 3N, 5N, et 10N. Ces valeurs correspondent respectivement environ à 85%, 65%, 55%, 15%, 1%, 0.5% et 0.2% de processus en moyenne en attente de section critique à un instant donné. Pour structurer notre étude nous distinguons trois ensemble de charge : • Charge haute (0, 1N ≤ ρ < 0, 375N ) : une majorité de processus demande la section critique de manière concurrente • Charge intermédiaire (0, 375N ≤ ρ < 3N) : en moyenne la moitié des processus demande la section critique • Charge basse (3N ≤ ρ ≤ 10N) : les requêtes concurrentes sont rares Dans la figure 4.5, nous étudions le nombre de messages par requête, le taux d’utilisation de la section critique et le nombre de violations tandis que dans la figure 4.6, nous approfondissons de nouveau l’analyse des inversions.46 Chapitre 4. Temps d’attente et inversions de priorité dans l’exclusion mutuelle 0 2 4 6 8 10 12 0.1 N 0.375 N 0.5 N 1 N 3 N 5 N 10 N Nombre d’inversions / nombre total de requêtes Charge décroissante Kanrar_Chaki Chang CommOpti CommOpti_retard CommOpti_retard_distance (a) Nombre total d’inversions / nombre total de requêtes 0 2 4 6 8 10 12 0.1 N 0.375 N 0.5 N 1 N 3 N 5 N 10 N Nombre de messages par requête Charge décroissante Kanrar_Chaki Chang CommOpti CommOpti_retard CommOpti_retard_distance (b) Nombre de messages par requête 0 10 20 30 40 50 60 70 80 90 0.1 N 0.375 N 0.5 N 1 N 3 N 5 N 10 N Taux d’utilisation de la ressource (pourcentage) Charge décroissante Kanrar_Chaki Chang CommOpti CommOpti_retard CommOpti_retard_distance (c) Taux d’utilisation de la ressource critique Figure 4.5 – Étude de l’impact de la charge sur le nombre de messages, le taux d’utilisation et le nombre d’inversions4.4. Évaluation du mécanisme de réduction d’inversions 47 Étude globale Nous remarquons sur la figure 4.5(a) que les algorithmes avec mécanisme de retard sont insensibles aux fortes charges : le nombre d’inversions reste très faible quelle que soit la valeur de ρ. En revanche, le nombre d’inversions augmente considérablement pour les autres algorithmes ne bénéficiant pas de ce mécanisme lorsque la charge augmente. En effet, la forte charge accroît le nombre de requêtes concurrentes, ce qui les conduit rapidement à atteindre la priorité maximale. Ces algorithmes ne pouvant plus distinguer les priorités, génèrent donc un grand nombre d’inversions. D’autre part, nous observons sur la figure 4.5(b) que le nombre de messages diminue lorsque la charge augmente quel que soit l’algorithme. Ce phénomène est une conséquence directe de l’algorithme de Raymond à la base des cinq algorithmes : un nœud ne retransmet pas de requête si il est déjà demandeur de la section critique. En cas de forte charge, ce cas est très courant, ce qui réduit naturellement le nombre de retransmissions. Outre ce phénomène global, on peut observer également dans cette figure, le surcoût en messages engendré par le mécanisme de retard, ainsi que le gain apporté par le mécanisme de prise en compte de la topologie (mécanisme "distance"). Il est cependant intéressant de remarquer que l’efficacité du mécanisme "distance" est d’autant plus importante que la charge augmente, l’algorithme devenant plus économe pour une charge de 0, 1N (' 85 %). Ceci est particulièrement intéressant pour des applications présentant des pics de charges. Concernant le taux d’utilisation de la section critique, nous observons dans la figure 4.5(c) que tous les algorithmes ont le même comportement, i.e., pour une valeur de ρ donnée, ils satisfont tous le même nombre de requêtes. Il est important de souligner, que les trois graphiques de la figure 4.5 confirment qu’en cas de faible charge (ρ > 3N), tous les algorithmes se comportent de la même manière car en absence de concurrence la priorité est ignorée. Approfondissement de l’étude sur les inversions (figure 4.6) Nous représentons respectivement dans les figures 4.6(a), 4.6(b), 4.6(c) et 4.6(d), le nombre de requêtes pénalisées, le nombre de requêtes favorisées, le nombre moyen de fois où une requête est pénalisée et le nombre moyen de fois où une requête est favorisée. Dans la figure 4.6(a), nous remarquons, qu’en cas de faible charge (10N), il n’y a aucune requête pénalisée quel que soit l’algorithme. Lorsque la charge commence à augmenter (de 10N à 3N), quelques requêtes pénalisées commencent à apparaître. Avec une charge moyenne (de 3N à 0.5N), nous remarquons que seuls les algorithmes sans mécanisme de retard, augmentent de manière significative le nombre de requêtes pénalisées (jusqu’à 80%) tandis que les algorithmes avec mécanisme de retard continuent d’augmenter très légèrement. Finalement lorsque la charge est forte (ρ < 0, 5N), le pourcentage de requêtes pénalisées augmente légèrement pour atteindre 85% pour les algorithmes sans mécanisme de retard. Ceci représente la proportion des requêtes ayant une priorité initiale strictement supérieure à zéro. En effet, les requêtes avec une priorité initiale de 0 ne peuvent pas être pénalisées. Autrement dit 100% des requêtes pénalisables sont pénalisées. On retrouve le même type de comportement pour les requêtes favorisées (Figure 4.6(b)).48 Chapitre 4. Temps d’attente et inversions de priorité dans l’exclusion mutuelle 0 10 20 30 40 50 60 70 80 90 0.1 N 0.375 N 0.5 N 1 N 3 N 5 N 10 N Pourcentage de requête pénalisées Charge décroissante Kanrar_Chaki Chang CommOpti CommOpti_retard CommOpti_retard_distance (a) Pourcentage de requêtes pénalisées 0 10 20 30 40 50 60 70 80 90 0.1 N 0.375 N 0.5 N 1 N 3 N 5 N 10 N Pourcentage de requête favorisées Charge décroissante Kanrar_Chaki Chang CommOpti CommOpti_retard CommOpti_retard_distance (b) Pourcentage de requêtes favorisées 0 2 4 6 8 10 12 0.1 N 0.375 N 0.5 N 1 N 3 N 5 N 10 N Nombre moyen de requêtes favorisées par requête pénalisée Charge décroissante Kanrar_Chaki Chang CommOpti CommOpti_retard CommOpti_retard_distance (c) Nombre moyen de requêtes favorisées par requête pénalisée 0 2 4 6 8 10 12 0.1 N 0.375 N 0.5 N 1 N 3 N 5 N 10 N Nombre moyen de requêtes pénalisées par requête favorisée Charge décroissante Kanrar_Chaki Chang CommOpti CommOpti_retard CommOpti_retard_distance (d) Nombre moyen de requêtes pénalisées par requête favorisée Figure 4.6 – Impact de la charge sur les requêtes pénalisées et favorisées4.4. Évaluation du mécanisme de réduction d’inversions 49 Pour terminer, nous nous intéressons au nombre moyen de requêtes doublant une requête pénalisée (Figure 4.6(c)). En comparant ces résultats avec la figure 4.6(a), nous remarquons que si le nombre de requêtes pénalisées devient important (40%) pour une charge intermédiaire (1N), elles ne sont doublées en moyenne que deux fois. Une fois passé le seuil de 0, 5N, presque toutes les requêtes pénalisables sont pénalisées, mais le nombre de requêtes les dépassant continue d’augmenter fortement. Ceci explique pourquoi la quantité d’inversions continue d’augmenter en forte charge (entre 0, 5N et 0, 1N) dans la figure 4.5(a). On comprend alors les mauvaises performances en forte charge : toutes les requêtes pénalisables sont doublées environ 10 fois. Les résultats présentés dans cette section ont montré l’impact de la charge sur les performances des algorithmes. On peut donc se demander comment ils s’adapteraient à des changements de charge durant leur exécution. 4.4.3 Résultats en charge dynamique Le but de l’évaluation décrite dans cette section est d’évaluer le comportement des algorithmes lorsque la charge varie dans une même expérience pendant son exécution. Nous voulons ainsi montrer la capacité des algorithmes à s’adapter à la variation de charge. Ainsi nous allons injecter des pics de charge (forte demande) à intervalles réguliers au cours d’une expérience. Nous modélisons ici la charge par le pourcentage de processus qui sont en attente du jeton. Comme dans la section précédente, les processus choisissent de manière uniformément aléatoire une priorité à chaque nouvelle requête. Les figures 4.7(a), 4.7(b),4.7(c), 4.7(d), et 4.7(e) montrent respectivement le nombre d’inversions pour Kanrar-Chaki, Chang, CommOpti, CommOpti_retard et CommOpti_retard_distance. Les figures 4.7 montrent pour tous les algorithmes, le nombre d’inversions de priorités à un intervalle de temps donné de chaque expérience. Un point d’abscisse est un échantillon égal à un intervalle de 50 ms. Dans cette analyse, le temps d’expérience θ est égal à 300 secondes. Les figures 4.7(a), 4.7(b), et 4.7(c) confirment que la quantité d’inversions augmente de manière significative pendant la durée du pic de charge pour les algorithmes sans mé- canisme de retard : pendant le pic de charge, le nombre total d’inversions par requête varie entre une valeur minimum proche de 1 et une valeur maximale au alentour de 25 . Ce résultat est cohérent avec la figure 4.5(a) où nous pouvions observer une absence d’inversion en cas de faible charge puisque le nombre de requêtes augmente plus rapidement que le nombre d’inversions. En revanche, les algorithmes à mécanisme de retard sont insensibles à la variation de charge. Pendant le pic de charge, la quantité d’inversions est bornée par une valeur maximale qui est plus petite que la valeur minimale des autres algorithmes. En conclusion, l’étude en charge dynamique confirme que le mécanisme de retard d’incrémentation s’adapte à la charge en ce qui concerne la quantité d’inversions générées.50 Chapitre 4. Temps d’attente et inversions de priorité dans l’exclusion mutuelle 0 5 10 15 20 25 50 100 150 200 250 300 0 10 20 30 40 50 60 70 80 90 100 Nombre d’inversions / nombre total de requêtes Pourcentage de site en attente du jeton Temps (s) rapport nb_inversions/nb_requetes Charge (a) Kanrar-Chaki 0 5 10 15 20 25 50 100 150 200 250 300 0 10 20 30 40 50 60 70 80 90 100 Nombre d’inversions / nombre total de requêtes Pourcentage de site en attente du jeton Temps (s) rapport nb_inversions/nb_requetes Charge (b) Chang 0 5 10 15 20 25 50 100 150 200 250 300 0 10 20 30 40 50 60 70 80 90 100 Nombre d’inversions / nombre total de requêtes Pourcentage de site en attente du jeton Temps (s) rapport nb_inversions/nb_requetes Charge (c) CommOpti 0 5 10 15 20 25 50 100 150 200 250 300 0 10 20 30 40 50 60 70 80 90 100 Nombre d’inversions / nombre total de requêtes Pourcentage de site en attente du jeton Temps (s) rapport nb_inversions/nb_requetes Charge (d) CommOpti_retard 0 5 10 15 20 25 50 100 150 200 250 300 0 10 20 30 40 50 60 70 80 90 100 Nombre d’inversions / nombre total de requêtes Pourcentage de site en attente du jeton Temps (s) rapport nb_inversions/nb_requetes Charge (e) CommOpti_retard_distance Figure 4.7 – Rapport (nombre total d’inversions / nombre total de requêtes) avec une charge dynamique4.4. Évaluation du mécanisme de réduction d’inversions 51 4.4.4 Étude en charge constante avec priorité constante Dans les sections 4.4.2 et 4.4.3, nous considérions que les priorités étaient choisies de manière aléatoire à chaque nouvelle requête. Cependant, dans beaucoup d’applications, les priorités sont assignées statiquement au processus. Ainsi, contrairement aux précé- dentes expériences, les processus demanderont désormais la section critique avec la même priorité pendant toute la durée de l’exécution de l’application. D’autre part, puisque notre approche se base sur une topologie logique en arbre statique, la position des nœuds a une influence sur les performances. Dans les précédentes expériences, cette influence n’était pas perceptible car les processus changeaient de priorité à chaque nouvelle requête. Le but de cette section est d’étudier le comportement des algorithmes avec différentes distributions des priorités sur l’arbre. Nous notons centre du graphe, l’ensemble des nœuds pour qui l’excentricité est égale au rayon du graphe (excentricité minimale). Par conséquent, les distances maximales entre les nœuds centraux du graphe et les autres nœuds sont les plus petites. Nous définissons alors trois politiques possibles de distribution de priorité : • Aléatoire : les processus sont placés de manière aléatoire dans la topologie (Figure 4.8(a)). • Centre prioritaire : les processus à plus haute priorité sont placés dans le centre du graphe. Ainsi, plus un site est éloigné du centre, plus sa priorité diminue (Figure 4.8(b)). Autrement dit, si nous considérons que la racine initiale de l’arbre est le nœud central alors un nœud a une priorité strictement plus faible que son père initial (sauf pour les nœuds au niveau 1) mais ont une priorité strictement plus forte que leurs fils initiaux (sauf pour le nœud racine initial). Cette distribution possède deux avantages : ∗ le coût en messages des requêtes est moins important. En effet les trajets du jeton sont réduits car il restera la plupart du temps dans la zone centrale, "attiré" par les processus à forte priorité ∗ le nombre d’inversions de priorité est intrinsèquement réduit : lorsque le jeton s’éloigne de la zone centrale du graphe pour satisfaire des requêtes à faible priorité, il est probable que pendant son transfert, il satisfasse les requêtes à priorités intermédiaires dans un ordre décroissant. Ceci induit donc un meilleur respect des priorités. • Centre non-prioritaire : À l’inverse de la distribution "Centre prioritaire", les processus à plus basse priorité sont placés dans le centre du graphe. Ainsi, plus un site s’éloigne du centre, plus sa priorité augmente (Figure 4.8(c)). Les expériences de cette section ont été menées avec une charge constante intermédiaire (ρ = 0.5N). Le nombre de processus N considéré est toujours égal à 32 et le nombre de priorités P toujours égal à 8 : à chaque niveau de priorité il y a 4 processus. Nous nous intéresserons uniquement au temps de réponse. Les résultats sont donnés pour chaque topologie sous forme d’histogrammes (Figure 4.9) et sous forme de tableaux de valeurs (Figure 4.10). En premier lieu, quelle que soit la distribution, on observe globalement le même comportement des algorithmes par rapport aux précédentes expériences de la section 4.4.2 : les algorithmes CommOpti_retard et CommOpti_retard_distance ont de meilleures52 Chapitre 4. Temps d’attente et inversions de priorité dans l’exclusion mutuelle (a) Distribution aléatoire (b) Distribution "centre prioritaire" (c) Distribution "centre nonprioritaire" Figure 4.8 – Schémas des distributions de priorités considérées dans l’arbre performances car les grandes priorités ont un temps de réponse plus faible au détriment des petites priorités. En second lieu cette expérience montre que la topologie a un réel impact sur les performances des algorithmes. En disposant les processus plus prioritaires au centre du graphe (Distribution "centre prioritaire", Figure 4.9(b) et Tableau 4.10(b)), le temps d’attente des moyennes et grandes priorités est réduit pour tous les algorithmes lorsque l’on fait une comparaison avec la distribution aléatoire (Figure 4.9(a) et Tableau 4.10(a)). Ce résultat est tout à fait cohérent puisque dans la disposition "centre prioritaire", les sites centraux, plus prioritaires ont plus de chance d’intercepter le jeton pour entrer en section critique. Les expériences montrent aussi trois autres résultats intéressants : • globalement le gain en temps de réponse des hautes priorités est réduit dans la distribution "centre prioritaire" quelque soit l’algorithme • Le temps de réponse des hautes priorités des algorithmes de Chang et KanrarChaki en distribution "centre prioritaire" (donc favorable aux plus hautes priorités) sont encore très supérieurs à ceux des algorithmes CommOpti_retard et CommOpti_retard_distance en distribution aléatoire. Les requêtes à haute priorité (respectivement à faible priorité) des algorithmes à mécanisme de retard présentent un plus faible temps de réponse (respectivement plus fort) en distribution aléatoire que les autres algorithmes en distribution "centre prioritaire" (distribution qui est normalement favorable aux plus hautes priorités). Cependant, les algorithmes sans mécanisme de retard, ont des meilleures performances dans une distribution "centre prioritaire" que dans une distribution aléatoire. Ceci confirme que le placement de priorité dans la topologie a un impact sur le temps de réponse (voir tableaux 4.10(a) et 4.10(b)). • Quel que soit l’algorithme et quelle que soit la distribution, les écart-types des temps de réponse des requêtes à hautes priorités sont faibles. Cependant la distribution aléatoire augmente les écart-types des petites priorités pour tout les algorithmes. Cette différence peut s’expliquer par le fait que la probabilité qu’une priorité d’une requête augmente est fortement lié à la position du processus dans le graphe : à4.4. Évaluation du mécanisme de réduction d’inversions 53 1 10 100 1000 10000 100000 Kanrar_Chaki Chang CommOpti CommOpti_retard CommOpti_retard_distance Temps de réponse moyen (en ms) prio0 prio1 prio2 prio3 prio4 prio5 prio6 prio7 (a) Distribution aléatoire 1 10 100 1000 10000 100000 Kanrar_Chaki Chang CommOpti CommOpti_retard CommOpti_retard_distance Temps de réponse moyen (en ms) prio0 prio1 prio2 prio3 prio4 prio5 prio6 prio7 (b) Distribution "centre prioritaire" 1 10 100 1000 10000 100000 Kanrar_Chaki Chang CommOpti CommOpti_retard CommOpti_retard_distance Temps de réponse moyen (en ms) prio0 prio1 prio2 prio3 prio4 prio5 prio6 prio7 (c) Distribution "centre non-prioritaire" Figure 4.9 – Temps de réponse moyen en fonction de la distribution des priorités dans l’arbre54 Chapitre 4. Temps d’attente et inversions de priorité dans l’exclusion mutuelle Aléatoire prio0 prio1 prio2 prio3 prio4 prio5 prio6 prio7 _ moy Ec-type moy Ec-type moy Ec-type moy Ec-type moy Ec-type moy Ec-type moy Ec-type moy Ec-type Kanrar_Chaki 250,64 50,61 261,27 56,61 178,62 22,08 162,29 09,17 83,25 18,66 53,14 08,80 35,26 04,84 23,38 01,19 Chang 202,14 29,32 194,14 24,42 153,29 04,57 120,03 14,09 99,40 13,02 68,58 10,63 61,49 19,43 51,18 08,47 CommOpti 312,89 105,34 334,91 102,74 197,40 22,05 193,45 34,42 90,61 26,49 53,29 10,13 33,64 03,91 21,98 00,77 CommOpti_retard 34233,85 12746,94 29158,51 19071,79 12675,00 1871,17 238,27 10,42 41,50 01,56 14,53 00,73 06,93 00,52 03,95 00,12 CommOpti_retard_distance 27194,55 21432,00 26597,70 18229,90 10205,80 5973,76 194,48 69,97 35,05 03,13 12,93 02,54 06,47 00,70 03,83 00,34 (a) Distribution aléatoire Centre prioritaire prio0 prio1 prio2 prio3 prio4 prio5 prio6 prio7 _ moy Ec-type moy Ec-type moy Ec-type moy Ec-type moy Ec-type moy Ec-type moy Ec-type moy Ec-type Kanrar_Chaki 379,09 37,13 281,63 17,56 208,94 17,85 149,36 06,87 93,83 06,41 51,62 01,73 29,97 01,05 19,49 01,93 Chang 221,79 17,36 193,30 02,48 166,10 04,25 138,61 01,70 97,51 16,24 68,19 03,49 49,06 06,18 38,66 02,23 CommOpti 473,59 73,12 326,99 34,75 226,17 28,11 148,14 12,63 86,01 04,44 45,89 02,19 24,89 00,83 14,69 01,58 CommOpti_retard 45528,14 9531,29 39304,08 9208,16 11007,86 1920,55 190,47 36,32 35,24 01,70 12,70 00,26 06,37 00,16 03,65 00,13 CommOpti_retard_distance 42140,91 12315,02 38438,71 5899,04 7891,51 2848,17 191,07 29,20 34,99 02,69 12,54 00,33 06,32 00,30 03,52 00,44 (b) Distribution "centre prioritaire" Centre non prioritaire prio0 prio1 prio2 prio3 prio4 prio5 prio6 prio7 _ moy Ec-type moy Ec-type moy Ec-type moy Ec-type moy Ec-type moy Ec-type moy Ec-type moy Ec-type Kanrar_Chaki 144,21 21,85 143,93 18,13 176,29 18,16 118,65 05,10 126,79 17,46 82,35 14,55 39,63 00,25 33,18 02,12 Chang 108,58 21,64 143,00 24,33 158,06 07,05 145,92 10,33 108,09 03,88 84,04 06,10 72,31 05,24 60,53 01,61 CommOpti 153,41 22,41 152,98 28,77 195,29 21,10 131,80 22,92 141,68 17,07 90,65 15,76 39,42 00,18 31,66 01,99 CommOpti_retard 7963,77 1815,43 8946,36 3387,89 12166,91 1638,32 312,45 62,72 42,74 05,21 14,33 00,75 06,81 00,27 04,07 00,06 CommOpti_retard_distance 7326,17 1582,07 7820,12 2334,06 10075,06 1079,55 221,74 73,01 33,55 03,79 12,86 01,29 06,48 00,29 03,84 00,17 (c) Distribution "centre nonprioritaire" Figure 4.10 – Temps de réponse moyen en fonction de la distribution des priorités dans l’arbre (tableau des valeurs)4.5. Réduction du temps d’attente 55 l’inverse des sites en bordure de graphe, les sites centraux ont plus de chance de recevoir des requêtes et donc plus de chance d’augmenter en priorité. Contrairement aux distributions aléatoires et "centre prioritaire", la distribution "centre non-prioritaire" groupant les processus à petite priorité dans le centre du graphe, dégrade les performances des algorithmes (figure 4.9(c)). Nous pouvons observer une inversion dans le temps de réponse : les priorités 1 et 2 ont un temps de réponse plus important que les priorités 0. Ce comportement illustre de nouveau l’impact du placement des priorités sur les performances de l’algorithme. Il existe un compromis entre la priorité et la place du processus dans le graphe : les petites (respectivement les hautes) priorités comme 0 et 1 (respectivement 6 et 7) sont favorisées (respectivement pénalisées) par leur position centrale (respectivement en bordure) mais sont pénalisées (respectivement favorisées) par leur valeur de priorité. D’autre part, les requêtes de priorité intermédiaire (2 et 3) ne pro- fitent ni de la position centrale ni de leur valeur de priorité. Par conséquent, ces dernières ne sont pas du tout favorisées, ce qui explique qu’elles présentent le pire temps de réponse dans la distribution "centre non-prioritaire" . En conclusion, lorsque les priorités sont directement associées aux processus, leur place dans l’arbre a un impact sur le temps de réponse des requêtes. 4.4.5 Synthèse de l’évaluation Nous avons comparé notre mécanisme avec les algorithmes de Chang et de KanrarChaki dans deux configurations. Dans la première configuration où les processus pouvaient changer de priorité à chaque nouvelle requête, nous avons pu constater que le retard de l’incrémentation permettait un meilleur respect de l’ordre des priorités et que la prise en compte de la localité des requêtes était utile pour réduire le surcoût en nombre de messages générés par ce mécanisme. Ce résultat restait valable aussi bien en faible charge qu’en forte charge. Dans la seconde configuration où les processus avaient une priorité qui leur était associée statiquement, nous avons pu constater l’impact de la topologie sur le temps de réponse. Si les processus à faible priorité se situent dans la partie centrale du graphe, alors les requêtes les plus pénalisées sont les requêtes à priorité intermédiaire. À l’inverse, si les processus à faible priorité se trouvent en bordure de graphe, nous avons constaté qu’entre deux priorités successives, le temps d’attente de la priorité supérieure était moins important. Ceci implique donc un meilleur respect de priorités. 4.5 Réduction du temps d’attente Les évaluations de performances de la section 4.4 ont montré que le mécanisme de retard d’incrémentation de priorité permettait de réduire de manière conséquente le nombre d’inversions. Cependant elle a aussi montré que le temps d’attente augmentait significativement. Cette section a pour objectif d’introduire un mécanisme améliorant l’équité de l’algorithme tout en conservant un bon respect des priorités.56 Chapitre 4. Temps d’attente et inversions de priorité dans l’exclusion mutuelle 4.5.1 Un équilibre sur deux objectifs contradictoires Vouloir minimiser le nombre d’inversions et le temps d’attente des requêtes à faible priorité sont deux objectifs contradictoires : d’une part, si il n’y a pas d’inversion de priorité alors le temps de réponse des requêtes à faible priorité peut être infini (cas des algorithmes à priorités statiques), d’autre part, une réduction du temps de réponse des requêtes à faible priorité implique un grand nombre d’inversions : les requêtes moins prioritaires doublent celles plus prioritaires (cas de l’algorithme de Chang et de KanrarChaki). Par conséquent, il faut trouver un équilibre entre ces deux objectifs contradictoires. À notre niveau il n’est pas possible de connaître le point d’équilibre car celui-ci dépend des besoins de l’application qui utilise l’algorithme de verrouillage. Il est en revanche possible de fournir des mécanismes permettant d’ajuster ce compromis. Dans notre cas, pour une charge donnée, le réglage entre le temps de réponse et le nombre d’inversions peut se faire grâce à deux paramètres fixés par l’utilisateur : • la fonction de palier F : permet de définir la vitesse d’incrémentation des priorités. Plus cette fonction est croissante plus l’incrémentation sera retardée impliquant une réduction du nombre d’inversions au détriment du temps de réponse et vice versa. • le placement des processus dans la topologie : la section 4.4.4 a montré que la place des processus dans la topologie logique a un impact sur les performances : si les nœuds placés au centre du graphe sont les plus prioritaires (e.g distribution "centre prioritaire") alors le nombre d’inversions diminue naturellement mais le temps d’attente des petites priorités est plus important. Cependant, cette dépendance à la topologie, et de facto du nombre de processus, apporte une forte dépendance entre les besoins de l’application et le système. 4.5.2 Principes de l’algorithme Awareness Comme nous venons de le voir, les performances de algorithme "retard-distance" peuvent être affectées par la topologie. En effet si la distribution choisie par l’utilisateur est de type "centre prioritaire" (choix motivé par une meilleure performance en termes de complexité en messages par exemple) et si nous considérons un plus grand nombre de processus, il est possible lorsque la charge devient suffisamment haute que les temps d’attente des requêtes à faible priorité deviennent énormes et inacceptables pour une application. En cas de forte charge, le jeton restera la plupart du temps dans la région centrale du graphe. En effet dans l’algorithme "retard-distance", un processus n’incrémente les priorités de sa file locale qu’à à la réception d’une requête de plus forte priorité provenant de son sous-arbre. Or, dans la topologie "centre prioritaire", le sous arbre d’un processus si est la plupart du temps composé de processus de priorités inférieures. Les priorités des requêtes dans la file locale de si ne seront donc incrémentées qu’aux très rares réceptions du jeton contenant probablement une requête de plus forte priorité. Par conséquent, la distribution des priorités peut amener l’algorithme à pénaliser énormément les faibles priorités. Pour mieux comprendre le problème il faut raisonner en termes de connaissance. Dans l’algorithme "retard-distance", un processus ne connaît que les requêtes émises dans son sous-arbre courant et ignore toutes les requêtes émises dans le reste du système. Un4.5. Réduction du temps d’attente 57 tel manque de connaissance limite l’efficacité de prise de décision. Notre allons donc modifier notre algorithme en lui ajoutant un mécanisme assurant que chaque processus connaisse à terme le nombre total de requêtes émises pour chaque niveau de priorité. Il sera alors possible d’incrémenter les priorités en prenant en compte celles qui proviennent du sous-arbre mais aussi celles qui proviennent du reste du système. Les requêtes émises dans la zone centrale du graphe pourront être comptabilisées par les processus en bordure de graphe (de faible priorité). Ces derniers ne seront donc plus pénalisés par leur position dans le graphe. Ce mécanisme a fait l’objet de la contribution [ICPP13] avec l’algorithme Awareness 1 qui étend l’algorithme de "retard-distance". La figure 4.11 illustre les différences entre les algorithmes de "Kanrar-Chaki", "retard-distance", et "Awareness", dans une topologie "centre prioritaire". Cet exemple montre le nombre de requêtes de priorité initial p nécessaires pour atteindre la configuration 2 à partir de la configuration 1. Dans la confi- guration 1 le jeton est utilisé en zone de priorité p (le centre du graphe) et les processus s1 et s2 attendent le jeton pour entrer en section critique. Dans la configuration 2, s2 détient le jeton et la priorité de s1 dans la file locale de s2 a été incrémentée. Cette exemple montre qu’il y a une différence de facteur F(p) entre les algorithmes "retard-distance" et "Awareness". La figure 4.12 résume pour chaque algorithme un ordre de grandeur en termes de nombre de requêtes nécessaires émises de priorité p pour qu’une requête de priorité initiale p 0 ≤ p reçoive le jeton. 4.5.3 Description de l’algorithme Awareness Cette section présente l’algorithme "Awareness" qui étend l’algorithme "retard-distance" (voir section 4.3). Le but de cet algorithme est de faire en sorte qu’un nœud puisse considé- rer l’ensemble des requêtes pendantes du système pour incrémenter la priorité des requêtes enregistrées dans la file locale. Le mécanisme de distance reste inchangé mais le mécanisme de retard de d’incrémentation présente des différences notables. Pour propager la connaissance de l’ensemble des requêtes dans le système, nous utilisons le jeton. Ainsi, un vecteur V tok de P entrées (une entrée par priorité) est inclus dans le jeton. Chaque entrée p de ce vecteur est à terme égal au nombre total de requêtes émises de priorité p. Le pseudo code de l’algorithme "Awareness" est donné figure 4.13. Variables locales et messages Chaque site si maintient les variables suivantes : • les variables communes à l’algorithme "retard-distance" (voir section 4.3.1) : ∗ state : indique l’état du processus ∗ f ather : l’identifiant du site voisin sur le chemin menant au processus qui détient le jeton (processus racine). ∗ Q : la file locale de requêtes pendantes reçues par le site. La définition d’un élément de la file et la politique de tri restent inchangées. • les variables supplémentaires : 1. le nom de cet algorithme a été inspiré d’un dicton d’un célèbre philosophe contemporain : "Être aware c’est être conscient de tout ce qui se trouve autour de nous, à l’intérieur et entre nous." JCVD58 Chapitre 4. Temps d’attente et inversions de priorité dans l’exclusion mutuelle Figure 4.11 – Différence de comportement entre les différents algorithmes Algorithme ordre de Kanrar-Chaki p − p 0 "Retard-distance" X p i=p 0+1 Y p j=i F(j)  Awareness (p − p 0 )F(p) Figure 4.12 – Ordre de grandeur en nombre d’émissions de requêtes de priorité p, pour acheminer le jeton en zone de priorité p 0 < p4.5. Réduction du temps d’attente 59 Local variables :1 begin2 3 father : site ∈ Π or nil; 4 state ∈ {tranquil, requesting, inCS}; 5 Q : queue of tuple (s, p, l, d) ∈ Π × (P ∪ {pmax + 1}) × IN × IN ; 6 last_token : Vector of P integers ; 7 pending : Vector of P integers ; end8 U pdateLocalQueue(V : Vector of P integers)9 begin10 11 (shead, phead, lhead, dhead) ← head(Q); 12 for priority pk from pmin + 1 to pmax do for n from 1 to V [pi] do13 foreach (s, p, l, d) in Q do14 15 if pk > p or (pk = p and pk = phead) then 16 l ← l + 1; if l = F(p + 1) then17 18 p ← p + 1; 19 l ← 0; 20 reorder (Q) ; end21 Request_CS(p ∈ P)22 begin23 24 state ← requesting; if father 6= nil then25 26 add (self, p, 0, 0) in Q ; 27 if (self, p, 0, 0) = head(Q) then 28 Send Request(p,1) to father; 29 else 30 pending[p] ← pending[p] + 1; 31 wait(father = nil); else32 33 pending[p] ← pending[p] + 1; 34 state ← inCS; 35 /* CRITICAL SECTION */ end36 Release_CS()37 begin38 39 state ← tranquil; 40 UpdateLocalqueue(pending); 41 last_token ← last_token + pending ; 42 pending[i] ← 0 ∀i ∈ [1, P]; 43 if Q 6= ∅ then 44 (snext, pnext, lnext, dnext) ← dequeue(Q); 45 (shead, phead, lhead, dhead) ← head(Q); Send Token 46 min(phead, pmax),dhead + 1, last_token to snext; 47 father ← snext; end48 Initialization49 begin50 51 father ← according to the initial topology; 52 Q ← ∅; 53 state ← tranquil; 54 last_token[i] ← 0 ∀i ∈ [1, P]; 55 pending[i] ← 0 ∀i ∈ [1, P]; end56 57 Receive_Request(pj ∈ P, dj ∈ IN) from sj begin58 if father = nil and state = tranquil then59 60 last_token[pj ] ← last_token[pj ] + 1; 61 Send Token(∅,∅,last_token) to sj ; 62 father ← sj ; 63 else if sj 6= father then 64 (sold, pold, lold, dold) ← head(Q); if ∃(s, p, l, d) ∈ Q, s = sj then65 if p ≤ pj then66 67 p ← pj ; 68 d ← dj ; 69 l ← 0; 70 reorder(Q) ; else71 72 addqueue(< sj , pj , 0, dj >,Q) ; if (sold, pold, lold, dold) 6= head(Q) then73 if father 6= nil then74 75 Send Request(pj , dj + 1) to father; else76 77 pending[pj ] ← pending[pj ] + 1; else78 79 pending[pj ] ← pending[pj ] + 1; end80 81 Receive_Token(pj ∈ P, dj ∈ IN, V tok) from sj begin82 83 father ← nil ; 84 (snext, pnext, lnext, dnext) ← dequeue(Q); 85 V tok ← V tok + pending; 86 UpdateLocalqueue(V tok − last_token); 87 last_token ← V tok; 88 pending[i] ← 0 ∀i ∈ [1, P]; 89 if pj 6= nil then 90 add (sj , pj , 0, dj ) in Q; if snext = self then91 92 notify(father = nil); else93 94 (shead, phead, lhead, dhead) ← head(Q); Send Token min(phead, pmax),dhead + 1 95 to snext; 96 father ← snext; end97 Figure 4.13 – Algorithme Awareness60 Chapitre 4. Temps d’attente et inversions de priorité dans l’exclusion mutuelle ∗ pending (vecteur de P entiers) : pending[pj ] correspond au nombre de requêtes de priorité pj qui n’ont pas encore été prises en compte pour incrémenter les priorités. Ce vecteur est utilisé pour compter le nombre global de requêtes en attente connues par si depuis la dernière fois où il a, soit libéré la section critique, soit reçu le jeton. Parmi l’ensemble des vecteurs pending du système, une requête est comptabilisée exactement une seule fois. ∗ last_token (vecteur de P entiers) : l’image du dernier vecteur du jeton V tok connue par si . Les deux types de message de cet algorithme sont toujours les messages de requête et de jeton incluant respectivement les informations suivantes : • request (< p, d >) : p est la priorité courante de la requête ; d est la distance séparant le nœud initiateur de la requête et le nœud destinataire du message. • token (< p, d, V tok >) : p est la priorité courante de la requête incluse dans le jeton (valeur nil si aucune requête) ; d est la distance séparant le nœud initiateur de la requête et le destinataire du message de jeton ; V tok est un vecteur de compteurs du nombre global de requêtes émises. Les fonctions add(s, p, l, d), dequeue(Q), head(Q) et reorder(Q) qui manipulent la file Q restent inchangées. Description de l’algorithme En appelant la procédure Request_CS (ligne 22), s’il ne possède pas le jeton, si ajoute sa requête dans sa file locale (ligne 26). Si la requête est la tête de file (donc la plus prioritaire localement), si envoie un message de requête au site père (ligne 28). D’autre part, si si ne retransmet pas la requête (lignes 30 et 33), il enregistre la requête en incrémentant l’entrée correspondante du vecteur pending. Enfin si si possède le jeton, il entre directement en section critique (ligne 34). En sortant de la section critique, la procédure Release_CS (ligne 37) met à jour la priorité des requêtes dans la file locale de si en appelant la fonction UpdateLocalQueue décrite ci-après. Elle actualise le vecteur du jeton en ajoutant le nombre de requêtes pendantes de chaque priorité (ligne 41) et remet à zéro les compteurs du vecteur pending (ligne 42). Si la file locale n’est pas vide, si envoie le jeton à snext, le nœud en tête de file (ligne 46) et efface cette requête de la file (ligne 44). Si après la suppression de cette requête, la file demeure non vide, le processus inclut dans le jeton la première requête de la file. La variable f ather pointe désormais sur snext (ligne 47). À la réception d’une requête provenant d’un site sj (ligne 57), si le nœud courant est le nœud racine mais n’est pas en section critique, le compteur correspondant du vecteur du jeton est incrémenté. Le jeton est ensuite renvoyé (ligne 61) vers sj et la variable f ather pointe désormais sur sj . D’autre part, si le nœud courant n’est pas le site racine ou n’est pas en section critique, la nouvelle requête est enregistrée dans la file locale Q s’il n’existe pas de requête en provenance de sj dans Q (ligne 72). Si au contraire, il existe une requête en provenance de sj dans Q, la requête concernée est mise à jour en actualisant les valeurs de priorité et de distance reçues (lignes 65 à 66). La requête est ensuite retransmise au père si il n’est pas la racine et si la tête de file a changé (ligne 74) ; sinon, la requête est comptabilisée dans le vecteur pending (ligne 77). Contrairement à l’algorithme "retard-4.6. Évaluation des performances de l’algorithme Awareness 61 distance", on peut remarquer que l’incrémentation des priorités ne se fait plus au moment où le site reçoit la requête. La ligne 79 permet de comptabiliser tout de même la requête si le message de requête provenant de sj a croisé le message de jeton que le processus courant a déjà envoyé en direction de sj . Si cette comptabilisation n’était pas faite alors la requête correspondante n’aurait jamais été prise en compte. De manière similaire à la procédure Release_CS, lorsqu’un site si reçoit le jeton (ligne 81), il ajoute le vecteur pending au vecteur V tok du jeton (ligne 85). La file locale est alors mise à jour par l’appel à la fonction UpdateLocalQueue (line 86) dont le paramètre est la différence entre la nouvelle valeur de V tok et l’ancienne valeur de V tok contenue dans last_token. Cette différence représente pour si les requêtes qui n’ont pas encore été prises en compte pour incrémenter les priorités des requêtes de la file locale. La variable last_token est alors mise à jour et le vecteur pending remis à zéro. Si une requête est incluse dans le jeton (pj 6= nil), si inclut cette requête dans la file locale (ligne 90). Si sa propre requête est la tête de file (c’est à dire la requête à la plus forte priorité), le processus peut alors entrer en section critique (ligne 73). Sinon le jeton est retransmis au processus en tête de file locale (ligne 95). La variable f ather pointe désormais vers le destinataire du jeton (ligne 96). Mise à jour de la file locale (fonction UpdateLocalQueue) Comme mentionné précédemment, un site met à jour les priorités des requêtes enregistrées dans sa file locale en appelant la fonction UpdateLocalQueue (ligne 9) à chaque fois qu’il reçoit le jeton ou qu’il libère la section critique. Pour chaque priorité pi du vecteur paramètre V , la fonction incrémente de un le niveau de retard l de chaque requête req de la file locale qui possède une priorité inférieure à pk (ligne 15). Similairement à l’algorithme "retard-distance", à chaque fois que la valeur de ce niveau atteint F(pk + 1), la priorité de req est incrémentée et le niveau de retard remis à zéro. La première condition du test de la ligne 15 empêche la priorité de req d’être supérieure à la variable de boucle pk variant de pmin+1 à pmax. La seconde condition du test permet de résoudre le problème de famine induit par le mécanisme de prise en compte de la topologie (voir section 4.3.4). Comme dans l’algorithme "retard-distance", une priorité d’une requête peut être localement incrémentée au dessus de la priorité maximale de la file locale (bornée par pmax, la priorité maximale du système) et ainsi à terme préempter les processus de même priorité de distance plus petite. 4.6 Évaluation des performances de l’algorithme Awareness Nous comparons dans cette section, l’algorithme Awareness avec les algorithmes de Kanrar-Chaki, Chang et "retard-distance".62 Chapitre 4. Temps d’attente et inversions de priorité dans l’exclusion mutuelle 4.6.1 Protocole d’évaluation Les expériences ont été menées sur la même plate-forme que les expériences de la section 4.4. Les paramètres d’expérience sont à grande majorité les mêmes que la section 4.4 sauf pour : • N : le nombre de processus est désormais de 64. On peut ainsi étudier le comportement des différents algorithmes avec un nombre plus important de processus. • α : temps d’exécution d’une section critique est maintenant égal à 2,5 ms. • γ : le temps d’acheminement d’un message entre deux processus voisins maintenant égal à 2,5 ms. Ceci nous permet de constater le comportement des algorithmes lorsque la latence réseau n’est pas négligeable par rapport à α. La topologie considérée est de type "centre prioritaire" (voir section 4.4.4) dans un arbre binaire complet. Ceci implique donc que désormais le nombre de priorités considérées est de 6 (Log2(64)). Nous considérons deux valeurs de charge : haute (ρ = 0, 1N) et intermédiaire (ρ = 0, 5N). 4.6.2 Résultats pour une fonction de palier donnée Dans cette section, nous considérons la même fonction de palier que la section 4.4.4 à savoir F(p) = 2p+c avec c = 6. Nous étudions également les mêmes métriques. La figure 4.14 montre pour deux valeurs de charge considérées (moyenne charge à gauche et forte charge à droite) les résultats concernant ces métriques. Temps de réponse moyen Dans les figures 4.14(b) et 4.14(a), nous pouvons observer le même comportement que dans la section 4.4.4 pour les algorithmes de Chang et de Kanrar-Chaki. Cependant l’algorithme "retard-distance" diffère car nous pouvons observer que les petites priorités (0,1 et 2 pour ρ = 0, 5N et priorité 0 ρ = 0, 1N) ont un temps de réponse supérieur à la durée d’expérimentation. L’algorithme "retard-distance" pénalise trop les petites priorités. Nous nommerons un tel temps d’attente une "pseudo-famine". En effet, la famine réelle ne peut en théorie jamais arriver mais les requêtes à faibles priorités sont satisfaites après un très long temps d’attente. L’algorithme "retard-distance" ne passe donc pas à l’échelle en termes de temps d’attente à charge haute et moyenne dans la configuration "centre prioritaire". Nous pouvons remarquer que sur l’ensemble des algorithmes, le temps de réponse des priorités faibles et intermédiaires est globalement plus haut en forte charge qu’en charge intermédiaire. En effet en charge intermédiaire, les priorités faibles et intermédiaires ont plus de chances d’être satisfaites puisque la fréquence des requêtes à hautes priorités est moins importante qu’en forte charge. En comparant les algorithmes "retard-distance" et "Awareness", nous observons que les hautes priorités (4 et 5) présentent presque le même temps de réponse dans les deux algorithmes. D’autre part, les priorités intermédiaires (2 et 3) sont plus pénalisées dans l’algorithme "Awareness" que dans l’algorithme "retarddistance" tandis que les petites priorités (0 et 1) sont beaucoup moins pénalisées dans l’algorithme "Awareness".4.6. Évaluation des performances de l’algorithme Awareness 63 4 8 16 32 64 128 256 512 1024 2048 4096 8192 16384 32768 >= 65536 Kanrar_Chaki Chang RetardDistance Awareness Temps d’atente moyen (en ms) prio0 prio1 prio2 prio3 prio4 prio5 (a) Temps d’attente moyen par priorité ρ = 0.5N 4 8 16 32 64 128 256 512 1024 2048 4096 8192 16384 32768 >= 65536 Kanrar_Chaki Chang RetardDistance Awareness Temps d’atente moyen (en ms) prio0 prio1 prio2 prio3 prio4 prio5 (b) Temps d’attente moyen par priorité ρ = 0.1N 0 2 4 6 8 10 12 14 16 Kanrar_Chaki Chang RetardDistance Awareness Nombre total d’inversions / nombre total de requêtes (c) Nombre total d’inversions / nombre total de requêtes ρ = 0.5N 0 2 4 6 8 10 12 14 16 Kanrar_Chaki Chang RetardDistance Awareness Nombre total d’inversions / nombre total de requêtes (d) Nombre total d’inversions / nombre total de requêtes ρ = 0.1N 0 1 2 3 4 5 6 7 Kanrar_Chaki Chang RetardDistance Awareness Nombre de messages par requête REQUEST TOKEN (e) Nombre de messages par requête ρ = 0.5N 0 1 2 3 4 5 6 7 Kanrar_Chaki Chang RetardDistance Awareness Nombre de messages par requête REQUEST TOKEN (f) Nombre de messages par requête ρ = 0.1N 0 5 10 15 20 25 30 35 40 Taux d’utilisation de la ressource (pourcentage) Kanrar_Chaki Chang RetardDistance Awareness (g) Taux d’utilisation de la ressource critique ρ = 0.5N 0 5 10 15 20 25 30 35 40 Taux d’utilisation de la ressource (pourcentage) Kanrar_Chaki Chang RetardDistance Awareness (h) Taux d’utilisation de la ressource critique ρ = 0.1N Figure 4.14 – Performances de l’algorithme "Awareness" en charge moyenne (ρ = 0.5N) et en charge haute (ρ = 0.1N)64 Chapitre 4. Temps d’attente et inversions de priorité dans l’exclusion mutuelle Inversions de priorités Les figures 4.14(d) et 4.14(c) montrent une grande différence entre nos algorithmes et les algorithmes de Chang et Kanrar-Chaki en termes de quantité d’inversions de priorité. Cet écart est dû au mécanisme de retard d’incrémentation. On remarque cependant un lé- ger surcoût pour l’algorithme "Awareness" par rapport à l’algorithme "retard-distance". Ceci est cohérent car l’algorithme "Awareness" favorise plus facilement les requêtes de faibles priorités. Lorsque la charge diminue (Figure 4.14(c)), le nombre d’inversions de priorités diminue pour les algorithmes de Chang et Kanrar-Chaki. Cette réduction s’explique par la réduction du nombre de requêtes diminue également impliquant potentiellement moins d’inversions. On observe l’inverse pour l’algorithme "Awareness" : la quantité d’inversions par requête augmente. Lorsque la charge est moins importante, la probabilité que le jeton s’éloigne du centre est plus importante car le débit d’entrée de requêtes de forte priorité diminue. Comme la latence réseau (paramètre γ) n’est pas négligeable par rapport au temps de section critique α le temps pour qu’une requête à forte priorité atteigne le porteur du jeton est accru. Pendant ce transfert, des requêtes de priorités plus faible, proche du jeton, peuvent alors être satisfaites. Nombre de messages par requête Les figures 4.14(f) et 4.14(e) montrent que pour tous les algorithmes, le nombre total de messages par requête est plus important en charge intermédiaire qu’en haute charge. Analysons en premier lieu les messages de requête. Dans la configuration "centre prioritaire", une réception de requête sur un site si concerne une requête qui a très probablement une priorité inférieure à la priorité de si (les fils d’un processus sont la plupart du temps des processus en zone moins prioritaire). Par conséquent en cas de forte charge, les requêtes ont moins de chances d’être retransmises dans la zone supérieure de l’arbre puisque les algorithmes ne retransmettent une requête que les requêtes de plus haute priorité. Ainsi le nombre de messages de requête est réduit en forte charge. Analysons maintenant les messages contenant le jeton. Le transfert du jeton depuis une zone de l’arbre de priorité p vers une zone de priorité inférieure à p a lieu dans deux cas : (1) soit il n’y a plus de requête pendante dans la zone de priorité p (2) soit il existe au moins une requête de priorité inférieure à p qui a été incrémentée dans la zone de priorité p et qui est devenue égale à p. En cas de forte charge, le jeton a beaucoup moins de chances de quitter la zone de haute priorité pour aller dans une zone de priorité inférieure à cause du second cas. Le jeton voyage principalement dans le centre du graphe (les zones les plus prioritaires). En charge intermédiaire, le premier cas peut se produire plus fréquemment (absence de requête pendante) ce qui implique que le jeton peut plus facilement quitter le centre du graphe. La conséquence directe est une augmentation du nombre de messages de jeton. Si nous considérons les deux types de messages, en cas de forte charge, les algorithmes "Retarddistance", "Awareness" et Chang présentent un nombre de messages moins important que l’algorithme de Kanrar-Chaki ceci grâce à la possibilité d’inclure le jeton dans une requête tel que cela a été proposé par Chang (voir section 4.3.2). D’autre part, les algo-4.6. Évaluation des performances de l’algorithme Awareness 65 rithmes "Retard-distance" et "Awareness" présentent un nombre de messages inférieur à l’algorithme de Chang grâce à : • l’exploitation de la localité des requêtes (voir section 4.3.4), • un meilleur respect des priorités ; dans l’algorithme Chang, les processus atteignent rapidement la priorité maximale induisant plus de transferts de jeton dans la topologie. En comparant les deux figures 4.14(e) et 4.14(f), en cas de charge moyenne, les algorithmes "Retard-distance" et "Awareness" présentent une augmentation en messages d’environ 50% tandis que les algorithmes de Chang et Kanrar-Chaki ont une augmentation de seulement 5%. Nous avons remarqué que la diminution de la charge induit une augmentation du nombre de messages. Nous pouvons alors souligner que cette baisse de charge a un impact plus important sur les algorithmes "Retard-distance" et "Awareness" que les algorithmes de Chang et Kanrar-Chaki. Taux d’utilisation de la ressource Puisque le paramètre de latence réseau est comparable au temps de section critique (γ ' α), la valeur maximum théorique du taux d’utilisation est de 50 % . Ainsi, dans le meilleur des cas (chaque réception de jeton implique le début d’une section critique), le jeton passe au moins autant de temps dans le réseau qu’à être utilisé. De manière générale, les algorithmes de Chang et Kanrar-Chaki sont moins efficaces en cas de forte charge et plus particulièrement pour l’algorithme de Chang. Ce comportement est une conséquence directe de son nombre important d’inversions de priorités : les processus atteignent rapidement la priorité maximale impliquant que le jeton a plus de chance de voyager sur des plus longues distances entre deux sections critiques, ce qui dégrade le taux d’utilisation de la ressource lorsque la latence réseau n’est pas négligeable par rapport au temps d’exécution de la section critique. Synthèse Le mécanisme de retard d’incrémentation de priorité et le mécanisme permettant à tout site de connaître l’ensemble des requêtes émises réduisent de manière importante le nombre d’inversions de priorités (jusqu’à 10 fois en cas de moyenne charge et 15 fois en cas de forte charge). Ces mécanismes n’induisent pas de surcoût en messages lorsqu’on les compare à l’algorithme de Chang. De plus, l’algorithme de Chang est moins efficace en termes de taux d’utilisation de la ressource. Enfin notre algorithme "Awareness" réduit de manière significative le temps de réponse des requêtes à faible priorité tout en gardant une faible quantité d’inversions. De plus il ne dégrade ni la complexité en message ni le taux d’utilisation lorsqu’on le compare à l’algorithme "retard-distance" 4.6.3 Impact de la fonction de palier sur les inversions et le temps de réponse Dans cette section, nous évaluons l’impact de la fonction de palier sur les quatre algorithmes précédemment considérés. Nous définissons donc cinq familles de fonction de66 Chapitre 4. Temps d’attente et inversions de priorité dans l’exclusion mutuelle palier ; • constante : Fc(p) = c • linéaire : Fc(p) = p ∗ c • polynomiale : Fc(p) = p c • exponentielle : Fc(p) = c p • puissance de deux : Fc(p) = 2p+c (famille considérée jusqu’à présent avec c = 6) Pour une valeur de charge donnée et une constante c donnée, nous avons mesuré le nombre d’inversions et le temps de réponse maximum. En faisant varier la constante c entre chaque expérience, nous étudions le comportement des algorithmes "retard-distance" et "Awareness" pour différentes fonctions. La figure 4.15 montre cette étude pour une charge haute et intermédiaire. Chaque sous-figure montre l’impact sur les algorithmes d’une famille de fonction pour une charge donnée. Les coordonnées d’un point correspond aux métriques suivantes : l’axe des abscisses représente le rapport du nombre d’inversions sur le nombre de requêtes et l’axe des ordonnées représente le temps de réponse maximum toute priorité confondue. Ainsi pour un rapport inversions/requêtes donné, nous pouvons comparer le temps de réponse maximum entre les différents algorithmes. L’objectif de la fonction de palier est de trouver un point qui est le plus proche de l’origine des deux axes (coin inférieur gauche). Nous observons pour les algorithmes "retard-distance" et "Awareness" différentes valeurs d’inversion. Cependant pour une valeur donnée de la constante c, l’intervalle de valeurs pour les deux courbes ne sont pas les mêmes, impliquant une comparaison difficile. Nous avons aussi inclus dans les sous-figures, les algorithmes de Chang et de Kanrar-Chaki afin d’être exhaustif dans la comparaison. Ces deux algorithmes sont représentés par un point puisqu’ils n’utilisent pas de fonction de palier. Par conséquent, ces points sont les mêmes pour chaque sous-figure d’une charge donnée. Dans l’ensemble, on peut observer que pour une charge quelconque et une fonction de palier quelconque, l’algorithme "Awareness" a un temps de réponse moins important que l’algorithme "retard-distance" (au moins 2 fois moins). Il est intéressant de noter que pour une charge donnée, toutes les courbes de l’algorithme "Awareness" sont presque similaires, indépendamment de la famille de fonction. En fait, son mécanisme de connaissance globale permet de réduire l’incidence du choix de la famille de fonction de palier. Enfin, sur l’algorithme "Awareness", pour une fonction de palier donnée, on peut remarquer qu’en charge intermédiaire la pente de la courbe est légèrement plus importante qu’en charge haute ( entre les valeurs 2 et 4 de l’abscisse, on constate une pente plus importante en charge intermédiaire). Ceci illustre l’influence de la charge sur l’effet de la fonction de palier. Plus la charge est haute, plus le nombre de requêtes de haute priorité sera grand et donc plus l’indice de retard augmentera rapidement. Par conséquent la dégradation du temps de réponse est moins rapide en forte charge. 4.7 Conclusion Dans ce chapitre nous avons présenté des mécanismes permettant de construire un nouvel algorithme d’exclusion mutuelle à priorité. L’algorithme final "Awareness" remplit les objectifs définis en section 4.1, à savoir :4.7. Conclusion 67 0.25 0.50 1 2 4 8 16 32 64 128 >= 240 0 2 4 6 8 10 12 14 16 18 Temps d’atente maximum (s) Nombre d’inversions / nombre total de requêtes Awareness Chang Kanrar_Chaki RetardDistance (a) Fc(p) = c et ρ = 0.5N 0.25 0.50 1 2 4 8 16 32 64 128 >= 240 0 2 4 6 8 10 12 14 16 18 Temps d’atente maximum (s) Nombre d’inversions / nombre total de requêtes Awareness Chang Kanrar_Chaki RetardDistance (b) Fc(p) = c et ρ = 0.1N 0.25 0.50 1 2 4 8 16 32 64 128 >= 240 0 2 4 6 8 10 12 14 16 18 Temps d’atente maximum (s) Nombre d’inversions / nombre total de requêtes Awareness Chang Kanrar_Chaki RetardDistance (c) Fc(p) = p ∗ c et ρ = 0.5N 0.25 0.50 1 2 4 8 16 32 64 128 >= 240 0 2 4 6 8 10 12 14 16 18 Temps d’atente maximum (s) Nombre d’inversions / nombre total de requêtes Awareness Chang Kanrar_Chaki RetardDistance (d) Fc(p) = p ∗ c et ρ = 0.1N 0.25 0.50 1 2 4 8 16 32 64 128 >= 240 0 2 4 6 8 10 12 14 16 18 Temps d’atente maximum (s) Nombre d’inversions / nombre total de requêtes Awareness Chang Kanrar_Chaki RetardDistance (e) Fc(p) = p c et ρ = 0.5N 0.25 0.50 1 2 4 8 16 32 64 128 >= 240 0 2 4 6 8 10 12 14 16 18 Temps d’atente maximum (s) Nombre d’inversions / nombre total de requêtes Awareness Chang Kanrar_Chaki RetardDistance (f) Fc(p) = p c et ρ = 0.1N 0.25 0.50 1 2 4 8 16 32 64 128 >= 240 0 2 4 6 8 10 12 14 16 18 Temps d’atente maximum (s) Nombre d’inversions / nombre total de requêtes Awareness Chang Kanrar_Chaki RetardDistance (g) Fc(p) = c p et ρ = 0.5N 0.25 0.50 1 2 4 8 16 32 64 128 >= 240 0 2 4 6 8 10 12 14 16 18 Temps d’atente maximum (s) Nombre d’inversions / nombre total de requêtes Awareness Chang Kanrar_Chaki RetardDistance (h) Fc(p) = c p et ρ = 0.1N 0.25 0.50 1 2 4 8 16 32 64 128 >= 240 0 2 4 6 8 10 12 14 16 18 Temps d’atente maximum (s) Nombre d’inversions / nombre total de requêtes Awareness Chang Kanrar_Chaki RetardDistance (i) Fc(p) = 2p+c et ρ = 0.5N 0.25 0.50 1 2 4 8 16 32 64 128 >= 240 0 2 4 6 8 10 12 14 16 18 Temps d’atente maximum (s) Nombre d’inversions / nombre total de requêtes Awareness Chang Kanrar_Chaki RetardDistance (j) Fc(p) = 2p+c et ρ = 0.1N Figure 4.15 – Étude de cinq familles de fonction de palier en charge moyenne (ρ = 0.5N) et en charge haute (ρ = 0.1N)68 Chapitre 4. Temps d’attente et inversions de priorité dans l’exclusion mutuelle • le respect de la vivacité en se basant sur l’algorithme de Kanrar-Chaki . • une limitation des inversions de priorités : le mécanisme de retard réduit considérablement le taux d’inversions avec une fonction de palier exponentielle comme nous avons pu l’analyser dans la section 4.4 . • une complexité en messages comparable à l’existant : le mécanisme de retard augmentait de facto le nombre de messages par requête mais grâce au mécanisme "distance" qui tient compte de la localité de requête et au mécanisme d’inclusion d’une requête dans le jeton, cette complexité a pu être réduite. • une limitation du temps d’attente maximum : l’algorithme "Awareness" permet à n’importe quel processus, quelle que soit sa position dans la topologie, de connaître l’ensemble des requêtes émises dans le système. Grâce à ce mécanisme, il est possible de réduire considérablement le temps d’attente maximum pour un taux d’inversions équivalent. Enfin, l’utilisateur de l’algorithme peut ajuster le compromis entre le temps d’attente et le taux d’inversion grâce à la fonction de palier F : plus cette fonction est croissante, plus le taux d’inversions diminuera et plus le temps d’attente des petites priorités augmentera.Chapitre 5 Exclusion mutuelle avec dates d’échéance Sommaire 5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 5.2 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 5.2.1 Cloud Computing . . . . . . . . . . . . . . . . . . . . . . . 70 5.2.2 Service Level Agreement . . . . . . . . . . . . . . . . . . . 71 5.3 Description de l’algorithme . . . . . . . . . . . . . . . . . . 71 5.3.1 Description générale . . . . . . . . . . . . . . . . . . . . . . 71 5.3.2 Contrôle d’admission . . . . . . . . . . . . . . . . . . . . . 74 5.3.3 Mécanisme de préemption . . . . . . . . . . . . . . . . . . . 77 5.4 Évaluation des performances . . . . . . . . . . . . . . . . . 81 5.4.1 Protocole d’évaluation . . . . . . . . . . . . . . . . . . . . . 81 5.4.2 Métriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 5.4.3 Impact global . . . . . . . . . . . . . . . . . . . . . . . . . 82 5.4.4 Impact de la préemption pour une charge donnée . . . . . . 84 5.4.5 Impact de la charge . . . . . . . . . . . . . . . . . . . . . . 86 5.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 5.1 Introduction Dans ce chapitre nous considérons une extension du problème de l’exclusion mutuelle qui consiste à satisfaire les requêtes des processus en fonction de contraintes temporelles. Plus précisément, nous considérons que les requêtes incluent une date d’échéance et le but de notre algorithme est d’assurer qu’un maximum de requêtes soient satisfaites avant la date d’échéance. Pour réduire le plus possible le nombre de requêtes non satisfaites avant leur échéance, l’algorithme contrôle dans un premier temps que la contrainte de la requête soit réalisable. Lors de cette phase de contrôle, l’algorithme devra tenir compte de l’ensemble des requêtes 6970 Chapitre 5. Exclusion mutuelle avec dates d’échéance pendantes. Une fois que cette phase de contrôle d’admission est positive, la requête est définitivement acceptée : le système s’engage donc à la satisfaire avant sa date d’échéance. À l’inverse, si l’admission est négative, alors la requête est définitivement rejetée et ne donnera pas lieu à une section critique : le processus est alors obligé de refaire une nouvelle requête en donnant éventuellement des contraintes plus faibles. Ce type d’exclusion mutuelle avec contrainte s’inscrit dans un modèle plus général d’application avec SLA où un contrat de qualité de service est négocié avec le fournisseur. Les applications s’exécutent souvent dans le modèle du Cloud Computing où il a été reconnu dans [AFG+09] que le verrouillage de ressources était un défi majeur. Ce chapitre décrit en section 5.2 les particularités du modèle du Cloud Computing permettant de motiver cette contribution. L’algorithme sera ensuite décrit avec ses deux mécanismes principaux en section 5.3 : le mécanisme de contrôle d’admission et un mé- canisme de préemption permettant d’améliorer le débit de section critique. S’ensuivra ensuite une évaluation de performances en section 5.4. Cette contribution a donné lieu à deux publications, [CCgrid12] et [CCgrid13] dont la deuxième a été faite en collaboration avec les membres du projet ANR MyCloud [MyC]. 5.2 Motivations 5.2.1 Cloud Computing Dans les Clouds, les ressources sont considérées comme des services qu’il s’agisse de matériel (ex : serveur, routeur, GPU ...), de plates-formes de développement ou de logiciel (ex : webmail, office). Ceci permet de ne plus acheter (ou louer) ces ressources mais de payer uniquement que ce que l’on consomme (informatique à la demande). Il existe plusieurs niveaux de couche de service. À l’instar de la pile OSI pour les réseaux, une couche d’un niveau k fournit un service pour la couche de niveau k+1. Les trois couches principales dans ce modèle ([LKN+09, RCL09, ZCB10]) sont par ordre de niveau croissant : • IaaS : "Infrastructure as a Service", permet de fournir des ressources matérielles virtualisées. Par exemple, Amazon EC2 [EC2] fournit des machines serveurs virtuelles et Amazon S3 [S3] fournit des ressources pour le stockage. • PaaS : "Platform as a Service", fournit une interface de programmation pour une application qui s’exécutera dans un Cloud. Par exemple, Google offre Google App engine [App] qui est une plate-forme de conception et d’hébergement. d’applications web. • SaaS : "Software as a Service", fournit une application pour les utilisateurs finaux (exemple : bureautique en ligne) ou bien pour des développeurs d’applications de haut niveau. Cette couche repose sur une couche PaaS mais peut aussi utiliser directement la couche IaaS. Les ressources étant mutualisées entre les différents utilisateurs du système, des mécanismes de verrouillage sont donc nécessaires pour éviter toute incohérence ou dysfonctionnement. Ces mécanismes peuvent être présents à différents niveaux. En IaaS, ils servent à réserver des ressources à accès exclusif. En PaaS, ils servent pour la programmation d’applications réparties (exemple : MPI-IO). Nous pouvons citer comme exemple le service5.3. Description de l’algorithme 71 de verrouillage de Chubby [Bur06] proposé par Google qui assure une fiabilité de service grâce à une réplication de serveurs. 5.2.2 Service Level Agreement Le Cloud Computing s’accompagne d’un modèle commercial dans lequel le client n’achète plus de machine ou de logiciel mais un service donné avec une qualité négociée. Il doit donc convenir d’un contrat avec le fournisseur qui définit un niveau et un type de qualité de service que ce dernier doit respecter. Ce contrat est plus communément appelé SLA (Service Level Agreement) et fait suite à une phase de négociation entre le client et le fournisseur (gérée usuellement par un contrôle d’admission) or les algorithmes distribués d’exclusion mutuelle ne prennent pas (ou peu) en compte la notion de QoS associée aux requêtes clientes. Notre but est donc de fournir une API pour un service de verrouillage intégrant la notion de SLA. L’algorithme décrit dans ce chapitre pourrait être ainsi appliqué sur des plates-formes de Cloud de type PaaS. 5.3 Description de l’algorithme Cette section décrit notre algorithme d’exclusion mutuelle permettant de satisfaire les requêtes avant leur date d’échéance. Cet algorithme doit : • éviter les violations de SLA, c’est-à-dire les requêtes non satisfaites avant leur date d’échéance (exigence du client). • satisfaire le plus de requêtes possibles afin d’avoir un bon débit de section critique (exigence du fournisseur). Notre algorithme se base sur l’algorithme de Raymond décrit en section 2.5.1. On décrira dans un premier temps les principes de base de l’algorithme puis le fonctionnement des deux mécanismes principaux : • le contrôle d’admission qui permet de décider si une requête peut être satisfaite ou non, • le mécanisme de préemption qui permet de décider du chemin que le jeton suivra dans la topologie afin d’en rentabiliser son utilisation. Notre algorithme implique des changements au niveau applicatif. Désormais lorsqu’un processus demande la section critique, il fournit deux valeurs de contraintes : • la date d’échéance d’accès à la section critique, • le temps de section critique requis De plus, la requête doit être soumise à un contrôle d’admission avant d’être définitivement acceptée. Par conséquent, la procédure Request_CS devra renvoyer à l’application un résultat booléen indiquant si le processus peut exécuter la section critique ou au contraire si sa requête ne peut être acceptée. 5.3.1 Description générale Comme dans l’algorithme original de Raymond, notre algorithme repose sur la circulation d’un unique jeton dans une topologie en arbre statique où le nœud racine est le72 Chapitre 5. Exclusion mutuelle avec dates d’échéance Local variables :1 begin2 3 father : site ∈ Π or nil; 4 Q : queue of (si, sn, t, α, d) ∈ Π × Π × T × IN × IN ; 5 state ∈ {tranquil, requesting, inCS} end6 Initialization7 begin8 9 Q ← ∅; 10 state ← tranquil; 11 father ← according to the initial topology; end12 Request_CS(tdead ∈ T, α ∈ IN) with boolean result13 begin14 15 state ← requesting; 16 boolean accept; 17 accept ← controlReqCS(tdead, α); 18 if accept = false then 19 state ← tranquil; 20 return false; 21 /* Cancel : rejected */ if father 6= nil then22 23 wait(father = nil or tnow > tdead); if tnow > tdead then24 25 state ← tranquil; 26 Q ← Q − {(si, sn, t, α, d) ∈ Q|si = self} ; 27 return false; 28 /* Cancel : too late */ 29 state ← inCS; 30 return true; 31 /* CRITICAL SECTION */ end32 33 Release_CS() begin34 35 state ← tranquil; 36 Q ← Q−{(si, sn, t, α, d) ∈ Q|si = self ∨t < tnow} ; if Q 6= ∅ then37 38 (sinext, snnext, tnext, αnext, dnext) ← preempt(); 39 send Token(Q) to snnext; 40 father ← snnext; 41 Q ← Q − {(si, sn, t, α, d) ∈ Q|sn = father} ; end42 43 Receive_Request(si ∈ Π, tdeadj ∈ T, α ∈ IN, dj ∈ IN) from sj begin44 if father = nil and state = tranquil then45 46 send Token(∅) to sj ; 47 father ← sj ; else if father 6= sj then48 Q ← Q − {(s 0 i , s0 n, t0 , α0 , d0 ) ∈ Q|s 0 49 i = si} ; 50 controlRecvReq(si, sj , tdeadj , α, dj ); end51 52 Receive_Token(Qj ) from sj begin53 54 father ← nil; 55 controlRecvTok(Qj , sj ); 56 Q ← Q − {(si, sn, t, α, d) ∈ Q|t < tnow} ; if Q 6= ∅ then57 58 (sinext, snnext, tnext, αnext, dnext) ← preempt(); if snext = self then59 60 notify(father = nil); else61 62 send Token(Q) to snnext; 63 father ← snnext; 64 Q ← Q − {(si, sn, t, α, d) ∈ Q|sn = father} ; end65 Figure 5.1 – Algorithme à dates d’échéances détenteur du jeton. De plus, chaque site maintient une file locale de requête. Le pseudo code de notre algorithme est donné dans la figure 5.1. Variables Les variables locales à chaque processus restent inchangées par rapport à l’algorithme de Raymond hormis pour la file locale qui est un ensemble de tuples de type (si , sn, t, α, d) ∈ Π × Π × T × IN × IN où • si est l’identifiant du site initiateur de la requête, • sn est l’identifiant du voisin qui a transmis la requête, (similaire à Raymond) • t est la date d’échéance de la requête associée, • α est le temps de section critique requis en unité de temps, • d est la distance en nombre de liens intermédiaires séparant l’initiateur de la requête et le nœud courant. Ce paramètre est utilisé pour le mécanisme de préemption.5.3. Description de l’algorithme 73 Chaque file locale est ordonnée selon une politique Earliest Deadline First (EDF) c’est-à- dire par ordre de dates d’échéance croissantes. En cas de dates égales, l’ordre appliqué est celui du temps de section critique requis croissant. On préfère ainsi favoriser la requête qui demande moins de temps de section critique. Cependant l’ordre de satisfaction des requêtes ne dépend pas uniquement de cet ordre mais dépend aussi de la politique de préemption. Les différentes politiques de préemptions seront détaillées section 5.3.3. Messages Nous considérons deux types de message : • request(si , tdead, α, d) : message de requête contenant l’identifiant du nœud initiateur, les deux valeurs de contrainte et la distance en nombre de liens entre le nœud receveur du message et le nœud initiateur. • token(Qj ) : message de jeton qui contient la file des requêtes à traiter. Nous verrons ultérieurement que la file du porteur du jeton est un élément clé dans notre algorithme. Fonctions Pour avoir un maximum de modularité dans les différentes politiques de décision, nous considérons que les mécanismes de contrôle d’admission et de préemption qui seront détaillés respectivement en section 5.3.2 et 5.3.3 fournissent l’API suivante : • Pour le contrôle d’admission : ∗ controlReqCS (ligne 17) : appelée au moment où une nouvelle requête est émise. Cette procédure retourne un résultat booléen qui vaut vrai si la nouvelle requête a été acceptée, faux sinon. Elle retournera également faux si la date d’échéance de la requête a expiré. ∗ controlRecvReq (ligne 50) : appelée lorsque le processus reçoit un message de requête, cette fonction permet de contrôler si la requête reçue peut être validée localement ou non. ∗ controlRecvTok (ligne 55) : appelée lorsque le processus reçoit le jeton, cette fonction permet de fusionner la file du jeton avec la file locale du site courant. Le contrôle d’admission a la responsabilité de transmettre les messages de requêtes ainsi que les messages nécessaires pour son fonctionnement. En cas de réponse positive sur une requête, le contrôle d’admission assure au processus qu’elle est enregistrée dans le système et qu’elle sera satisfaite avant la date d’échéance. • Pour le mécanisme de préemption : ∗ preempt : appelée au moment où un site décide d’un prochain destinataire pour envoyer le jeton soit lors d’une sortie de section critique, soit lors de la réception du jeton. Cette fonction renvoie le tuple de la file locale correspondant à la requête qui peut réquisitionner le jeton. Description En exécutant la procédure Request_CS (ligne 14) le site appelle en premier lieu la fonction controlReqCS(tdead, α) (ligne 17) en passant en paramètre les deux valeurs de74 Chapitre 5. Exclusion mutuelle avec dates d’échéance contrainte. Si le résultat de cette fonction est négatif alors le processus se remet à l’état tranquil et abandonne sa requête (lignes 18 à 20). Sinon, si le résultat est positif, le processus se met en attente du jeton (ligne 23). Cependant, si le jeton n’arrive pas avant la date d’échéance, il y a violation de SLA : la requête est alors abandonnée et ne donnera pas lieu à une section critique (lignes 24 à 27). En effet, ce cas est possible en cas d’erreur d’estimation du contrôle d’admission. Nous annulons donc les requêtes qui ne sont pas satisfaites à leur date d’échéance pour éviter l’effet cascade sur les autres requêtes et ne pas dégrader ainsi le taux de violations. À la réception d’un message de requête (ligne 44) réclamé par si , si le processus possède le jeton mais ne l’utilise pas, le jeton est alors envoyé en direction du demandeur (lignes 45 à 47). Sinon, en ligne 49, le processus efface de sa file locale une requête obsolète de si qui pourrait éventuellement subsister et appelle ensuite la fonction controlRecvReq du contrôle d’admission en passant en paramètre les informations transmises dans le message de requête. Lorsqu’un processus reçoit le jeton (ligne 53), il appelle la fonction controlRecvTok du contrôle d’admission en lui passant en paramètre la file du jeton (ligne 55). Le traitement qui suit est alors similaire à la méthode Release_CS. Afin d’éviter de stocker indéfiniment des requêtes qui auraient manqué leur date d’échéance, le processus efface de sa file locale toute requête obsolète (lignes 36 et 56). Si la file demeure non vide alors le processus cherche un prochain destinataire du jeton avec le mécanisme de préemption en appelant la méthode preempt (lignes 38 et 58). Le jeton est ensuite envoyé (ligne 62) ou bien éventuellement utilisé par le processus (ligne 60).Afin d’assurer qu’un processus ne connaisse pas les requêtes provenant de son père (invariant de l’algorithme de Raymond), le processus efface ces dernières de sa file locale (lignes 41 et 64 ) à chaque transmission du jeton. Notons que lorsque le site entre en section critique, sa requête n’est pas effacée de la file locale (contrairement à l’algorithme de Raymond) car ses contraintes peuvent encore servir pour la décision du contrôle d’admission. 5.3.2 Contrôle d’admission Comme nous l’avons évoqué précédemment, le contrôle d’admission permet d’éviter d’accepter des requêtes que l’on ne peut pas satisfaire dans l’état actuel du système. Sa décision permet d’accepter ou de rejeter les requêtes en amont. Si la réponse est positive, alors le système s’engage à satisfaire la requête en respectant ses contraintes avec une forte probabilité. Si la réponse est négative, la requête est définitivement rejetée et le processus applicatif doit reformuler une nouvelle requête avec des contraintes moins importantes et/ou attendre que la charge du système diminue. Notre mécanisme de contrôle d’admission est entièrement distribué. Chaque processus a donc, en fonction de sa place dans l’arbre, un rôle dans ce mécanisme. Pour cela, nous nous servons de la propriété hiérarchique de la topologie. Ainsi, plus un processus se situe proche de la racine, plus sa connaissance potentielle sur les requêtes pendantes du système est grande. Par conséquent, le site racine est le seul à pouvoir connaître l’ensemble des requêtes pendantes du système et donc le seul à pouvoir prendre la décision finale d’accepter ou pas une requête. Cependant, chaque processus connaît un sous-ensemble des requêtes pendantes de son père. Il est alors possible de filtrer les messages de requêtes5.3. Description de l’algorithme 75 et éviter à ce qu’une requête invalidée par un processus soit retransmise au père qui donnerait la même décision. Ainsi, à la réception ou à l’initiation d’une nouvelle requête, le processus va dans un premier temps décider en fonction des requêtes déjà présentes dans sa file locale si la requête est faisable ou pas. Si tel est le cas, la requête est alors retransmise au père. Si la décision locale est négative, alors la requête est rejetée définitivement. Ce mécanisme est récursif jusqu’au processus racine. Un site qui envoie le jeton y inclus dans le message sa file locale. Ainsi le prochain détenteur du jeton pourra fusionner sa file locale avec celle du jeton lors de l’appel à controlRecvTok. Cette fusion permet d’assurer que le porteur du jeton connaîtra toujours l’ensemble des requêtes pendantes du système. Décision locale La file locale Q est ordonnée selon une politique EDF. À la création ou à la réception d’une requête req (controlReqCS ou controlRecvReq), le processus détermine la place potentielle i que req pourrait occuper dans Q. Il peut alors déterminer si req peut être satisfaite ou pas. Nous avons considéré qu’une requête req est faisable si : (1) la requête à la place i − 1 dans Q (notée reqi−1) doit respecter les contraintes de req après son insertion (2) req doit respecter les contraintes de la requête à la position i + 1 dans Q (notée reqi+1) qui a déjà été validée. Pour respecter ces deux conditions, il est nécessaire de considérer le pire scénario où les requêtes validées seront satisfaites à leur date d’échéance. Ainsi pour assurer (1), la date d’échéance de la requête à la place i − 1 plus le temps de sa section critique et le temps réseau pour acheminer le jeton entre le site initiateur de reqi−1 au site initiateur de req ne doit pas dépasser la date d’échéance de req. Symétriquement, pour assurer (2), la date d’échéance de req plus son temps de section critique et le temps réseau pour acheminer le jeton entre le site initiateur de req au site initiateur de reqi+1 ne doit pas dépasser la date d’échéance de reqi+1. Il est important de préciser que dans notre cas, ces conditions sont strictement appliquées (aucune marge de dépassement n’est prise en compte). Le calcul de faisabilité implique l’ajout de deux hypothèses sur le système : 1. les horloges des différents sites sont synchronisées (présence d’un serveur NTP) 2. les sites connaissent le temps d’acheminement maximal d’un message vers un voisin noté γmax. La suppression de ces hypothèses sera une perspective de recherche de ce chapitre et sera discutée en chapitre 8. Nous considérons que le calcul de la décision locale se fait par l’appel à la fonction localDecision qui retourne vrai si elle est positive, faux sinon. Notification du résultat au site initiateur Lorsqu’une requête est rejetée par un site, un message de rejet Reject est alors renvoyé vers le site initiateur. Un tel message est transmis jusqu’à ce dernier qui pourra finalement annuler sa requête. En revanche en cas d’acceptation de la requête, nous avons défini deux stratégies de notification.76 Chapitre 5. Exclusion mutuelle avec dates d’échéance Local variables :66 begin67 68 Qtmp : queue of (si, sn, t, α, d) ∈ Π × Π × T × IN × IN ; 69 permission ∈ {no, yes, empty}; end70 Initialization71 begin72 73 Qtmp ← ∅; 74 permission ← empty; end75 76 controlReqCS(tdead ∈ T, α ∈ IN ) with boolean result begin77 78 if localDecision(tdead, α) then if father = nil then79 80 add (self, self, tdead, α, 0) in Q; 81 return true ; else82 83 add (self, self, tdead, α, 0) in Qtmp; 84 permission ← empty; 85 Send Request(self, tdead, α, 1)) to father ; 86 wait(permission 6= empty or tnow > tdead); 87 if tnow > tdead or permission = no then 88 return false ; else89 90 return true ; else91 92 return false; end93 94 controlRecvReq(si ∈ Π, sn ∈ Π, tdead ∈ T, α ∈ IN, d ∈ IN) begin95 Qtmp ← Qtmp − {(s 0 i , s0 n, t0 , α0 , d0 ) ∈ Q|s 0 96 i = si} ; if localDecision(tdead, α) then97 if father = nil then98 99 Validate(si, sn, tdead, α, d); 100 else 101 add (si, sn, tdead, α, d) in Qtmp; 102 Send Request(si, tdead, α, d + 1)) to father ; else103 104 Send Reject(si,tdead) to sn ; end105 106 controlRecvTok(Qtoken, sj ∈ Π) 107 begin foreach (si, sn, tdead, α, d) ∈ Qtoken do108 if sn 6= self then109 110 add (si, sj , tdead, α, d + 1) in Q; foreach (si, sn, tdead, α, d) ∈ Qtmp do111 if @(s 0 i , s0 n, t0 dead, α0 , d0 ) ∈ Q|s 0 i = si then112 if localDecision(tdead, α) then113 114 Validate(si, sn, tdead, α, d); else115 116 Invalidate(si, sn, tdead); 117 Qtmp ← ∅; end118 119 Receive_Reject(si ∈ Π, tdead ∈ T) from sj begin120 if ∃(s 0 i , s0 n, t0 dead, α0 , d0 ) ∈ Qtmp, si = s 0 121 i ∧ tdead = t 0 dead then remove (s 0 i , s0 n, t0 dead, α0 , d0 122 ) from Qtmp; Invalidate(s 0 i , s0 n, t0 dead 123 ); else124 125 /* ne rien faire, ceci concerne une requête obsolète */ end126 127 Receive_Validation(si ∈ Π, tdead ∈ T) from sj begin128 if ∃(s 0 i , s0 n, t0 dead, α0 , d0 ) ∈ Qtmp, si = s 0 129 i ∧ tdead = t 0 dead then remove (s 0 i , s0 n, t0 dead, α0 , d0 130 ) from Qtmp; Validate(s 0 i , s0 n, t0 dead, α0 , d0 131 ); else132 133 /* ne rien faire, ceci concerne une requête obsolète */ end134 Validate(si ∈ Π, sn ∈ Π, tdead ∈ T, α ∈ IN, d ∈ IN)135 begin136 if tdead ≥ tnow then137 138 add (si, sn, tdead, α, d) in Q; if si = self then139 140 permission ← yes; 141 notify(permission 6= empty) else142 143 Send Validation(si,tdead) to sn ; end144 145 Invalidate(si ∈ Π, sn ∈ Π, tdead ∈ T) 146 begin if tdead ≥ tnow then147 if si = self then148 149 permission ← no; 150 notify(permission 6= empty) else151 152 Send Reject(si,tdead) to sn ; end153 Figure 5.2 – Contrôle d’admission avec acquittement5.3. Description de l’algorithme 77 Stratégie avec acquittement : Le processus initiateur doit attendre un message d’acquittement de son père qui confirme que sa requête a été acceptée par le système. Ainsi lorsque la requête est localement acceptée, elle n’est pas immédiatement ajoutée dans la file locale Q mais dans une file temporaire Qtmp. Le pseudo-code de cette version est donné figure 5.2. Une requête est ajoutée dans la file locale définitive seulement après la réception du message d’acquittement envoyé par le père. Puisque seul le site racine connaît toutes les requêtes du système, il est le seul à pouvoir initier le transfert du message d’acquittement. Ce message est alors retransmis le long des processus séparant la racine du processus initiateur. Une requête est effacée de la file locale Q du processus initiateur une fois que la section critique a été libérée ou bien si la date d’échéance de la requête a expiré. Stratégie sans acquittement : Le processus initiateur et les processus intermé- diaires ajoutent directement la requête dans la file locale Q. Par conséquent, ils n’attendent aucun message d’acquittement. Une requête est alors définitivement acceptée lorsque le porteur du jeton l’a reçue et validée. Les requêtes contenues dans la file du jeton sont les seules à être définitivement validées. À la réception du jeton, le processus doit donc contrôler localement toutes les requêtes présentes dans sa file locale et absentes de la file du jeton. Dans ce type de notification, une requête est effacée de la file locale Q du processus initiateur une fois que la section critique a été libérée ou bien à la réception d’un message de rejet ou bien si la date d’échéance de la requête a expiré. Le pseudo-code de cette version est donné figure 5.3. Comparaison entre les deux stratégies : la deuxième stratégie est plus économe en messages car elle n’utilise pas de message de validation. Cependant elle a une vision plus pessimiste et peut rejeter des requêtes qui pourraient être validées. Prenons par exemple la configuration de la figure 5.4(a) avec quatre sites distincts si , sj , sinter et sroot où sroot est la racine du système et sinter est un ancêtre commun de si et sj . Considérons que si a émis une requête reqi qui est validée par tous les processus entre si et sroot sauf par sroot. Considérons que sj a émis une requête reqj qui elle peut être validée par sroot. Supposons que reqi soit ajoutée dans la file locale du site sinter se trouvant entre si et sroot mais soit encore en transit entre sinter et sroot (figure 5.4(b)). Si pendant ce temps sinter reçoit reqj et l’invalide à cause des contraintes de reqi alors reqj (figure 5.4(c)) sera définitivement perdue dans la version sans acquittement alors qu’elle aurait pu être validée dans la version avec acquittement. Ainsi dans la version sans acquittement on refusera deux requêtes tandis que dans la version avec acquittement on ne refusera que reqi . Si ce cas de figure apparaît régulièrement, alors la version sans acquittement sera moins efficace en termes de taux d’utilisation de la ressource critique. 5.3.3 Mécanisme de préemption Le mécanisme de préemption permet d’améliorer le taux d’utilisation de la ressource critique en prenant en compte la localité des requêtes. Contrairement à un ordonnancement classique d’exclusion mutuelle (FIFO ou à priorité), l’ordre dans lequel les requêtes78 Chapitre 5. Exclusion mutuelle avec dates d’échéance Local variables :154 begin155 156 permission ∈ {no, yes, empty}; end157 Initialization158 begin159 160 permission ← empty; end161 162 controlRecvTok(Qtoken, sj ∈ Π) 163 begin 164 queue Qold ← Q; 165 Q ← ∅; 166 foreach (si, sn, tdead, α, d) ∈ Qtoken do if sn 6= self then167 168 add (si, sj , tdead, α, d + 1) in Q; else169 if ∃(s 0 i , s0 n, t0 dead, α0 , d0 ) ∈ Qold, s0 170 i = si then add (s 0 i , s0 n, t0 dead, α0 , d0 171 ) in Q; 172 foreach (si, sn, tdead, α, d) ∈ Qold do if @(s 0 i , s0 n, t0 dead, α0 , d) ∈ Q, s0 173 i = si then if localDecision(tdead, α) then174 175 add (si, sn, tdead, α, d) in Q; 176 if si = self then 177 permission ← yes; 178 notify(permission 6= empty); else179 180 Invalidate(si, sn, tdead); end181 controlReqCS(tdead ∈ T, α ∈ IN ) with boolean182 result begin183 184 /* identique à la version avec acquittement en remplaçant Qtmp par Q */ end185 186 controlRecvReq(si ∈ Π, sn ∈ Π, tdead ∈ T, α ∈ IN, d ∈ IN) begin187 if localDecision(tdead, α) then188 189 add (si, sn, tdead, α, d) in Q; if father 6= nil then190 191 Send Request(si, tdead, α, d + 1)) to father ; else192 193 Send Reject(si,tdead) to sn ; end194 195 Receive_Reject(si ∈ Π, tdead ∈ T) from sj 196 begin 197 /* identique à la version avec acquittement en remplaçant Qtmp par Q */ end198 Invalidate(si ∈ Π, sn ∈ Π, tdead ∈ T)199 begin200 201 /* identique à la version avec acquittement */ end202 Figure 5.3 – Contrôle d’admission sans acquittement (a) État initial (b) Étape 1 : propagation des requêtes de si et sj (c) Étape 2 : rejet des requêtes de si et sj Figure 5.4 – Exemple pour comparer les deux stratégies de validation5.3. Description de l’algorithme 79 sont satisfaites importe peu à condition que l’ensemble des requêtes acceptées soient satisfaites avant leur date d’échéance. Il peut alors être possible entre deux sections critiques successives d’un ordonnancement EDF de satisfaire d’autres requêtes de nœuds se situant entre les deux processus concernés. Nous notons reqhead la requête du site shead qui se trouve en tête de file du jeton, i.e., la prochaine requête à satisfaire selon l’ordonnancement EDF. Pendant le trajet du jeton, chaque processus intermédiaire peut donc l’utiliser à la seule contrainte que le jeton doit arriver sur shead avant sa date d’échéance. Pour que des sites puissent utiliser le jeton pendant son trajet ils doivent respecter la condition de préemption : la somme des durées de leur section critique ajoutée au temps de transmission du jeton ne doit pas dépasser la date d’échéance de shead. La condition de préemption est vérifiable en appelant la fonction canPreempt dont le pseudo-code est donné en figure 5.5. canPreempt(req) with boolean result203 begin204 205 /* La fonction retourne vraie si la requête req peut préempter reqhead, faux sinon */ 206 (si, sn, tdead, α, d) ← req; 207 (shead, snhead, thead, αhead, dhead) ← head(Q); 208 if sn = snhead then 209 /* le site courant n’est pas un site appartenant au chemin (si, shead), le jeton peut donc se diriger vers si sans risque de violer reqhead */ 210 return true ; 211 else 212 return (2 ∗ d + dhead) ∗ γmax + α < thead end213 Figure 5.5 – Fonction de condition de préemption Nous avons défini trois politiques de préemption : • Pas de préemption : Le jeton suit scrupuleusement l’ordonnancement EDF. Il n’est pas utilisé durant son trajet vers shead. Lorsqu’un site reçoit le jeton, il le transfère directement au voisin correspondant à la requête en tête de Qtoken. • Préemption simple : Le jeton peut être utilisé uniquement par les sites se situant sur le chemin menant à shead. À la réception du jeton, un site ayant une requête pendante peut entrer en section critique même s’il n’est pas le site shead à condition qu’il satisfasse la contrainte de préemption. • Préemption étendue : Le jeton peut être détourné du chemin menant à shead. À la réception d’un jeton, si une préemption simple n’est pas possible le processus pourra contrôler s’il existe un voisin de distance 1 (pas nécessairement sur le chemin menant à shead) qui respecte la condition de préemption. Si tel n’est pas le cas, il contrôlera pour des sites de distance 2 et ainsi de suite jusqu’à une distance maximale paramétrable. Cette distance notée ψ est appelée taille de préemption maximum et est bornée par le diamètre de l’arbre. Ces trois politiques sont illustrées en figure 5.6. À chaque politique, nous donnons un exemple et le pseudo-code de la fonction preempt. Dans les exemples, les flèches rouges indiquent une transmission de jeton. Un nœud rouge indique que le processus correspondant est entré en section critique lorsqu’il a reçu le jeton. Nous pouvons remarquer que la préemption étendue est une généralité des deux autres80 Chapitre 5. Exclusion mutuelle avec dates d’échéance Pas de préemption Préemption simple Préemption étendue Pas d’utilisation du jeton jusque shead s2 et s4 ont pu utiliser le jeton. En plus de s2 et s4, le jeton a été détourné pour que s6, s7 et s9 entrent en section critique. preempt()214 begin215 216 return head(Q); end217 preempt()218 begin219 220 if ∃ reqself = (self, self, t, α, 0) ∈ Q and canPreempt(reqself ) then 221 return reqself ; else222 223 return head(Q); end224 preempt()225 begin226 for dtmp from 0 to ψ do227 228 if ∃ req = (si, sn, t, α, dtmp) ∈ Q and canPreempt(req) then 229 return req; 230 return head(Q); end231 Figure 5.6 – Description des différentes politiques de préemption5.4. Évaluation des performances 81 types de préemption : pour la version sans préemption ψ < 0 et pour la version simple ψ = 0. 5.4 Évaluation des performances Dans cette section, nous allons analyser les performances de notre algorithme. Dans notre protocole, nous prédéfinissons plusieurs niveaux de SLA où chaque niveaux correspond à un temps de réponse requis. Plus ce niveau est grand, plus les contraintes temporelles sont grandes et par conséquent plus le temps de réponse associé est petit. Chaque processus choisira donc un niveau de SLA avant d’émettre une nouvelle requête. Comme à notre connaissance il n’existe pas dans la littérature d’autres algorithmes d’exclusion mutuelle à passage de messages se basant sur l’exclusion mutuelle à date d’échéance, nous comparons les deux versions de notre algorithme ("avec acquittement" et "sans acquittement") avec l’algorithme de Raymond (voir section 2.5.1) et notre algorithme à priorités "Awareness" associé à une fonction de retard F(p) = 2p (voir section 4.5.3). Nous pouvons ainsi comparer le comportement des ordonnancements FIFO et à priorités avec notre algorithme qui applique une stratégie EDF. Ces deux algorithmes étant dépourvus de contrôle d’admission, toute requête émise est supposée satisfiable. Ces deux algorithmes ont été légèrement adapté : un site peut détecter que sa date d’échéance a été dépassée et dans ce cas annuler sa requête en l’effaçant de sa propre file locale. De plus, pour l’algorithme "Awareness", nous avons fait une correspondance directe entre priorité et niveau de SLA : plus la priorité est élevée, plus le niveau de SLA est haut. 5.4.1 Protocole d’évaluation Les expériences ont été réalisées sur une grappe de 32 machines de Grid 5000 avec un processus par machine. Ceci permet d’éviter les effets de bord de contention au niveau des cartes réseau puisqu’il y a un seul processus par carte. Chaque nœud a deux processeurs AMD 1.7GHz et 47 Go de mémoire RAM, s’exécute sur un noyau Linux 2.6 (cluster Grid5000 Reims). Les nœuds sont reliés par un switch de 1 Gbit/s en ethernet. Les algorithmes ont été implémentés en C++ en utilisant l’intergiciel OpenMPI. Une expérience se caractérise par • N : le nombre de processus fixé à 32. • α : le temps d’une section critique. Cette valeur est comprise entre 25 ms et 50 ms. Bien que la plate-forme de test possède un mécanisme NTP de synchronisation des nœuds, il peut persister un décalage d’horloge. C’est pour cela que les valeurs de α ont été choisies volontairement hautes afin de rendre ce décalage négligeable dans le calcul du contrôle d’admission. • γ : la latence réseau,i.e., le temps d’acheminement d’un message entre deux processus voisins fixée à 20 ms. Nous avons choisi de rendre le temps réseau non négligeable par rapport au temps de section critique car dans un Cloud, les nœuds physiques peuvent être séparés par une grande distance. • θ : le temps de l’expérience est fixée à 35 secondes. Cette valeur est très élevée par rapport au temps de section critique et permet de réaliser un nombre important de82 Chapitre 5. Exclusion mutuelle avec dates d’échéance section critique par expérience. • ρ : la charge du système (voir section 4.4.1 pour plus de détails sur ce paramètre) • N bSLA : Le nombre de niveaux de SLA considéré fixé à 4. Un identifiant de SLA est compris entre 0 et N bSLA − 1. Plus cet identifiant est haut et plus le niveau de contrainte est grand. • W aitM in : le temps de réponse requis minimal qui correspond au plus haut niveau de SLA (identifiant N bSLA − 1). Ce paramètre est fixé à 600 ms. • ψ : la taille de préemption (voir section 5.3.3 ) À chaque nouvelle requête, un site choisit selon une loi aléatoire uniforme une valeur α de temps de section critique et un identifiant de SLA noté sla compris entre 0 et N bSLA−1. Un site peut alors déterminer le temps d’attente maximum requis à la requête par W aitM in ∗ (N bSLA − sla). La date d’échéance associée est donc la date à laquelle la requête a été émise en y ajoutant le temps maximum d’attente requis. 5.4.2 Métriques Nous considérons les métriques habituelles de l’exclusion mutuelle : • le nombre de messages moyen par requête : pour un type de message donné, cette métrique se calcule en faisant le ratio entre le nombre total de messages de ce type émis normalisé par le nombre total de requêtes à l’exception du type T OKEN qui est normalisé par le nombre total de requêtes acceptées par le contrôle d’admission (les requêtes rejetées n’ont pas lieu de recevoir le jeton). • le taux d’utilisation : le pourcentage de temps passé en section critique. En plus de ces métriques propres à l’exclusion mutuelle classique, nous ajoutons une métrique supplémentaire propre à l’exclusion mutuelle à dates d’échéances qui est le taux de violations de SLA qui est le pourcentage de requêtes acceptées n’ayant pas été satisfaites avant leur date d’échéance. Nous ne traiterons pas le temps de réponse car il est compris entre 0 et le temps d’attente maximum requis. 5.4.3 Impact global Dans cette section nous considérons une charge constante avec ρ = 0.5N qui correspond à une charge intermédiaire (environ 50% des sites en attente). Le mécanisme de préemption est désactivé sur nos algorithmes (ψ = −1) afin de pouvoir analyser uniquement l’impact du contrôle d’admission. Les résultats sont donnés en figure 5.7. Algorithme de Raymond : L’algorithme de Raymond exploite implicitement la localité des requêtes lorsque la latence réseau n’est pas négligeable. En effet, les sites éloignés du porteur du jeton sont naturellement pénalisés par l’ordonnancement FIFO : les messages de requêtes ont peu de chances d’arriver jusqu’au porteur du jeton (grâce au mécanisme de non-retransmission). De ce fait, les trajets du jeton entre deux sections critiques seront moins importants mais les sites éloignés du jeton ont plus de chances d’annuler leur requête lors du dépassement de leur date d’échéance. Ce phénomène se confirme sur la figure 5.7(a) où l’on peut remarquer que le nombre de messages de jeton par requête est beaucoup plus important pour nos algorithmes que pour l’algorithme de Raymond.5.4. Évaluation des performances 83 0 5 10 15 20 25 30 35 40 Raymond Awareness Avec_Acq Sans_Acq Taux d’utilisation (pourcentage) (a) Taux d’utilisation 0 2 4 6 8 10 12 Raymond Awareness Avec_Acq Sans_Acq Nombre de messages par requete REQUEST TOKEN REJECT VALIDATION (b) Nombre de messages par requête 0 10 20 30 40 50 60 70 80 90 Raymond Awareness Avec_Acq Sans_Acq Pourcentage de violations (c) Taux de violations 0 10 20 30 40 50 60 70 80 90 Raymond Awareness Avec_Acq Sans_Acq Pourcentage de violations sla0 sla1 sla2 sla3 (d) Taux de violations par niveau de SLA Figure 5.7 – Comparaison globale Bien que son taux d’utilisation soit supérieur à nos algorithmes (figure 5.7(c)), 40 % des requêtes acceptées ne sont pas satisfaites dans les temps impartis (figure 5.7(c)). Algorithme à priorités : L’ordonnancement à priorité de l’algorithme "Awareness" privilégie les requêtes de niveau 3 proche du porteur du jeton dans le graphe (grâce au mécanisme de distance, voir section 4.3.4) ce qui explique son faible nombre de messages de jeton (figure 5.7(b)). Mais la correspondance priorités-niveaux de SLA n’est pas une approche satisfaisante car on remarque dans la figure 5.7(c) que 86 % des requêtes ne sont pas satisfaites dans les temps impartis. Algorithmes avec et sans acquittement : On peut remarquer sur la figure 5.7(a) que nos deux algorithmes ont un taux d’utilisation plus faible que celui de Raymond. Cette différence est due aux politiques d’ordonnancement. L’ordonnancement EDF de nos algorithmes sans préemption ne tient pas compte de la localité des requêtes impliquant potentiellement de longs trajets du jeton. Il est notable sur les figures 5.7(c) et 5.7(d) que le contrôle d’admission réduit le nombre de violations de SLA au prix d’un surcoût en messages (figure 5.7(b)) à cause des mécanismes de notification qui envoient des messages de validation ou de rejet. De plus les messages de requêtes sont plus nombreux car ils sont84 Chapitre 5. Exclusion mutuelle avec dates d’échéance systématiquement retransmis au processus père tant que la décision locale est positive. La version avec acquittement génère cependant des violations de SLA alors que l’on observe aucune violation dans la version sans acquittement. Ceci s’explique par le fait que la version avec acquittement ne tient pas compte de son propre surcoût en temps dans son évaluation. En effet le temps de contrôle n’est pas négligeable puisque le site doit systématiquement attendre la notification de son père pour être accepté définitivement. En revanche, dans la version sans acquittement, les requêtes satisfiables sont validées systématiquement impliquant un contrôle d’admission gratuit en temps. Synthèse Notre mécanisme de contrôle d’admission associé à l’ordonnancement EDF permet de réduire fortement la quantité de requêtes n’ayant pas été satisfaites à temps. Nous pouvons remarquer que le gain théorique de taux d’utilisation de notre algorithme avec acquittement sur l’algorithme sans acquittement n’est pas mis en évidence dans nos graphiques. De plus, le taux d’utilisation de nos algorithmes (25 %) reste inférieur à l’algorithme de Raymond (40 %) qui favorise la localité des requêtes. 5.4.4 Impact de la préemption pour une charge donnée Nous avons remarqué que sans préemption le taux d’utilisation de la ressource critique est réduit. Nous analysons maintenant le comportement de nos algorithmes lorsque l’on augmente le paramètre de taille de préemption ψ (figure 5.8). Nous comparons le nombre de messages quand il n’y a pas de préemption (figure 5.8(c)) et une valeur intermédiaire de ψ (figure 5.8(d)). Cette valeur intermédiaire (égale à 4) est la taille de préemption où nous pouvons avoir les meilleures performances en termes de taux d’utilisation (voir figure 5.8(a)). Impact sur le taux d’utilisation : Nous pouvons observer dans la figure 5.8(a) que l’algorithme de Raymond est plus efficace que nos algorithmes quand ces derniers sont privés du mécanisme de préemption. Lorsque le niveau de préemption augmente, le taux d’utilisation augmente puis se dégrade légèrement après une valeur seuil (3 pour la version avec acquittement et 4 pour la version sans acquittement). En effet quand la taille de préemption augmente, l’importance de la déviation du jeton de son chemin initial a plus de chances d’augmenter. Lorsque la latence réseau n’est pas négligeable, une longue déviation est trop coûteuse car elle empêche l’utilisation du jeton sur le chemin initial vers shead. Impact sur le taux de violations : On remarque sur la figure 5.8(b) que la taille de préemption n’a aucun impact sur la version sans acquittement : le taux de violation est toujours nul. En revanche, dans la version avec acquittement la quantité de violation augmente avec la taille de préemption. Le contrôle d’admission est d’autant plus coûteux en temps car le temps de validation augmente. En effet on peut remarquer dans les figures 5.8(c) et 5.8(d) que lorsque la taille de préemption augmente le nombre de messages de validation par requête augmente également.5.4. Évaluation des performances 85 0 5 10 15 20 25 30 35 40 45 pas de preemption preemption locale 1 2 3 4 5 6 7 Taux d’utilisation (pourcentage) taille de preemption Raymond Awareness Avec_Acq Sans_Acq (a) Taux d’utilisation 0 10 20 30 40 50 60 70 80 90 pas de preemption preemption locale 1 2 3 4 5 6 7 Pourcentage de violations taille de preemption Raymond Awareness Avec_Acq Sans_Acq (b) Taux de violations 0 2 4 6 8 10 12 Raymond Awareness Avec_Acq Sans_Acq Nombre de messages par requete REQUEST TOKEN REJECT VALIDATION (c) Nombre de messages par requête sans pré- emption 0 2 4 6 8 10 12 Raymond Awareness Avec_Acq Sans_Acq nombre de messages par requete REQUEST TOKEN REJECT VALIDATION (d) Nombre de messages par requête ψ = 4 Figure 5.8 – Impact de la taille de préemption ψ Impact sur le nombre de messages : On note dans les figures 5.8(c) et 5.8(d) que l’on peut économiser des messages de jeton par requête satisfaite lorsque la taille de préemption augmente. En effet, grâce au mécanisme de préemption, le jeton satisfait davantage de requêtes pendant son trajet rentabilisant ainsi son utilisation. Ceci est cohérent avec la figure 5.8(a). De manière globale, la figure 5.8 montre que notre algorithme sans acquittement égale le taux d’utilisation de l’algorithme de Raymond pour une valeur seuil de taille de pré- emption tout en gardant un taux de violation nul. Synthèse Nous remarquons que le gain théorique de l’algorithme avec acquittement n’est toujours pas mis en évidence. Lorsque l’on active le mécanisme de préemption, nous pouvons obtenir avec notre algorithme sans acquittement un taux d’utilisation équivalent à celui de Raymond tout en gardant un taux de violation faible. Cette amélioration se fait avec une petite valeur du paramètre ψ (2 ou 3).86 Chapitre 5. Exclusion mutuelle avec dates d’échéance 5.4.5 Impact de la charge Dans la figure 5.9, nous montrons l’impact de la valeur de la charge sur le taux d’utilisation et le taux de violation. Chaque point est évalué à partir d’une charge donnée ρ statique que l’on a fait varier de 5N (faible charge) à 0.1N (haute charge). 0 5 10 15 20 25 30 35 40 45 50 0.1 N 0.3 N 0.5 N 0.8 N 1 N 3 N 5 N Taux d’utilisation (pourcentage) charge Raymond Awareness Avec_Acq Sans_Acq (a) Taux d’utilisation 0 10 20 30 40 50 60 70 80 90 0.1 N 0.3 N 0.5 N 0.8 N 1 N 3 N 5 N Pourcentage de violations charge Raymond Awareness Avec_Acq Sans_Acq (b) Taux de violations Figure 5.9 – Impact de la charge pour ψ = 4 La figure 5.9(a) montre que notre algorithme sans acquittement suit le même comportement que l’algorithme de Raymond en termes de taux d’utilisation : en faible charge, notre algorithme est légèrement moins performant que l’algorithme de Raymond alors qu’en moyenne et en forte charge, le taux d’utilisation de notre algorithme est au moins équivalent à l’algorithme de Raymond. Cependant le taux de violation de notre algorithme sans acquittement reste toujours nul quelle que soit la valeur de la charge. On peut donc en déduire que notre algorithme sans acquittement possède des performances équivalentes à l’algorithme de Raymond en termes de taux d’utilisation mais sans générer de violation de SLA grâce à son contrôle d’admission et son mécanisme de préemption. 5.5 Conclusion Dans ce chapitre, nous avons présenté une nouvelle extension de l’exclusion mutuelle permettant de satisfaire des requêtes avant une date d’échéance requise. Nous avons conçu un nouvel algorithme pour ce type d’exclusion mutuelle. Cet algorithme se base sur l’algorithme de Raymond et possède deux mécanismes principaux : un contrôle d’admission et un mécanisme de préemption. Le contrôle d’admission permet de minimiser les violations de SLA et le mécanisme de préemption permet de prendre en compte la topologie du système afin d’utiliser au mieux le jeton. Les performances ont montré que le contrôle d’admission associé à un ordonnancement EDF permettait de limiter la quantité de requêtes qui n’ont pas été satisfaites à temps. Pour améliorer le taux d’utilisation, nous avons introduit un mécanisme de préemption qui permet de prendre en compte la localité des requêtes sans induire de violation. Ce mé-5.5. Conclusion 87 canisme permet de rentabiliser l’utilisation du jeton en satisfaisant des requêtes pendantes de processus se trouvant sur son trajet. Il serait cependant possible d’améliorer davantage le taux d’utilisation en ajoutant une fourchette de tolérance dans la décision locale du contrôle d’admission mais il y aurait alors un risque d’avoir une augmentation du nombre de violations de SLA. La limite de notre approche réside dans le fait que le temps maximal d’acheminement réseau entre deux voisins (paramètre γmax) est supposé connu ce qui apporte une hypothèse relativement forte.88 Chapitre 5. Exclusion mutuelle avec dates d’échéanceTroisième partie Contribution dans la généralisation de l’exclusion mutuelle 89Chapitre 6 Présentation de l’exclusion mutuelle généralisée Sommaire 6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 6.2 Généralités et notations . . . . . . . . . . . . . . . . . . . . 92 6.3 Le modèle à une ressource en plusieurs exemplaires . . . 92 6.3.1 Section critique à entrées multiples ou k-mutex . . . . . . . 92 6.3.2 Plusieurs exemplaires par demande . . . . . . . . . . . . . 93 6.4 Le modèle à plusieurs ressources en un seul exemplaire . 94 6.4.1 Les conflits . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 6.4.2 Propriétés à respecter . . . . . . . . . . . . . . . . . . . . . 95 6.4.3 Algorithmes incrémentaux. . . . . . . . . . . . . . . . . . . 95 6.4.4 Algorithmes simultanés . . . . . . . . . . . . . . . . . . . . 96 6.5 Le modèle à plusieurs ressources en plusieurs exemplaires 98 6.6 Conclusion et synthèse . . . . . . . . . . . . . . . . . . . . . 99 6.1 Introduction Dans les chapitres précédents, nous avons considéré le problème de l’exclusion mutuelle simple. Cependant, il existe plusieurs généralisations de ce problème. La généralisation peut se faire soit en augmentant le nombre d’exemplaires de la ressource soit en en considérant plusieurs types de ressource ou bien les deux. Ce chapitre présente un état de l’art sur la généralisation de l’exclusion mutuelle afin d’introduire notre contribution décrite au chapitre suivant. Dans la section 6.2 nous donnons un aperçu des différents modèles. Dans les sections 6.3, 6.4 et 6.5 nous présenterons pour chaque modèle, les différents algorithmes existants dans la littérature qui sont bien souvent une extension d’un des algorithmes d’exclusion mutuelle classique décrits en section 2.4. En section 6.6, le lecteur pourra trouver dans la conclusion un schéma récapitulatif des différents modèles. 9192 Chapitre 6. Présentation de l’exclusion mutuelle généralisée 6.2 Généralités et notations Il est possible de généraliser l’exclusion mutuelle classique selon deux critères [Ray92] : • le nombre d’exemplaires de la ressource critique : la ressource existe en k exemplaires. • le nombre de types de ressource : le système possède non pas une seule ressource mais un ensemble R= {r1, r2, ...rM} de M types de ressources Les deux critères étant orthogonaux, il est possible de définir un troisième modèle ultime de généralisation en faisant l’union des deux précédents. On peut donc définir un multi-ensemble de ressources noté (R, κ), où κ défini pour chaque élément de R un nombre d’exemplaires existants. Nous notons Dt si⊆ R l’ensemble de ressources demandées par le site si ∈ Π à l’instant t ∈ T et δ t si la fonction définissant à l’instant t le nombre d’exemplaires demandés par si pour chaque ressource r ∈ Dt si . L’ensemble de ressources demandées à l’instant t par le site si est donc le multi-ensemble noté (Dt si , δt si ) que l’on notera (D, δ) t si . La généralisation implique que désormais tout processus si devra préciser lors de l’appel à la primitive Request_CS à l’instant t, le multi-ensemble (D, δ) t si associé à sa requête pour entrer en section critique. Cette primitive sera bloquante jusqu’à l’acquisition de l’ensemble des exemplaires demandés de chaque type de ressource. Lors de l’appel à la primitive Release_CS, les exemplaires obtenus seront libérés. 6.3 Le modèle à une ressource en plusieurs exemplaires Dans ce modèle M = 1 et κ = k où k ≥ 1. Il y a donc au plus k processus en section critique à un instant t. Il est possible de sous-diviser ce modèle en fonction de (D, δ) t si . 6.3.1 Section critique à entrées multiples ou k-mutex Dans ce modèle de demande, les processus ne peuvent demander qu’un seul exemplaire de la ressource (δ t si = 1, ∀t ∈ T). Ceci est similaire à un sémaphore. Il existe de nombreux algorithmes qui peuvent être classés de la manière suivante : • Permissions : les processus attendent un message de permission de chaque processus du système pour entrer en section critique. On peut citer l’algorithme de Raymond [Ray89a] qui s’inspire de l’algorithme de Ricart-Agrawala [RA81]. Pour entrer en section critique, un site envoie N − 1 messages de requête et attend N − k messages de permission. • Jetons : Il existe k jetons dans le système. Les processus attendent l’acquisition d’un des jetons pour entrer en section critique. Comme dans l’exclusion mutuelle classique, l’obtention d’un jeton peut reposer sur une diffusion ou sur l’exploitation d’une structure logique : ∗ diffusion : Srimani-Reddy [SR92] se sont basés sur l’algorithme de Suzuki-Kasami [SK85]. Baldoni-Ciciani [BC94] ont étendu [SR92] aux requêtes à priorités. ∗ arbre statique : basé sur la circulation de k jetons dans la topologie, chaque site maintient k liens qui indiquent la direction de la racine qui est soit le détenteur6.3. Le modèle à une ressource en plusieurs exemplaires 93 d’un jeton (DeMent-Srimani [DS94] et Satyanarayanan-Muthukrishnan [SM94]) soit le dernier demandeur (Naimi [Nai93]). À chaque nouvelle requête les sites envoient une requête à chacun de leurs pères et se mettent en attente d’un des jetons. Les requêtes sont ainsi propagées jusqu’aux racines. Le routage des jetons se fait toujours à la manière de l’algorithme classique de Raymond [Ray89b]. Afin d’éviter la réception multiple de jetons venant des différents liens, des mécanismes d’annulation de requêtes peuvent être déclenchés ([DS94]) lorsque le site demandeur entre en section critique. ∗ arbre dynamique : Dans ce genre de topologie, les différents liens évoluent au cours de l’exécution de l’algorithme contrairement à l’arbre statique où seule la direction des liens peut s’inverser. Dans cette catégorie nous pouvons citer [MBB+92] qui utilise un unique jeton contenant une file globale des requêtes pendantes, alors que [BV95] et [RMG08] se basent sur l’algorithme de Naimi-Tréhel [NT87a] et utilisent k jetons où l’accès à chaque jeton est géré par une file distribuée. • Hiérarchique centralisé : Dans cette catégorie, les processus sont partitionnés en plusieurs groupes. Chaque processus ne peut communiquer qu’avec un processus du même groupe. Dans chaque groupe il existe un processus mandataire permettant de communiquer avec les autres mandataires et de facto avec le reste du système. Une telle répartition permet de répartir les processus en fonction de leur localité physique. Nous pouvons citer l’algorithme de Chaudhuri-Edward [CE08] qui répartit les processus en √ N groupes de √ N processus. Chaque groupe est associé à un processus coordinateur qui fait l’intermédiaire entre les deux niveaux de hiérarchie. 6.3.2 Plusieurs exemplaires par demande Désormais les processus peuvent demander au plus k exemplaires de la ressource (formellement δ t si ≥ 1, ∀t ∈ T). Dans ce sous-modèle on ne trouve que des algorithmes à permissions : • L’ algorithme de Raynal [Ray91a] se base sur l’algorithme de Ricart-Agrawala [RA81] qui ordonnance les requêtes selon une horloge logique de Lamport [Lam78]. Chaque site maintient un vecteur de N compteurs où chaque entrée e indique du point de vue du site courant le nombre d’exemplaires possédés par le site se. Chaque nouvelle requête induit une diffusion de messages de requête contenant le nombre d’exemplaire voulu et une mise à jour pessimiste du vecteur en incrémentant de k chaque compteur. À la réception d’un message de requête, un site sj envoie une réponse contenant le nombre d’exemplaires non utilisés (k si la requête de sj est moins prioritaire, k − δ t sj sinon). À chaque réception de réponse un site décrémente du nombre reçu le compteur correspondant et peut entrer en section critique lorsque la somme des compteurs du vecteur et de δ t si est inférieure à k. • L’algorithme de Baldoni [Bal94] est une extension de l’algorithme à permissions d’arbitres de Maekawa [Mae85] se basant sur des quorums. En construisant judicieusement les quorums, sa complexité en messages est de O(Nk/(k+1)) (pour k = 1, on retrouve la complexité de l’algorithme de Maekawa en O( √ N)).94 Chapitre 6. Présentation de l’exclusion mutuelle généralisée Figure 6.1 – Exemple de construction de graphe de conflit 6.4 Le modèle à plusieurs ressources en un seul exemplaire Dans ce modèle M ≥ 1 et κ = 1 impliquant que le multi-ensemble de ressources (R, κ) se réduit à l’ensemble R. Par conséquent, le multi-ensemble de demande de ressources (Dt si , δt si ) sera réduit à l’ensemble Dt si . Ce problème multi-ressource, aussi appelé "ANDsynchronisation" a été introduit par Dijkstra [Dij71] avec le problème du "Dîner des philosophes" où les processus demandent un ensemble de ressources statiques ( ∀ t, t0 ∈ T, Dt si = D t 0 si ). Ce problème a été étendu par Chandy et Misra [CM84] sous le nom du problème du "cocktail des philosophes" où les processus peuvent demander à chaque nouvelle requête un ensemble de ressources différent. 6.4.1 Les conflits Dans le cadre de ce modèle, les requêtes peuvent être conflictuelles si leurs ensembles de ressources ne sont pas disjoints. Autrement dit, un conflit existe entre deux processus si et sj si Dt si ∩ Dt sj 6= ∅. Il est possible alors de définir un graphe de conflits noté G où les nœuds correspondent aux processus du système et un lien modélise le partage d’une ressource entre deux nœuds. La construction d’un tel graphe se fait par l’union des graphes de conflits complets Gi associé à chaque ressource ri ∈ R. La figure 6.1 montre la construction d’un graphe de conflits à partir de 4 ressources et de 6 processus. Dans le graphe de conflits G, chaque arrête représente désormais une ressource virtuelle qui est partagée par exactement deux processus. Dans le problème du dîner des philosophes, pour qu’un site sk verrouille la ressource réelle ri ∈ R, il lui faut donc verrouiller toutes les ressources virtuelles correspondantes aux arrêtes (sk, s0 k ) du graphe Gi . Dans notre exemple, si s5 souhaite verrouiller la ressource r4, il a besoin des ressources virtuelles (s5,s3) et (s5,s4). Un graphe de conflits peut s’appliquer à plusieurs ensembles de ressources R de départ : dans notre exemple, pour un graphe de conflits équivalent, on aurait pu aussi considérer un ensemble de ressources réelles égal à l’ensemble des arrêtes du graphe G.6.4. Le modèle à plusieurs ressources en un seul exemplaire 95 6.4.2 Propriétés à respecter Sûreté. Contrairement à l’exclusion mutuelle classique, la propriété de sûreté doit être modifiée afin d’autoriser que deux processus non-conflictuels puissent être tous les deux à un instant t à l’état inCS. Par conséquent, à un instant donné, une ressource peut être utilisée par au plus un processus. Formellement : ∀t ∈ T, ∃si ∈ Π, inCSt si ⇒ @sj ∈ Π, inCSt sj ∧ D t si ∩ D t sj 6= ∅ Vivacité. La définition de la propriété de vivacité reste inchangée et permet d’éviter la famine. Cependant, pour qu’elle soit respectée, il faut que deux sous-propriétés soient vérifiées : • La distinguabilité : cette propriété assure que si deux requêtes sont conflictuelles alors il est toujours possible de déterminer dans un temps fini un ordre de satisfaction entre ces deux requêtes. Assurer un accès exclusif à chaque ressource du système n’est pas suffisant pour garantir cette propriété car les accès aux ressources seraient gérés de manière indépendante les uns des autres sans prendre en compte l’ensemble Dt si qui les lie. Par conséquent, le non-respect de cette propriété peut conduire à un état d’interblocage dans lequel aucune progression n’est possible. Dans notre modèle, un interblocage peut se produire par exemple lorsque deux processus sont chacun en train d’attendre la libération d’une ressource verrouillée par l’autre. • l’équité : permet d’assurer que dans un temps fini, toute requête émise sera satisfaite (propriété de base pour la vivacité). Concurrence. Cette propriété assure que deux processus ayant des requêtes non conflictuelles peuvent exécuter leurs sections critiques simultanément. Cette propriété exclut ainsi toute solution qui utiliserait un algorithme d’exclusion mutuelle classique où l’ensemble des ressources R représenterait une seule ressource. 6.4.3 Algorithmes incrémentaux. Dans cette famille d’algorithme chaque processus verrouille de manière incrémentale ses ressources suivant un ordre préalablement défini sur l’ensemble des ressources du système R. Chaque verrou peut être implémenté avec un algorithme d’exclusion mutuelle classique. Cependant, une telle stratégie peut être inefficace puisqu’un effet domino des attentes peut se produire : un processus attend des ressources qui ne sont pas en cours d’utilisation mais qui sont verrouillées par des processus qui attendent l’acquisition d’autres ressources. L’effet domino dégrade la propriété de concurrence et par conséquent réduit fortement le taux d’utilisation des ressources. La figure 6.2 illustre cet effet dans un graphe de conflits en anneau à 7 processus. Pour éviter l’effet domino, Lynch [Lyn81] propose de construire un graphe dual au graphe de conflit : les nœuds sont les ressources et il existe un lien entre deux nœuds si les deux ressources correspondantes sont susceptibles d’être demandées au sein d’une même requête. En coloriant ce graphe et en minimisant le nombre de couleurs, il est possible96 Chapitre 6. Présentation de l’exclusion mutuelle généralisée Graphe de conflits initial : 6 processus et un ensemble R = {r1, r2, r3, r4, r5, r6} où ri < rj si i < j. s2 est en section critique avec r6 et r1. Les processus s3 et s5 verrouillent respectivement r5 et r3 et attendent respectivement r6, et r4. Les processus s4 et s6 verrouillent r4, r2 et attendent respectivement r5 et r3 à cause de s3 et s5 alors qu’ils auraient pu entrer en section critique en même temps que s2. L’effet domino séquentialise les requêtes. Figure 6.2 – Exemple illustrant l’effet domino alors de définir un ordre partiel sur l’ensemble des ressources du système si on définit un ordre total sur l’ensemble des couleurs. Les processus demanderont alors les ressources dans l’ordre des couleurs associées. Ceci réduit l’effet domino et améliore l’exploitation du parallélisme. Cependant le coloriage de graphe est un problème NP-complet et il est difficile de trouver un coloriage optimal. Styer et Peterson [SP88] ont proposé une solution en considérant un coloriage quelconque (de préférence optimisé) pour réduire le temps d’attente avec un mécanisme d’annulation de verrouillage : un processus peut libérer une ressource (ou une couleur) même si il ne l’a pas encore utilisée. Ceci permet de casser dynamiquement les possibles chaînes de processus en attente causées par l’effet domino. Ainsi, un processus peut libérer toutes ou une partie de ses ressources acquises et essayer ensuite de les réacquérir jusqu’à satisfaction de la requête. 6.4.4 Algorithmes simultanés Dans cette famille d’algorithme, les ressources ne sont plus ordonnées. Les algorithmes ont des mécanismes internes pour éviter les interblocages et permettre de verrouiller l’ensemble des ressources requises de manière atomique. Chandy et Misra [CM84] ont décrit le problème du cocktail des philosophes où les processus (les philosophes) partagent un ensemble de ressources (les bouteilles). Ce problème est une extension du problème du dîner des philosophes ([Dij71]) où les processus partagent un ensemble de fourchettes. Le problème du cocktail des philosophes permet au site de demander un ensemble de ressources différent à chaque nouvelle requête contrai-6.4. Le modèle à plusieurs ressources en un seul exemplaire 97 rement au problème du dîner des philosophes où les processus demandent en permanence le même ensemble de ressources. Le graphe de communication correspond directement au graphe des conflits et implique de le connaître a priori. Chaque processus partage une bouteille ou une fourchette (en fonction du problème considéré) avec chaque voisin. En orientant le graphe des conflits, il en résulte un graphe de précédence. Si les circuits sont évités dans ce graphe de précédence, les interblocages ne peuvent pas se produire. Il a été montré que le problème du dîner des philosophes respecte cette acyclicité. Cependant ceci n’est pas le cas pour le problème du cocktail. Chandy et Misra ont adapté le problème du cocktail en utilisant les procédures du dîner : pour verrouiller un sous-ensemble de bouteilles, un processus doit acquérir préalablement toutes les fourchettes de ses voisins avant de demander les bouteilles requises. Les fourchettes peuvent être vues comme des ressources auxiliaires et sont libérées lorsque le processus a obtenu toutes ses bouteilles. La phase d’acquisition des fourchettes sert à sérialiser les requêtes de bouteilles dans le système. Cette sérialisation évite les circuits dans le graphe de précédence et supprime par conséquent les interblocages. Ginat et al. [GSA89] ont remplacé la phase d’acquisition des fourchettes de l’algorithme de Chandy-Misra par une horloge logique [Lam78]. Lorsqu’un processus demande des ressources, il estampille sa requête par une horloge logique et envoie un message à chaque voisin concerné. À la réception d’une requête, la bouteille associée est envoyée immédiatement au demandeur si l’estampille de la requête est plus petite que l’horloge du receveur. L’association d’une horloge logique et d’un ordre total sur les identifiants des processus permet de définir un ordre total sur les requêtes évitant ainsi les interblocages. Dans [Rhe95, Rhe98] Rhee propose un ordonnanceur où chaque processus gère l’ordre d’attribution d’une des ressources. Chaque processus gérant une ressource maintient une file d’attente qui peut être réordonnancée en fonction des nouvelles requêtes pendantes. Les interblocages sont ainsi évités. Maddi [Mad97] a proposé un algorithme basé sur un mécanisme de diffusion. Chaque ressource est représentée par un unique jeton. À chaque demande, un processus diffuse aux autres processus un message de requête estampillé par une horloge logique. À sa réception, la requête est stockée dans une file locale triée selon les estampilles temporelles. Cet algorithme peut être vu comme plusieurs instances de l’algorithme d’exclusion mutuelle classique de Suzuki-Kasami [SK85]. L’algorithme de Bouabdallah-Laforest [BL00] est plus détaillé que les précédents car il nous servira par la suite de base de comparaison. Cet algorithme est basé sur la circulation de jetons entre les processus. Chaque ressource est représentée par un unique jeton et est associée à une file d’attente distribuée dont le premier élément est le possesseur du jeton. Avant de demander un ensemble de ressources, le processus doit d’abord obtenir un unique jeton de contrôle. L’algorithme d’exclusion mutuelle gérant ce jeton de contrôle est l’algorithme de Naimi-Tréhel [NT87a]. Un jeton protégeant une ressource peut être possédé par un processus ou être directement stocké dans le jeton de contrôle si il n’est pas utilisé. Le jeton de contrôle contient donc un vecteur de M entrées. Si un jeton de98 Chapitre 6. Présentation de l’exclusion mutuelle généralisée ressource n’est pas dans le jeton de contrôle, l’entrée correspondante du vecteur indique l’identifiant du dernier processus ayant demandé cette ressource. Ainsi, lorsqu’un site reçoit le jeton de contrôle, il prend les jetons associés aux ressources requises inutilisées et envoie pour chaque jeton manquant un message INQUIRE au dernier demandeur. Avant de libérer le jeton de contrôle, le processus attend un message d’acquittement (message INQACK1) de chaque processus à qui un message INQUIRE a été envoyé. Un message d’acquittement, peut contenir plusieurs jetons de ressource si l’envoyeur ne les utilise pas. Un processus recevant un message INQUIRE affecte l’identifiant de l’envoyeur dans les variables next permettant de maintenir les différentes files distribuées. Ainsi lorsqu’un processus libère les jetons de ressources en sortant de section critique, il envoie directement la ressource dans un message INQACK2 aux sites pointés par les variables next des ressources correspondantes. Le jeton de contrôle permet de sérialiser les requêtes ce qui assure qu’une requête sera enregistrée de manière atomique dans les différentes files d’attente distribuées. Ainsi, aucun cycle n’est possible dans l’union des files. La complexité en messages de cet algorithme est de O(Log(N)). Autres algorithmes. Des extensions du problème multi-ressource ont été proposées pour prendre en compte des systèmes dynamiques où l’ensemble des processus peut changer durant l’exécution de l’algorithme. Awerbuch et Saks [AS90] proposent le maintien d’une file d’attente globale qui peut être implémentée de manière centralisée ou distribuée. BarIlan et Peleg [BIP92] ont étendu la solution de Awerbuch-Saks pour améliorer le temps d’attente dans une version centralisée. Enfin, Weidman et al. [WPP91] ont adapté l’algorithme de Chandy-Misra. 6.5 Le modèle à plusieurs ressources en plusieurs exemplaires Ce modèle de verrouillage de ressources est le plus général. Il fait l’union des deux modèles précédemment décrits en sections 6.3 et 6.4. Il est généralement trivial de transformer un algorithme du modèle de plusieurs ressources à un seul exemplaire vers le modèle à plusieurs ressources en plusieurs exemplaires. En effet, la principale difficulté du multi-ressource est de résoudre le problème des interblocages. Comme le modèle de plusieurs ressources à un seul exemplaire résout ce problème, il suffit en général pour les algorithmes à jeton de transformer des booléens (présence ou pas du jeton) en compteurs (représentant un nombre d’exemplaires). Ainsi, il existe une extension possible sans dégradation de la complexité en messages de l’algorithme de Ginat et al. [GSA89] qui prend en compte plusieurs bouteilles par lien implémentée grâce à des compteurs. De même [Mad97] et [BL00] peuvent être étendus en remplaçant leurs jetons par des compteurs. Cependant, il n’est pas certain que ces transformations triviales résultent en une solution optimale. Il existe aussi une extension possible à partir du modèle de plusieurs exemplaires d’une seule ressource. Cette extension se fait à partir de l’algorithme de Raynal [Ray91a] où chaque site diffuse pour chaque type de ressource voulue, un message de requête contenant6.6. Conclusion et synthèse 99 le nombre d’exemplaires requis. Il y a cependant une dégradation de la complexité en messages qui devient O((2N − 1) ∗ M). 6.6 Conclusion et synthèse Nous avons présenté dans ce chapitre les différents modèles de généralisation de l’exclusion mutuelle. Il est possible de généraliser soit par le nombre d’exemplaires de la ressource soit par le nombre de types de ressource. La figure 6.3 schématise les différents modèles de généralisation recensés dans ce chapitre. Figure 6.3 – Schéma récapitulatif de la généralisation de l’exclusion mutuelle distribuée100 Chapitre 6. Présentation de l’exclusion mutuelle généraliséeChapitre 7 Verrouiller efficacement les ressources sans connaissance préalable des conflits Sommaire 7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 7.2 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 7.3 Suppression du verrou global . . . . . . . . . . . . . . . . . 104 7.3.1 Mécanisme de compteurs . . . . . . . . . . . . . . . . . . . 104 7.3.2 Ordonnancement total des requêtes . . . . . . . . . . . . . 104 7.4 Évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 7.4.1 Protocole d’évaluation . . . . . . . . . . . . . . . . . . . . . 105 7.4.2 Résultats sur le taux d’utilisation . . . . . . . . . . . . . . 107 7.4.3 Résultats sur le temps d’attente . . . . . . . . . . . . . . . 109 7.5 Ordonnancement dynamique . . . . . . . . . . . . . . . . . 109 7.5.1 Principes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 7.5.2 Évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 7.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 7.1 Introduction Le chapitre précédent a présenté les différentes façons de généraliser le problème de l’exclusion mutuelle. Ce chapitre décrit une contribution dans le modèle à plusieurs ressources en un seul exemplaire (voir section 6.4) qui est facilement généralisable au cas d’exemplaires multiples. Dans ce modèle, la plupart des solutions de la littérature supposent que le graphe des conflits est connu a priori et ne change jamais pendant l’exécution de l’algorithme ce qui induit une hypothèse forte et irréaliste sur le système. Ces solutions peuvent néanmoins fonctionner sans connaissance préalable du graphe de conflits en considérant de façon pessimiste un graphe complet. Cependant une telle considération induit un coût de synchronisation élevé et dégrade le taux d’utilisation des ressources : 101102 Chapitre 7. Verrouiller efficacement les ressources sans connaissance préalable des conflits • Les algorithmes de la famille incrémentale sont très pénalisés par un effet domino inévitable des attentes car il est impossible de colorier de manière optimale un graphe complet (théorème de Brooks [Bro87], théorie des graphes). • Les algorithmes de la famille simultanée font communiquer des processus qui ne rentrent pas en conflit et qui n’ont donc aucune raison d’interagir entre eux. Les algorithmes du cocktail des philosophes de Chandy-Misra [CM84] et de Ginat-ShankarAgrawala [GSA89] utilisent dans le cas d’un graphe complet, un algorithme de diffusion (acquisition des ressources auxiliaires pour l’un et enregistrement des requêtes pour l’autre) impliquant en plus d’un coût de synchronisation élevé, une forte complexité en messages. Enfin, l’algorithme de Bouabdallah-Laforest [BL00] utilise une section critique de contrôle (verrou global) impliquant un goulot d’étranglement. Dans ce chapitre nous proposons donc une solution permettant de verrouiller efficacement des ressources en réduisant le coût des synchronisations sans connaître a priori le graphe des conflits. Notre solution n’utilise pas de mécanisme de diffusion et limite la communication entre processus non conflictuels. Dans la section 7.2, nous présentons les objectifs de cette contribution. La section 7.3 décrit un mécanisme supprimant la communication entre processus non conflictuels. L’implémentation distribuée de ce mécanisme est donnée en annexe A du manuscrit. L’évaluation de performance de ce mécanisme est donnée en section 7.4. La section 7.5 présente l’idée d’un mécanisme de préemption permettant d’améliorer le taux d’utilisation des ressources. 7.2 Objectifs Puisque l’on considère un graphe de conflits inconnu, il est difficile de s’appuyer sur un algorithme de la famille incrémentale (cf. section 6.4.3) car leurs performances dépendent des techniques coûteuses de coloration de graphe. Par conséquent, notre choix s’est porté sur la famille simultanée (cf. section 6.4.4). Ces algorithmes ont un point commun : ils possèdent un mécanisme permettant d’ordonner totalement les requêtes du système évitant ainsi les cycles dans le graphe de précé- dence et donc les interblocages. Ce mécanisme associe un identifiant unique à toute requête quel que soit son ensemble de ressources. En définissant un ordre total sur ces identifiants, on obtient facilement un ordonnancement sans interblocage. Chandy-Misra [CM84] s’appuie sur un algorithme de "Dîner des philosophes", [GSA89] et [Mad97] utilisent des horloges logiques et Bouabdallah-Laforest [BL00] utilise une section critique de contrôle. Cependant, l’utilisation d’horloge logique est généralement associée à un mécanisme de diffusion impliquant une forte complexité en messages, ce qui est problématique pour un passage à l’échelle. Les solutions de Chandy-Misra et de Bouabdallah-Laforest utilisent une section critique de contrôle : pour Chandy-Misra, le "dîner" dans un graphe complet est équivalent à l’algorithme d’exclusion mutuelle classique de Ricart-Agrawala [RA81], et l’algorithme de Bouabdallah-Laforest utilise l’algorithme de Naimi-Tréhel [NT87a]. L’algorithme de Ricart-Agrawala est basé sur des permissions et utilise aussi un mécanisme de diffusion (complexité en messages de O(2N − 1)) alors que l’algorithme de Naimi-Tréhel est basé sur la circulation d’un jeton dans un arbre dynamique (complexité en messages de7.2. Objectifs 103 O(log(N))). L’algorithme de Bouabdallah-Laforest apparaît aujourd’hui comme le plus efficace. On peut le décomposer en deux grandes étapes : • Première étape : obtenir la section critique de contrôle. • Deuxième étape : demander toutes les ressources nécessaires, attendre un acquittement et enfin libérer la section critique de contrôle de la première étape. Bien que cet algorithme ait une bonne complexité en messages, il possède néanmoins deux limites qui dégradent le taux d’utilisation des ressources : • deux processus non conflictuels doivent communiquer ensemble par le biais du jeton de contrôle impliquant un surcoût en synchronisation, • l’ordonnancement des requêtes est statique : il dépend uniquement de l’ordre d’acquisition de la première étape (cette remarque est aussi valable pour les algorithmes avec horloge logique). En effet, il est impossible de revenir sur l’ordre de verrouillage. Une requête ne peut pas préempter une autre requête qui a eu le jeton de contrôle avant ce qui peut être problématique si on souhaite changer l’ordonnancement dynamiquement. Nous avons donc deux objectifs : • éviter l’utilisation d’un verrou global pour éviter la communication entre deux processus non conflictuels, • pouvoir ordonnancer dynamiquement les requêtes. La figure 7.1 illustre sous la forme d’un diagramme de Gantt l’impact de nos deux objectifs sur le taux d’utilisation des ressources dans un système à 5 ressources : • la suppression du verrou global permet de réduire le temps entre deux sections critiques conflictuelles successives. • le mécanisme d’ordonnancement dynamique permet de donner l’accès aux ressources à des processus dans les intervalles de temps où les ressources ne seraient pas utilisées dans le cas d’un ordonnancement statique (Figure 7.1(c)) On peut ainsi satisfaire le même ensemble de requêtes dans un intervalle de temps plus petit. (a) Avec verrou global avec ordonnancement statique (b) Sans verrou global avec ordonnancement statique (c) Sans verrou global avec ordonnancement dynamique Figure 7.1 – Illustration de l’impact des objectifs sur le taux d’utilisation104 Chapitre 7. Verrouiller efficacement les ressources sans connaissance préalable des conflits 7.3 Suppression du verrou global Dans cette section, nous décrivons de manière globale notre mécanisme permettant de supprimer le verrou global tout en assurant une sérialisation des requêtes. 7.3.1 Mécanisme de compteurs Le but du jeton de contrôle est de donner un ordre de passage commun sur l’ensemble des files d’attentes associées aux ressources. Pour supprimer le verrou global, nous proposons d’utiliser un compteur par ressource. Ces derniers donneront un ordre de passage par ressource pour chacune des requêtes. Le système maintient donc M compteurs à accès exclusif. Dans notre cas, les compteurs sont stockés dans les jetons, un jeton étant associé à chaque ressource. La première étape de notre algorithme consiste à demander la valeur de chaque compteur associé aux ressources requises et de les incrémenter de un : ceci assure une valeur différente à chaque nouvelle lecture. Une fois que le site connaît l’ensemble des compteurs, sa requête peut être associée à un vecteur de M entiers dans l’ensemble INM (les ressources non demandées ont une valeur nulle dans le vecteur). Par conséquent, la requête est définie de manière unique quel que soit l’instant où elle a été émise et quel que soit son ensemble de ressources requises. Ainsi, lors de la seconde étape, le processus pourra demander chaque ressource indépendamment les unes des autres en indiquant ce vecteur. Notons que ce mécanisme de compteur et le mécanisme de verrouillage sont décorrellés. Il est toujours possible de demander la valeur d’un compteur pendant que la ressource associée est utilisée. La figure 7.2 illustre ce mécanisme pour quatre ressources. 7.3.2 Ordonnancement total des requêtes Une requête reqi émise par le site si ∈ Π pour une ressource donnée est associée à deux informations : le site initiateur de la requête (si) et un vecteur vi ∈ INM (voir section 7.3.1 ). Les interblocages sont évités si nous définissons un ordre total sur les requêtes. Nous allons d’abord utiliser un ordre partiel sur l’ensemble des vecteurs en définissant une fonction A : INm → IR qui transforme un vecteur d’entiers en un réel. Puisque A donne un ordre partiel (deux vecteurs peuvent avoir le même réel résultant), nous devons utiliser un ordre total arbitraire ≺ sur Π pour ordonner totalement les requêtes. L’ordre total sur les requêtes est noté / où reqi / reqj ssi A(vi) < A(vj ) ∨ (A(vi) = A(vj )∧si ≺ sj ). Ainsi, en cas de valeur égale par A, le site de plus petit identifiant d’après l’ordre total ≺ sera le plus prioritaire. Bien que ce mécanisme évite les interblocages en assurant que toutes les requêtes sont différentiables, le respect total de la propriété de vivacité dépend aussi de la définition de A. En effet, la famine est évitée si la définition de A assure que toute requête sera dans un temps fini la plus petite dans l’ordre /. La fonction A permet de définir une heuristique donnant une politique d’ordonnancement sur les requêtes. C’est un paramètre de l’algorithme qui peut permettre de favoriser les requêtes en fonction du nombre de ressources utilisées. Notons que si A est bien choisie,7.4. Évaluation 105 État initial : Le système est composé de 4 ressources. Un compteur est associé à chaque ressource. Étape 1 : Le site s1 demande les ressources res1 et res4. Étape 2 : À chaque consultation de compteur, la valeur du compteur est renvoyée au demandeur puis incrémentée. Le vecteur est complété à chaque valeur reçue. Étape 3 : Le site s1 demande indépendamment chaque ressource voulue en indiquant le vecteur. Figure 7.2 – Exemple d’exécution d’obtention des compteurs les cas d’égalité seront peu probables. L’utilisation de l’identifiant du site ne posera donc pas de problème d’équité. 7.4 Évaluation Dans cette section , nous présentons une évaluation de performances de notre algorithme que nous comparons avec deux algorithmes de l’état de l’art. Nous nous intéressons à deux métriques : le taux d’utilisation des ressources et le temps d’attente pour obtenir la section critique. 7.4.1 Protocole d’évaluation Algorithmes considérés Cette section d’évaluation de performances compare : • un algorithme incrémental fixant un ordre prédéfini d’accès aux ressources et utilisant M instances d’algorithme de Naimi-Tréhel avec files locales [NT87b] (cf. section 2.5.2) • l’algorithme de Bouabdallah-Laforest [BL00]106 Chapitre 7. Verrouiller efficacement les ressources sans connaissance préalable des conflits • l’implémentation distribuée de notre mécanisme basé sur les compteurs (voir annexe A) Notre algorithme nécessitant la définition de la fonction A, nous avons choisi de comparer deux politiques : • Politique équitable : La première politique calcule la moyenne des compteurs non nuls : le résultat donne donc un compteur moyen par ressource demandée. • Politique favorisant les petites requêtes Une solution naïve pour améliorer le taux d’utilisation serait d’avoir une définition de A qui favoriserait les requêtes requérant peu de ressources. En effet, ces requêtes ont moins de chances d’être en conflit avec une autre du fait de leurs petites tailles. Dans cette politique, A est égale à la moyenne de l’ensemble des valeurs du vecteur de la requête. Puisque les ressources non requises ont une valeur nulle dans le vecteur, les petites requêtes demandant peu de ressources en seront privilégiées. Dans les deux cas, la famine est impossible car les compteurs augmentent à chaque nouvelle requête impliquant que la valeur minimum de A augmentera également à chaque nouvelle requête. La propriété de vivacité est ainsi toujours respectée. L’avantage du mécanisme de la fonction A réside dans le fait que la famine est évitée seulement grâce à un calcul qui n’implique aucun surcoût en communication. Plate-forme et paramètres d’expérimentation Les expériences ont été menées sur un cluster de 32 machines (Grid5000 Lyon) avec un processus par machine pour éviter les effets de bords de contention sur les cartes réseau. Chaque machine a deux processeurs Xeon 2.4GHz, 32 GB de mémoire RAM et fonctionne sous Linux 2.6. Les machines sont reliées par un switch Ethernet 10 Gbit/s. Les algorithmes ont été implémentées en C++ et OpenMPI avec la version 4.7.2 de gcc. Une application est caractérisée par : • N : le nombre de processus (32 dans notre cas). • M : le nombre total de ressources dans le système (80 dans notre cas). • α : le temps d’exécution de la section critique (variable entre 5 ms et 35 ms selon le nombre de ressources demandées). • β : l’intervalle de temps entre le moment où un processus libère la section critique et le moment où il la redemande. • γ : la latence réseau pour envoyer un message entre deux processus. • ρ : le rapport β/(α + γ), qui exprime la fréquence à laquelle la section critique est demandée. La valeur de ce paramètre est inversement proportionnelle à la charge en requêtes : une valeur basse donne une charge haute et vice-versa. Dans nos expériences, nous avons considéré une charge haute et moyenne. • SizeReq : le nombre maximum de ressources qu’un site peut demander. Ce paramètre est compris entre 1 et M. À chaque nouvelle requête, un processus choisit x ressources uniformément entre 1 et SizeReq. Le temps de section critique de la requête dépend alors de la valeur de x : plus cette valeur est grande et plus le temps de section critique risque d’être grand car nous considérons qu’une requête demandant beaucoup de ressources doit en pratique avoir un7.4. Évaluation 107 plus grand temps de calcul en section critique. 7.4.2 Résultats sur le taux d’utilisation La métrique principale pour l’évaluation des algorithmes est le taux d’utilisation. Cette métrique globale est le pourcentage de temps où les ressources sont utilisées. On peut la voir comme le pourcentage de l’aire colorée des diagrammes de la figure 7.3. Ainsi, la figure 7.3(a) donne un exemple d’exécution où les ressources ne sont pas utilisées efficacement alors que la figure 7.3(b) illustre une exécution avec un meilleur taux d’utilisation (zone blanche moins importante). (a) Exécution peu efficace (b) Exécution efficace Figure 7.3 – Illustration du taux d’utilisation pour l’exclusion mutuelle généralisée Sur les graphiques de la figure 7.4, nous faisons varier en abscisse la taille maximale des requêtes (paramètre SizeReq). Les figures 7.4(a) et 7.4(b) montrent l’impact de ce paramètre sur le taux d’utilisation respectivement en moyenne et haute charge. L’augmentation de la taille maximale fait varier deux facteurs : • la taille moyenne des requêtes qui aura un effet positif sur la métrique : on utilise plus de ressources à chaque section critique • le nombre de conflits qui aura un effet négatif sur la métrique : la parallélisation des requêtes est plus difficile. Performances globales Dans la figure 7.4 nous avons ajouté une courbe témoin représentant un algorithme en mémoire partagée ayant une connaissance globale des nouvelles requêtes émises et un coût de synchronisation nul. Cette connaissance globale lui permet d’ordonnancer les requêtes afin d’utiliser au mieux les ressources. Ainsi, l’écart avec cette courbe donnera le coût de synchronisation des algorithmes. En cas de charge moyenne, nous pouvons voir que l’impact des conflits est toujours moins important que le facteur taille (les courbes augmentent en permanence). En revanche, nous remarquons qu’en forte charge le comportement global passe par trois phases :108 Chapitre 7. Verrouiller efficacement les ressources sans connaissance préalable des conflits 0 10 20 30 40 50 60 10 20 30 40 50 60 70 80 taux d’utilisation des ressources (%) Taille maximale des requêtes Incremental Bouabdallah Laforest Politique equitable Petites requetes prioritaires en mémoire partagée (a) Taux d’utilisation en moyenne charge 0 10 20 30 40 50 60 10 20 30 40 50 60 70 80 taux d’utilisation des ressources (%) Taille maximale des requêtes Incremental Bouabdallah Laforest Politique equitable Petites requetes prioritaires en mémoire partagée (b) Taux d’utilisation en haute charge Figure 7.4 – Impact sur le taux d’utilisation • en cas de petites requêtes : la courbe augmente car le facteur de la taille moyenne est plus important que le facteur conflit. • en cas requêtes de taille inférieure à la moyenne : le facteur conflit reprend le dessus sur le facteur taille. • en cas de requête de taille supérieure à la moyenne : la courbe augmente de nouveau grâce au facteur taille qui redevient plus important que le facteur conflit. Les requêtes de taille moyenne sont donc les plus coûteuses en matière de taux d’utilisation car leur taille est assez grande pour générer des conflits mais trop insuffisante pour avoir un taux d’utilisation important. Performances des algorithmes distribués Une première remarque sur ces résultats, est que l’algorithme incrémental ne suit en aucun cas le comportement global du taux d’utilisation. En effet, il ne fait que diminuer à cause de l’effet domino. L’algorithme de Bouabdallah-Laforest ne profite pas du parallélisme potentiel lorsqu’il y a peu de conflits à cause de sa section critique de contrôle qui est très coûteuse en synchronisation. De manière générale, notre algorithme permet d’avoir un meilleur taux d’utilisation car il réduit les communications entre processus non conflictuels. On peut remarquer une différence entre les deux politiques : la deuxième politique donnant une priorité aux petites requêtes a un taux d’utilisation moins important que la première politique lorsque la taille maximale augmente. Ceci s’explique par le fait que les requêtes de tailles moyennes (les plus coûteuses en termes de dégradation du taux d’utilisation comme nous avons pu le voir précédemment) sont privilégiés par rapport aux requêtes de taille plus importante qui sont dans cette politique moins prioritaires alors qu’elles maximisent l’utilisation des ressources. Ainsi, on pouvait penser que favoriser les requêtes de petites tailles améliorerait le taux d’utilisation grâce à leurs faibles impacts en termes de conflits. Cette solution n’est donc pas satisfaisante.7.5. Ordonnancement dynamique 109 7.4.3 Résultats sur le temps d’attente Dans la figure 7.5, nous montrons le temps d’attente moyen pour entrer en section critique (figures 7.5(b) et 7.5(a)) ainsi que le temps d’attente par taille de requêtes (fi- gures 7.5(d) et 7.5(c)). Nous n’indiquons pas les performances de l’algorithme incrémental car l’effet domino le pénalise énormément comme nous avons pu le remarquer dans les précédentes courbes : le temps d’attente moyen des points considérés est trop important par rapport au temps de l’expérience. Nous pouvons remarquer dans les figures 7.5(b) et 7.5(a) que nos deux politiques ont un temps d’attente moyen plus faible que l’algorithme de Bouabdallah-Laforest grâce à leur coût de synchronisation plus faible. Cependant ce dernier a une variance moins importante. Ceci s’explique par le fait que cet algorithme est très équitable : on peut en effet remarquer sur les figures 7.5(d) et 7.5(c) que le temps d’attente est similaire entre les différentes tailles de requête. Cette équité est due au mécanisme d’acquisition du jeton de contrôle qui ne permet aucune préemption entre les différentes requêtes. La politique favorisant les petites requêtes a une grande variance comparée à la politique équitable. En effet, puisqu’elle se base sur un ordonnancement similaire à un algorithme à priorité, nous pouvons remarquer dans les figures 7.5(d) et 7.5(c) que les grandes requêtes ont un temps d’attente très grand par rapport aux petites requêtes. Bien que la politique équitable soit la plus performante, on peut remarquer qu’elle ne favorise pas les petites requêtes dans son ordonnancement. En effet, on peut constater que ces requêtes sont plus pénalisées : leur temps d’attente moyen est le plus important. Cependant, leur variance est également importante. En effet, dans cette politique, l’ordre d’accès d’une requête concernant une seule ressource dépend de la valeur du compteur correspondant. La moyenne n’est donc calculée qu’à partir de cette unique valeur qui peut varier selon la popularité de la ressource demandée : une ressource très populaire aura une valeur de compteur importante par rapport à d’autres ressources moins populaires. 7.5 Ordonnancement dynamique Dans cette section nous décrivons le principe du mécanisme de préemption permettant d’ordonnancer les requêtes dynamiquement. 7.5.1 Principes Pour améliorer le taux d’utilisation des ressources, il peut paraître intéressant d’introduire un mécanisme de "prêt". En effet dans bien des cas les ressources sont acquises progressivement pour n’être réellement utilisées qu’une fois l’ensemble des jetons acquis. De nombreuses ressources sont ainsi verrouillées par des sites ne pouvant pas entrer en section critique, limitant d’autant le taux d’utilisation des ressources partagées. L’idée de l’ordonnancement dynamique serait de limiter la détention des ressources aux seules sections critiques, en offrant la possibilité de prêter des ressources inutilement possédées. L’introduction de "prêt" n’est cependant pas triviale, puisqu’elle remet en cause la propriété de vivacité : une ressource acquise puis prêtée ne permet plus d’entrer en section critique. L’algorithme nécessitera donc des mécanismes complexes qui pourront110 Chapitre 7. Verrouiller efficacement les ressources sans connaissance préalable des conflits 0 200 400 600 800 1000 1200 1400 Temps de reponse moyen (en ms) BouabdallahLaforest equitable priorite_petite_req (a) Temps d’attente moyen en moyenne charge 0 200 400 600 800 1000 1200 1400 Temps de reponse moyen (en ms) BouabdallahLaforest equitable priorite_petite_req (b) Temps d’attente moyen en haute charge 0 200 400 600 800 1000 1200 1400 Temps de reponse moyen (en ms) . Bouabdallah_Laforest equitable priorite_petite_req 1res 17res 33res 49res 65res 80res (c) Temps d’attente moyen par taille de requête en moyenne charge 0 200 400 600 800 1000 1200 1400 Temps de reponse moyen (en ms) . Bouabdallah_Laforest equitable priorite_petite_req 1res 17res 33res 49res 65res 80res (d) Temps d’attente moyen par taille de requête en haute charge Figure 7.5 – Impact sur le temps d’attente moyen peser sur les performances. Il nous faudra donc veiller à en limiter le surcoût pour espérer gagner globalement sur le taux d’utilisation. Pour assurer la vivacité, le mécanisme de "prêt" doit assurer qu’un site finisse à terme par disposer simultanément de ses ressources précédemment acquises. Il devra ainsi éviter l’éparpillement des ressources et les interblocages dus aux ressources prêtées. Éviter l’éparpillement des ressources Le fait qu’on ne puisse pas assurer qu’un processus possédera l’ensemble des ressources requises induit des famines. Pour palier à ce problème, on peut introduire un mécanisme de compteurs qui permet de borner le nombre de prêts et ainsi assurer dans un temps fini que l’on ne prêtera plus de ressource. Cependant, les latences induites pourraient rendre inefficace l’algorithme. Nous proposons donc un mécanisme simple en restreignant le prêt à un seul site à la fois. Le processus prêteur est ainsi assuré de réacquérir et en temps fini toutes les ressources prêtées puisque le temps de section critique de l’emprunteur est supposé fini.7.5. Ordonnancement dynamique 111 Éviter les interblocages dus aux ressources prêtées Le fait d’emprunter des ressources à plusieurs sites peut induire des cycles dans les files d’attente ce qui conduit à des interblocages. Pour régler le problème il serait envisageable d’avoir un mécanisme de prêt à deux phases mais ceci serait trop complexe et induirait des latences trop grandes. Nous proposons donc un mécanisme simple en restreignant l’emprunt à un seul site uniquement s’il possède toutes les ressources manquantes. Un site rentrera directement en section critique à la réception des ressources prêtées. 7.5.2 Évaluation Ce mécanisme n’a pas été implémenté dans notre algorithme distribué. Nous l’avons cependant développé dans un simulateur en mémoire partagée,i.e., sans mécanisme distribué de synchronisation. Cette évaluation a pour but de mesurer le potentiel d’un tel mécanisme de prêt. Nous considérons le même nombre de processus et le même nombre de ressources que la section 7.4 (32 processus et 80 ressources). La figure 7.6 montre les résultats de cette étude pour le taux d’utilisation en fonction de la taille maximale des requêtes en forte charge. Nous comparons l’approche basée sur les prêts avec : • un ordonnancement avec vue globale correspondant à l’algorithme témoin de la section 7.4. • un ordonnancement avec vue locale correspondant à une implémentation en mémoire partagée de l’ordonnancement statique. Figure 7.6 – Évaluation du mécanisme de prêt en mémoire partagée Nous pouvons remarquer que le mécanisme de prêt améliore le taux d’utilisation quelle que soit la taille maximale de requête par rapport à l’ordonnancement à vue locale. Ce gain est le plus important lorsque la taille maximale de requête est comprise entre 5 et 20112 Chapitre 7. Verrouiller efficacement les ressources sans connaissance préalable des conflits ressources. On peut en effet constater dans ces valeurs d’abscisse un gain compris entre 100% et 15%. La taille des petites requêtes rend plus facile la préemption. C’est ce qui explique qu’en cas de grande requête (à partir d’une taille maximale de 40), le gain est réduit et ne dépasse pas 8 %. Cette évaluation donne donc des résultats prometteurs. 7.6 Conclusion Nous avons présenté dans ce chapitre, un nouveau schéma pour verrouiller un ensemble de ressources différentes dans un système distribué. Ce schéma ne nécessite pas de connaître a priori le graphe de conflits et limite la communication entre les processus qui n’ont pas de conflit en remplaçant le verrou global par un mécanisme de compteur. Notre solution améliore le taux d’utilisation des ressources et réduit le temps d’attente moyen. L’ordonnancement des requêtes peut être modifié de manière modulaire grâce à la définition de la fonction A. Nous avons comparé deux politiques d’ordonnancement : une politique classique et une politique donnant priorité aux petites requêtes dans l’idée de privilégier les requêtes qui génèrent moins de conflit. Nous avons pu nous rendre compte que cette politique n’est pas satisfaisante car elle augmente le temps d’attente moyen des grandes requêtes et réduit le taux d’utilisation des ressources par rapport à la première politique. Le mécanisme de compteur n’est cependant pas suffisant pour casser complètement l’effet domino : des attentes en cascades peuvent toujours se produire. Nous proposons d’associer un nouveau mécanisme de prêt en permettant de réordonner dynamiquement les requêtes. Il permet de réduire la probabilité que l’effet domino se produise. Une première évaluation par simulation montre une amélioration du taux d’utilisation. Il serait intéressant d’introduire ce mécanisme dans notre implémentation distribuée afin d’évaluer son coût en synchronisation dans un environnement réel.Quatrième partie Conclusion générale 113Chapitre 8 Conclusion générale Sommaire 8.1 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 8.2 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 8.2.1 Perspectives spécifiques aux contributions . . . . . . . . . . 117 8.2.2 Perspectives globales . . . . . . . . . . . . . . . . . . . . . 117 8.1 Conclusion Cette thèse a abordé le problème fondamental de la synchronisation pour l’accès à des ressources partagées dans les systèmes répartis. Nous avons fait trois contributions sur des extensions du problème de l’exclusion mutuelle distribuée. Nous avons proposé des algorithmes pour gérer la priorité de demande d’accès, prendre en compte des contraintes de temps et traiter plusieurs types de ressources. Les évaluations de ces algorithmes en environnement réel ont montré leur efficacité. Requêtes à priorités : Dans l’étude de l’état de l’art des algorithmes d’exclusion mutuelle à priorité (chapitre 3) nous avons distingué deux familles d’algorithmes : les algorithmes à priorités statiques et ceux à priorités dynamiques. Les approches statiques respectent de manière stricte les priorités fixées par les applications et peuvent donc induire des famines. En revanche, les algorithmes à priorités dynamiques assurent la propriété de vivacité mais génèrent beaucoup d’inversions de priorités dues à l’augmentation trop rapide des petites priorités. Nous avons donc conçu un algorithme reposant sur la circulation d’un jeton dans une topologie d’arbre statique qui lui permet d’avoir une complexité moyenne en messages en O(Log(N)). L’évaluation en environnement réel permet de constater que notre algorithme réduit considérablement le nombre d’inversions de priorités grâce à un mécanisme de retard d’incrémentation paramétrable par une fonction de palier. De plus, nous avons réussi à réduire le surcoût en messages de notre mécanisme d’ajustement dynamique des priorités en prenant en compte la localité des requêtes dans la topologie reliant les nœuds. Dans un second temps, nous avons mis en évidence l’impact 115116 Chapitre 8. Conclusion générale de cette topologie sur le temps de réponse des différentes priorités. Nous avons montré que dans certains cas les temps d’attente étaient énormes pour les requêtes à petites priorités. Nous avons donc proposé un algorithme qui incrémente les priorités en considérant l’ensemble des requêtes émises. Les expériences ont montré que notre algorithme présentait un bon compromis entre le temps d’attente maximum et le nombre d’inversions de priorités. Requêtes à contraintes temporelles : Nous avons ensuite conçu un algorithme se basant également sur la circulation d’un jeton dans une topologie d’arbre statique et permettant de satisfaire des requêtes avant une date d’échéance. Cette extension de l’exclusion mutuelle permet de répondre à des contraintes temporelles (SLA) pour l’accès aux ressources que l’on peut trouver dans les systèmes de réservation de ressources des Clouds. Pour éviter la violation de SLA, i.e., les requêtes satisfaites après leur date d’échéance, notre algorithme fait un contrôle d’admission des requêtes et les ordonnance selon une politique Earliest Deadline First. Nos évaluations ont permis de constater que la politique d’admission choisie minimisait la quantité de violations. Cependant, nous avons pu constater que la politique d’ordonnancement EDF dans une topologie statique dégradait le taux d’utilisation de la ressource critique. Un mécanisme de préemption a donc été ajouté. Il permet d’utiliser au mieux le jeton lors de son transfert dans la topologie sans générer de violations. Cette préemption est paramétrable par un entier et permet d’améliorer jusqu’à 70% le taux d’utilisation. Requêtes à plusieurs ressources : En dernier lieu, nous avons proposé un algorithme d’exclusion mutuelle généralisée permettant de verrouiller un ensemble de ressources hé- térogènes. Par rapport à une grande majorité des solutions que l’on peut trouver dans la littérature, notre algorithme ne nécessite pas de connaître à l’avance le graphe des conflits liant les requêtes. De plus notre solution réduit les coûts de synchronisation en évitant que deux processus non conflictuels communiquent entre eux. Les évaluations d’une implémentation distribuée de notre mécanisme sur la plateforme nationale Grid5000 ont montré qu’il était possible d’améliorer le taux d’utilisation des ressources d’un facteur 1 à 10 par rapport aux algorithmes de l’état de l’art et de réduire le temps d’attente moyen des requêtes. Dans un second temps nous avons simulé en mémoire partagée un ordonnancement dynamique. Les expériences ont montré qu’un gain en termes de taux d’utilisation est possible en particulier lorsque la taille moyenne des requêtes reste faible. 8.2 Perspectives Cette section traite des différentes perspectives de travail de cette thèse. Nous aborderons les perspectives spécifiques aux contributions dans un premier temps et nous traiterons des perspectives globales de la thèse dans un second temps.8.2. Perspectives 117 8.2.1 Perspectives spécifiques aux contributions Requêtes à contraintes temporelles Dans notre étude nous avons proposé un contrôle d’admission avec des dates d’échéance strictes qui ne faisait pas de surréservation dans les décisions locales. Il serait alors possible de considérer une politique plus souple qui accepterait plus de requêtes avec une marge d’erreur paramétrable. Il serait donc intéressant d’étudier l’impact de cette marge sur le taux de violations et le taux d’utilisation de la ressource critique. On pourrait également envisager une négociation lors de la soumission d’une requête. En cas de réponse négative du contrôle d’admission, il serait possible d’estimer les modifications de contraintes nécessaires (retardement de la date d’échéance ou bien diminution du temps de section critique par exemple) pour que la requête puisse être acceptée. Ces estimations pourraient être proposées par le système à l’utilisateur qui pourra à sa guise les accepter ou les refuser. Concernant le mécanisme de préemption de requête pour augmenter le taux d’utilisation, il serait possible d’exploiter plus finement la topologie reliant les nœuds pour router plus efficacement le jeton . En effet, le porteur du jeton connaît l’ensemble des requêtes à satisfaire dans le système. Il lui est alors possible de tirer parti de cette connaissance globale : on peut privilégier par exemple le sous-arbre qui donnera le plus de sections critiques tout en assurant que la première requête de la file d’attente sera satisfaite à temps. Enfin, il reste possible de ne plus considérer l’hypothèse de connaissance du temps de transmission γmax entre deux sites voisins en incluant des mécanismes d’estimation et de calcul de latence réseau. Requêtes à plusieurs ressources Notre mécanisme de préemption par prêts de ressources a été évalué uniquement sur un simulateur en mémoire partagée. Les résultats sont particulièrement prometteurs et une perspective à court terme est donc d’ajouter ce mécanisme dans notre implémentation distribuée et d’en évaluer le coût de synchronisation dans un environnement réel. Une autre perspective serait de généraliser notre algorithme à plusieurs exemplaires par ressource. D’autre part, puisque notre solution limite la communication entre processus non conflictuels, il serait particulièrement intéressant de tester notre algorithme sur une topologie physique hiérarchique telle qu’on peut la trouver dans les grandes infrastructures de Clouds. En effet, la suppression du verrou global permet maintenant d’éviter la communication inutile entre les différents sites géographiques. Il y a ainsi moins de risques à ce qu’un processus attende un message d’un site très éloigné. Cette étude permettrait de mettre en évidence nos gains de performances en termes de taux d’utilisation et de temps d’attente. 8.2.2 Perspectives globales Combinaison Cette thèse a abordé trois problèmes différents dans la réservation de ressources : les priorités, les contraintes de temps et l’hétérogénéité des ressources. L’idée d’étudier une118 Chapitre 8. Conclusion générale solution qui combinerait plusieurs de ces problèmes semble assez naturelle. On pourrait ainsi prendre en compte dans une même requête un ensemble de ressources requises avec une priorité ou/et une date d’échéance. Ce type de requête a de l’intérêt dans les systèmes de réservation de ressources tel que OAR [OAR] qui gère l’accès des utilisateurs à des ressources physiques dans une grille de calcul mais de manière centralisée. Chaque utilisateur peut ainsi verrouiller un ensemble de ressources hétérogènes en indiquant éventuellement une date de réservation requise (dates d’échéance) ainsi qu’un niveau de priorité pour différencier par exemple les administrateurs des utilisateurs. Élasticité Enfin, dans cette thèse nous avons traité deux particularités des systèmes large échelle : l’hétérogénéité des ressources et l’hétérogénéité des requêtes que l’on peut associer à un niveau de SLA. Cependant, les Nuages informatiques ont une particularité supplémentaire : l’élasticité. Cette particularité est due à la virtualisation des machines qui peuvent s’ajouter, se supprimer et se déplacer d’un site physique à l’autre en fonction des pics de charge. Cela implique des changements dynamiques dans la topologie qu’il serait intéressant d’étudier.Bibliographie [AFG+09] Michael Armbrust, Armando Fox, Rean Griffith, Anthony D. Joseph, Randy H. Katz, Andrew Konwinski, Gunho Lee, David A. Patterson, Ariel Rabkin, and Matei Zaharia. Above the clouds : A berkeley view of cloud computing. Technical report, University of California at Berkeley, 2009. [App] Google app engine. "https://developers.google.com/appengine/". [AS90] B. Awerbuch and M. Saks. A dining philosophers algorithm with polynomial response time. In Foundations of Computer Science, 1990. Proceedings., 31st Annual Symposium on, pages 65 –74 vol.1, oct 1990. [AWCR13] Aoxueluo, Weigang Wu, Jiannong Cao, and Michel Raynal. A generalized mutual exclusion problem and its algorithm. In Parallel Processing (ICPP), 2013 42nd International Conference on, pages 300–309, 2013. [Bal94] Roberto Baldoni. An o(nm/(m+1)) distributed algorithm for the kth-out of-m resources allocation problem. In ICDCS, pages 81–88, 1994. [BAS04] Marin Bertier, Luciana Bezerra Arantes, and Pierre Sens. Hierarchical token based mutual exclusion algorithms. In CCGRID, pages 539–546, 2004. [BAS06] Marin Bertier, Luciana Bezerra Arantes, and Pierre Sens. Distributed mutual exclusion algorithms for grid applications : A hierarchical approach. J. Parallel Distrib. Comput., 66(1) :128–144, 2006. [BC94] Roberto Baldoni and Bruno Ciciani. Distributed algorithms for multiple entries to a critical section with priority. Inf. Process. Lett., 50(3) :165–172, 1994. [BIP92] Judit Bar-Ilan and David Peleg. Distributed resource allocation algorithms (extended abstract). In WDAG, pages 277–291, 1992. [BL00] Abdelmadjid Bouabdallah and Christian Laforest. A distributed token/based algorithm for the dynamic resource allocation problem. Operating Systems Review, 34(3) :60–68, 2000. [Bro87] Rowland Leonard Brooks. On colouring the nodes of a network. In Classic Papers in Combinatorics, pages 118–121. Springer, 1987. [Bur06] Mike Burrows. The chubby lock service for loosely-coupled distributed systems. In OSDI, pages 335–350. USENIX Association, 2006. [BV95] Shailaja Bulgannawar and Nitin H. Vaidya. A distributed k-mutual exclusion algorithm. In ICDCS, pages 153–160, 1995. 119120 Bibliographie [CE08] Pranay Chaudhuri and Thomas Edward. An algorithm for k-mutual exclusion in decentralized systems. Computer Communications, 31(14) :3223–3235, 2008. [Cha94] Ye-In Chang. Design of mutual exclusion algorithms for real-time distributed systems. J. Inf. Sci. Eng., 11(4) :527–548, 1994. [CM84] K. Mani Chandy and Jayadev Misra. The drinking philosopher’s problem. ACM Trans. Program. Lang. Syst., 6(4) :632–646, 1984. [CR83] O.S.F. Carvalho and G. Roucairol. On mutual exclusion in computer networks. Comm. ACM, 26 :145–147, 1983. [CSL90] Ye-In Chang, Mukesh Singhal, and Ming T. Liu. A fault tolerant algorithm for distributed mutual exclusion. In SRDS, pages 146–154, 1990. [CSL91] Y.-I. Chang, M. Singhal, and M.T. Liu. A dynamic token-based distributed mutual exclusion algorithm. In Computers and Communications, 1991. Conference Proceedings., Tenth Annual International Phoenix Conference on, pages 240–246, 1991. [Dij65] Edsger W. Dijkstra. Solution of a problem in concurrent programming control. Commun. ACM, 8(9) :569, 1965. [Dij71] E. W. Dijkstra. Hierarchical ordering of sequential processes. Acta Informatica, 1 :115–138, 1971. 10.1007/BF00289519. [DS94] Naomi S. DeMent and Pradip K. Srimani. A new algorithm for k mutual exclusions in distributed systems. Journal of Systems and Software, 26(2) :179–191, 1994. [EC2] Amazon ec2. "http://aws.amazon.com/ec2/". [Erc04] Kayhan Erciyes. Cluster based distributed mutual exclusion algorithms for mobile networks. In Euro-Par, pages 933–940, 2004. [g5k] Grid5000. "https://www.grid5000.fr/mediawiki/index.php/Grid5000: Home". [Gos90] Andrzej M. Goscinski. Two algorithms for mutual exclusion in real-time distributed computer systems. J. Parallel Distrib. Comput., 9(1) :77–82, 1990. [GSA89] David Ginat, A. Udaya Shankar, and Ashok K. Agrawala. An efficient solution to the drinking philosophers problem and its extension. In WDAG (Disc), pages 83–93, 1989. [HPR88] Jean-Michel Helary, Noel Plouzeau, and Michel Raynal. A distributed algorithm for mutual exclusion in an arbitrary network. Comput. J., 31(4) :289– 295, 1988. [HT01] Ahmed Housni and Michel Trehel. Distributed mutual exclusion tokenpermission based by prioritized groups. In AICCSA, pages 253–259, 2001. [JNW96] Theodore Johnson and Richard E. Newman-Wolfe. A comparison of fast and low overhead distributed priority locks. J. Parallel Distrib. Comput., 32(1) :74–89, 1996.121 [Jou98] Yuh-Jzer Joung. Asynchronous group mutual exclusion (extended abstract). In PODC, pages 51–60, 1998. [Jou03] Yuh-Jzer Joung. Quorum-based algorithms for group mutual exclusion. Parallel and Distributed Systems, IEEE Transactions on, 14(5) :463–476, 2003. [JPT03] Prasad Jayanti, Srdjan Petrovic, and King Tan. Fair group mutual exclusion. In Proceedings of the Twenty-second Annual Symposium on Principles of Distributed Computing, PODC ’03, pages 275–284, New York, NY, USA, 2003. ACM. [KC10] Sukhendu Kanrar and Nabendu Chaki. Fapp : A new fairness algorithm for priority process mutual exclusion in distributed systems. JNW, 5(1) :11–18, 2010. [Lam78] Leslie Lamport. Time, clocks, and the ordering of events in a distributed system. Commun. ACM, 21 :558–565, July 1978. [Lan78] Gerard Le Lann. Algorithms for distributed data-sharing systems which use tickets. In Berkeley Workshop, pages 259–272, 1978. [LH89] Kai Li and Paul Hudak. Memory coherence in shared virtual memory systems. ACM Transactions on Computer Systems (TOCS), 7(4) :321–359, 1989. [LKN+09] Alexander Lenk, Markus Klems, Jens Nimis, Stefan Tai, and Thomas Sandholm. What’s inside the cloud ? an architectural map of the cloud landscape. Software Engineering Challenges of Cloud Computing, ICSE Workshop on, 0 :23–31, 2009. [Lyn81] Nancy A. Lynch. Upper bounds for static resource allocation in a distributed system. J. Comput. Syst. Sci., 23(2) :254–278, 1981. [Mad97] Aomar Maddi. Token based solutions to m resources allocation problem. In SAC, pages 340–344, 1997. [Mae85] Mamoru Maekawa. A √ N algorithm for mutual exclusion in decentralized systems. ACM Trans. Comput. Syst., 3 :145–159, May 1985. [Mar85] Alain J. Martin. Distributed mutual exclusion on a ring of processes. Sci. Comput. Program., 5(3) :265–276, 1985. [MBB+92] Kia Makki, Paul Banta, Ken Been, Niki Pissinou, and E. K. Park. A token based distributed k mutual exclusion algorithm. In SPDP, pages 408–411, 1992. [MN06] Quazi Ehsanul Kabir Mamun and Hidenori Nakazato. A new token based protocol for group mutual exclusion in distributed systems. In Parallel and Distributed Computing, 2006. ISPDC’06. The Fifth International Symposium on, pages 34–41. IEEE, 2006. [Mue98] Frank Mueller. Prioritized token-based mutual exclusion for distributed systems. In IPPS/SPDP, pages 791–795, 1998. [Mue99] F. Mueller. Priority inheritance and ceilings for distributed mutual exclusion. In Real-Time Systems Symposium, 1999. Proceedings. The 20th IEEE, pages 340 –349, 1999.122 Bibliographie [MyC] Mycloud project. "http://mycloud.inrialpes.fr/". [Nai93] Mohamed Naimi. Distributed algorithm for k-entries to critical section based on the directed graphs. SIGOPS Oper. Syst. Rev., 27(4) :67–75, October 1993. [NM91] Mitchell L. Neilsen and Masaaki Mizuno. A dag-based algorithm for distributed mutual exclusion. In ICDCS, pages 354–360, 1991. [NT87a] Mohamed Naimi and Michel Trehel. How to detect a failure and regenerate the token in the log(n) distributed algorithm for mutual exclusion. In WDAG, pages 155–166, 1987. [NT87b] Mohamed Naimi and Michel Trehel. An improvement of the log(n) distributed algorithm for mutual exclusion. In ICDCS, pages 371–377, 1987. [NTA96] Mohamed Naimi, Michel Trehel, and André Arnold. A log(n) distributed mutual exclusion algorithm based on path reversal. J. Parallel Distrib. Comput., 34(1) :1–13, 1996. [OAR] Oar. "http://oar.imag.fr/". [oMP] Openmpi. "http://www.open-mpi.org/". [RA81] Glenn Ricart and Ashok K. Agrawala. An optimal algorithm for mutual exclusion in computer networks. Commun. ACM, 24 :9–17, January 1981. [Ray89a] Kerry Raymond. A distributed algorithm for multiple entries to a critical section. Inf. Process. Lett., 30(4) :189–193, 1989. [Ray89b] Kerry Raymond. A tree-based algorithm for distributed mutual exclusion. ACM Trans. Comput. Syst., 7(1) :61–77, 1989. [Ray91a] Michel Raynal. A distributed solution to the k-out of-m resources allocation problem. In ICCI, pages 599–609, 1991. [Ray91b] Michel Raynal. A simple taxonomy for distributed mutual exclusion algorithms. Operating Systems Review, 25(2) :47–50, 1991. [Ray92] Michel Raynal. Synchronisation et état global dans les systèmes répartis. Eyrolles, 1992. [RCL09] Bhaskar Prasad Rimal, Eunmi Choi, and Ian Lumb. A taxonomy and survey of cloud computing systems. In Proceedings of the 2009 Fifth International Joint Conference on INC, IMS and IDC, NCM ’09, pages 44–51, Washington, DC, USA, 2009. IEEE Computer Society. [Rhe95] Injong Rhee. A fast distributed modular algorithm for resource allocation. In ICDCS, pages 161–168, 1995. [Rhe98] Injong Rhee. A modular algorithm for resource allocation. Distributed Computing, 11(3) :157–168, 1998. [RMG08] Vijay Anand Reddy, Prateek Mittal, and Indranil Gupta. Fair k mutual exclusion algorithm for peer to peer systems. In ICDCS, pages 655–662, 2008. [S3] Amazon s3. "http://aws.amazon.com/s3/".123 [San87] Beverly A. Sanders. The information structure of distributed mutual exclusion algorithms. ACM Trans. Comput. Syst., 5(3) :284–299, August 1987. [Sin92] Mukesh Singhal. A dynamic information-structure mutual exclusion algorithm for distributed systems. IEEE Trans. Parallel Distrib. Syst., 3(1) :121– 125, 1992. [Sin93] Mukesh Singhal. A taxonomy of distributed mutual exclusion. J. Parallel Distrib. Comput., 18(1) :94–101, 1993. [SK85] Ichiro Suzuki and Tadao Kasami. A distributed mutual exclusion algorithm. ACM Trans. Comput. Syst., 3(4) :344–349, 1985. [SLAAS07] Julien Sopena, Fabrice Legond-Aubry, Luciana Bezerra Arantes, and Pierre Sens. A composition approach to mutual exclusion algorithms for grid applications. In ICPP, page 65, 2007. [SM94] R. Satyanarayanan and C. R. Muthukrishnan. Multiple instance resource allocation in distributed computing systems. J. Parallel Distrib. Comput., 23(1) :94–100, 1994. [Sop08] Julien Sopena. Algorithmes d’exclusion mutuelle : tolerance aux fautes et adaptation aux grilles. PhD thesis, Université Pierre et Marie Curie, 2008. [SP88] Eugene Styer and Gary L. Peterson. Improved algorithms for distributed resource allocation. In PODC, pages 105–116, 1988. [SR92] Pradip K. Srimani and Rachamallu L. N. Reddy. Another distributed algorithm for multiple entries to a critical section. Inf. Process. Lett., 41(1) :51–57, 1992. [SRL90] Lui Sha, Ragunathan Rajkumar, and John P. Lehoczky. Priority inheritance protocols : An approach to real-time synchronization. IEEE Trans. Computers, 39(9) :1175–1185, 1990. [SS07] Abhishek Swaroop and Awadhesh Kumar Singh. A distributed group mutual exclusion algorithm for soft real time systems. In in Proc. WASET International Conference on Computer, Electrical and System Science and Engineering CESSE07, pages 138–143, 2007. [Vel93] Martin G. Velazquez. A survey of distributed mutual exclusion algorithms. Technical report, Colorado state university, 1993. [Vid03] K. Vidyasankar. A simple group mutual l-exclusion algorithm. Information Processing Letters, 85(2) :79 – 85, 2003. [WJ00] K-P Wu and Y-J Joung. Asynchronous group mutual exclusion in ring networks. IEE Proceedings-Computers and Digital Techniques, 147(1) :1–8, 2000. [WPP91] Elizabeth B. Weidman, Ivor P. Page, and William J. Pervin. Explicit dynamic exclusion algorithm. In SPDP, pages 142–149, 1991. [ZCB10] Qi Zhang, Lu Cheng, and Raouf Boutaba. Cloud computing : state-of-the-art and research challenges. J. Internet Services and Applications, 1(1) :7–18, 2010.124 BibliographiePublications associées à cette thèse Revue internationale En cours de soumission [JPDC14] Jonathan Lejeune, Luciana Arantes, Julien Sopena, and Pierre Sens. A Fair Starvation-free Prioritized Mutual Exclusion Algorithm for Distributed Systems In Journal of Parallel and Distributed Computing. Conférences internationales [ICPP13] Jonathan Lejeune, Luciana Arantes, Julien Sopena, and Pierre Sens. A prioritized distributed mutual exclusion algorithm balancing priority inversions and response time In International Conference on Parallel Processing (ICPP-2013). [CCgrid13] Damián Serrano, Sara Bouchenak, Yousri Kouki, Thomas Ledoux, Jonathan Lejeune, Julien Sopena, Luciana Arantes, and Pierre Sens. Towards QoSOriented SLA Guarantees for Online Cloud Services. In 13th IEEE/ACM International Conference on Cluster, Cloud and Grid Computing (CCGRID’13). IEEE Computer Society Press, May 2013. [CCgrid12] Jonathan Lejeune, Luciana Arantes, Julien Sopena, and Pierre Sens. Service level agreement for distributed mutual exclusion in cloud computing. In 12th IEEE/ACM International Conference on Cluster, Cloud and Grid Computing (CCGRID’12). IEEE Computer Society Press, May 2012. Conférence francophone [Compas14] Jonathan Lejeune, Luciana Arantes, Julien Sopena, and Pierre Sens. Un algorithme distribué efficace d’exclusion mutuelle généralisée sans connaissance préalable des conflits. In Conférence d’informatique en Parallélisme, Architecture et Système (Renpar), April 2014, (Meilleur article Renpar). [Compas13] Jonathan Lejeune, Luciana Arantes, Julien Sopena, and Pierre Sens. Un algorithme équitable d’exclusion mutuelle distribuée avec priorité. In 9ème 125126 Publications associées à cette thèse Conférence Française sur les Systèmes d’Exploitation (CFSE’13), Chapitre français de l’ACM-SIGOPS, GDR ARP, January 2013.Liste des notations N Nombre de processus du système, i.e. le cardinal de Π . . . . . . . . . . . . . . . . . . . . . 8 Π Ensemble des processus du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 si 1 ≤ i ≤ N, site appartenant à Π . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 T Temps d’exécution du système. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 t0 Instant appartenant à T correspondant à l’initialisation du système . . . . . . . 9 tnow Instant courant appartenant à T . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 P nombre de priorités dans le système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 pmax priorité maximale du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 pmin priorité minimale du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 P ensemble totalement ordonné des priorités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 F(p) fonction de palier permettant de retarder l’incrémentation de priorité . . . . . 39 ρ charge : exprime la fréquence à laquelle la section critique est demandée . . 40 θ temps d’une expérience d’évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 α le temps d’une section critique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 γ le temps d’acheminement d’un message entre deux processus voisins . . . . . . 40 β le temps où un site reste à l’état tranquil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 N bSLA le nombre de niveaux de SLA considérés. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 ψ taille de préemption maximum. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 W aitM in temps de réponse requis minimal (correspond au plus haut niveau de SLA). 82 A Fonction calculant un réel à partir d’un vecteur de M entiers . . . . . . . . . . . . . 104 Dt si Ensemble des ressources ∈ R que le site si demande à l’instant t . . . . . . . . . . 92 G Graphe de conflits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 M Nombre de types de ressources dans le système . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 R Ensemble des ressources du système {r1, r2, ..., rM} . . . . . . . . . . . . . . . . . . . . . . . . 92 127128 Liste des notationsAnnexe A Implémentation distribuée de l’algorithme d’exclusion mutuelle généralisée Sommaire A.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 A.2 Les messages . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 A.2.1 Information véhiculée . . . . . . . . . . . . . . . . . . . . . 130 A.2.2 Mécanisme d’agrégation . . . . . . . . . . . . . . . . . . . . 130 A.3 États des processus . . . . . . . . . . . . . . . . . . . . . . . 131 A.4 Variables locales . . . . . . . . . . . . . . . . . . . . . . . . . 131 A.5 Description . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 Cette annexe décrit l’implémentation distribuée de l’algorithme de verrouillage de ressources basé sur des compteurs (chapitre 7). Sur le même principe que l’algorithme de Bouabdallah-Laforest, notre implémentation distribuée se base sur la transmission de jetons. Son pseudo-code est donné en figures A.3, A.4 et A.5. A.1 Généralités Chaque ressource est associée à un unique jeton. Les compteurs sont stockés dans le jeton de la ressource associée. Ainsi le possesseur du jeton est le seul à pouvoir accéder à la valeur du compteur assurant ainsi un accès exclusif. Chaque jeton est géré par une instance d’une version simplifiée de l’algorithme à priorité de Mueller (cf section 3.4.1). Par conséquent, les messages de requêtes pour une ressource (ou pour un compteur) sont acheminés jusqu’au porteur de jeton grâce à une structure d’arbre dynamique. Le choix d’un algorithme à priorité permet de réordonnancer de manière dynamique la file d’attente d’un jeton si une requête de précédence plus importante, i.e., avec un vecteur plus prioritaire, est émise. Ainsi plus la valeur résultante de A est basse plus la priorité de la requête est haute. 129130 Annexe A. Implémentation distribuée de l’algorithme d’exclusion mutuelle généralisée A.2 Les messages A.2.1 Information véhiculée Nous définissons quatre types de messages : Request1, Counter, Request2 et T oken. Chaque type de message véhicule une ou plusieurs structures de données qui lui est propre (déclarations données en figure A.1). Ces structures de données sont : • Request1 : demande de la valeur du compteur associé à r. Elle contient l’identifiant du site initiateur, l’identifiant de la requête concernée et un booléen drapeau qui vaut vrai si la requête concerne une seule ressource, faux sinon. • Counter : indication de la valeur du compteur associé à r. Cette émission fait suite à une réception d’un message de type Request1 sur le porteur du jeton correspondants. • Request2 : demande de la ressource r. Elle contient l’identifiant du site initiateur, l’identifiant de la requête concernée et un réel égal au résultat de A à partir du vecteur originel. • T oken : jeton de la ressource r. Il stocke la valeur du compteur associé, une liste de requêtes de type 2 à satisfaire qui représente la file d’attente de la ressource r et deux tableaux de N identifiants de requêtes : ∗ lastReq1 : indique pour chaque site sj l’identifiant de la dernière requête de sj auquel le porteur du jeton a envoyé la valeur du compteur. ∗ lastCS : pour chaque site sj l’identifiant de la dernière requête de sj satisfaite par ce jeton. A.2.2 Mécanisme d’agrégation Afin d’économiser des envois de messages, chaque message peut véhiculer plusieurs structures qui lui correspondent. En effet, les structures du même type adressées au même destinataire seront agrégées dans un seul message. Par conséquent, la réception d’un message concerne non pas une seule ressource mais un ensemble de ressources. Ce mécanisme implique donc des tampons locaux : un par type de message et par destinataire. Nous définissons la fonction buffer(site sdest, type t, data) qui stocke temporairement la structure de type t à destination du site sdest. Nous définissons alors pour chaque type de message une fonction qui consomme les structures stockées par la fonction buffer en les envoyant à leur destinataire : • SendBufReq1( visited : set of sites) : envoie les structures de type Request1 à leur destinataire. Comme ce type de message n’est pas directement transmis au destinataire final, i.e. le porteur du jeton, il stocke au fur et à mesure de son transfert les nœuds qu’il a déjà visités afin d’éviter les cycles de messages dans la structure dynamique. • SendBufCnt() : envoie les structures de type Counter à leur destinataire. • SendBufReq2( visited : set of sites) : même principe que le type Request1. • SendBufTok() : envoie les structures de type T oken à leur destinataire.A.3. États des processus 131 Type Request1 :1 begin2 3 sinit : site; 4 r : resource; 5 id : integer ; 6 isOne : boolean ; end7 8 Type Counter : begin9 10 r : resource; 11 val : integer ; end12 Type Request2 :13 begin14 15 sinit : site; 16 r : resource; 17 id : integer ; 18 mark : float; end19 20 Type Token : begin21 22 r : resource; 23 counter : integer; 24 lastReq1 : array of N integers; 25 lastCS : array of N integers; 26 req2 : sorted list of Request2 ; end27 Figure A.1 – Structures véhiculées par les messages de l’implémentation distribuée Figure A.2 – Machine à états des processus A.3 États des processus L’état requesting a été divisé en deux sous-états : waitS et waitCS. Les processus ont donc quatre états possibles : • tranquil : le processus ne demande rien. • waitS : le processus attend les compteurs requis (première étape). • waitCS : le processus attend les ressources requises (seconde étape). • inCS : le processus utilise les ressources requises (section critique). La figure A.2 représente la machine à états des processus. Nous avons ajouté une optimisation permettant aux requêtes ne demandant qu’une seule ressource de passer directement de l’état tranquil à l’état waitCS (lignes 67 à 70). En effet, ces requêtes ne demandent qu’un seul compteur. Puisque cet unique compteur est stocké dans le jeton, le nœud racine peut calculer le résultat de A et ainsi transformer directement la requête de type 1 en requête de type 2, la stocker dans la file d’attente du jeton et éventuellement renvoyer le jeton si la nouvelle requête est plus prioritaire. Ce mécanisme permet de réduire le coût de synchronisation des requêtes demandant une seule ressource. A.4 Variables locales Chaque processus maintient les variables locales suivantes : • tokDir : un tableau de M sites, où chaque entrée indique le père dans l’arbre dynamique gérant la ressource correspondante. L’entrée vaut nil si le processus est132 Annexe A. Implémentation distribuée de l’algorithme d’exclusion mutuelle généralisée la racine de l’arbre correspondant (possession du jeton). • MyV ector : le vecteur correspondant à la requête en cours du site courant. • lastT oken : tableau de M structures de jetons. Cette variable permet de stocker localement les informations d’un jeton lors de sa dernière réception. • T Required : ensemble de ressources que le site demande. • T Owned : ensemble de ressources que le site a en sa possession. • CntNeeded : ensemble de ressources requises dont le processus n’a pas encore reçu le compteur associé. • curId : compteur local permettant d’identifier et de dater une requête. Sa valeur s’incrémente à chaque nouvelle requête (ligne 65). • pendingReq1 et pendingReq2 : tableaux de M ensembles de requêtes de type 1 (respectivement de type 2) reçues pour chaque ressource. Ces ensembles sont utiles pour éviter que des requêtes ne soient perdues lorsque le jeton est en transit dans le réseau. Puisque les structures de requête contiennent la date locale de la requête (champs id), il est possible de sauvegarder uniquement la requête la plus récente pour un site donné. Si le processus possède une ressource, les entrées correspondantes sont égales à l’ensemble vide. A.5 Description Lors de l’appel à Request_CS (ligne 63), le processus demande les compteurs concernés (ligne 71). S’il possède des jetons requis alors il sauvegarde dans son vecteur la valeur du compteur et incrémente ce dernier (lignes 76 à 78). Sinon, il sauvegarde dans CntNeeded les ressources pour lesquels une requête de type 1 a été envoyée (lignes 72 à 75). Si la requête concerne une seule ressource, il est inutile de sauvegarder la ressource dans CntNeeded puisque ces requêtes ne recquièrent pas d’attendre un compteur. Une fois les requêtes de type 1 envoyées (ligne 79), le processus se met en attente jusqu’à ce que l’ensemble des ressources requises soient possédé (lignes 80 et 81). À la réception d’un message de requêtes de type 1 (ligne 97), le site traite l’ensemble de Request1 contenu dans le message. Si une requête est obsolète (ligne 102) alors elle est ignorée. Si le site ne possède pas la ressource concernée, la requête est ajoutée dans l’ensemble pendingReq1 et est envoyée au père dans l’arbre correspondant (lignes 132 et 133) en s’assurant que ce dernier n’a pas déjà transmis la requête (ligne 131). Si au contraire, le site possède la ressource (il est le site racine de l’arbre correspondant), l’identifiant de la requête est sauvegardé dans le tableau lastReq1 du jeton (ligne 105). Trois cas peuvent alors se produire : • le site n’a pas besoin de la ressource (ligne 106) : le jeton est directement envoyé au site demandeur (ligne 107) • le site a besoin de la ressource et la requête concerne plusieurs ressources (ligne 108) : la valeur du compteur est envoyée au demandeur et incrémentée (lignes 110 et 111). • le site a besoin de la ressource et la requête concerne une seule ressource (ligne 112) : la requête est considérée comme une requête de type 2. Sa valeur réelle peut alors être calculée avec la fonction A et la valeur du compteur (lignes 113 à 118A.5. Description 133 Local variables :28 begin29 30 state ∈ {tranquil, waitS, waitCS, inCS}; 31 tokDir : array of M sites; 32 M yV ector : array of M integers; 33 lastT ok : array of M Token; 34 T Required : set of resources; 35 T Owned : set of resources; 36 CntNeeded : set of resources; 37 curId : integer ; 38 pendingReq1 : array of M sets of Request1; 39 pendingReq2 : array of M sorted lists of Request2; end40 41 Initialization begin42 if self = elected_node then43 44 tokDir[r] ← nil ∀r ∈ R; 45 T Owned ← R ; else46 47 tokDir[r] ← elected_node ∀r ∈ R; 48 T Owned ← ∅ ; 49 T Required ← ∅; 50 CntNeeded ← ∅; 51 state ← tranquil; 52 curId ← 0; foreach resource r ∈ R do53 54 M yV ector[r] ← 0; 55 lastT ok[r].r ← r; 56 lastT ok[r].counter ← 1; 57 lastT ok[r].lastReq[s] ← 0 ∀s ∈ Π; 58 lastT ok[r].lastCS[s] ← 0 ∀s ∈ Π; 59 lastT ok[r].req2 ← ∅; 60 pendingReq1[r] ← ∅; 61 pendingReq2[r] ← ∅; end62 63 Request_CS(D : set of resources) begin64 65 curId ← curId + 1; 66 T Required ← D; if |T Required| = 1 then67 68 state ← waitCS; else69 70 state ← waitS; foreach resource r ∈ T Required do71 72 if tokDir[r] 6= nil then if |T Required| 6= 1 then73 74 CntNeeded ← CntNeeded ∪ {r}; 75 buffer(tokDir[r],Request1, < self, r, curId, |T Required| = 1 > ); 76 else 77 M yV ector[r] ← lastT ok[r].counter; 78 lastT ok[r].counter ← lastT ok[r].counter + 1; 79 SendBufReq1({self}); if T Required * T Owned then80 81 wait(T Required ⊆ T Owned); 82 state ← inCS; 83 /* CRITICAL SECTION */ end84 Release_CS85 begin86 87 state ← tranquil; foreach ressource r ∈ T Required do88 89 lastT ok[r].lastCS[self] ← curId; 90 if lastT ok[r].req2 6= ∅ then < s, r0 91 , seq, m >← dequeue(lastT ok[r].req2); 92 SendToken(s,r); 93 T Required ← ∅; 94 M yV ector[r] ← 0 ∀r ∈ R; 95 SendBufTok(); end96 Figure A.3 – Implémentation distribuée : procédures d’initialisation, de demande et de libération de section critique134 Annexe A. Implémentation distribuée de l’algorithme d’exclusion mutuelle généralisée ). Si le site est en attente de compteurs (état waitS), alors la requête en question est prioritaire : le jeton est alors envoyé (ligne 120). Sinon si le site est en attente de jetons (état waitCS), sa requête et la requête reçue sont alors comparées (ligne 123). Si la requête distante est plus prioritaire, alors le site ajoute sa propre requête dans la file locale du jeton et le transmet au site prioritaire (lignes 124 et 125). Dans le cas contraire si le site courant est en section critique, c’est la requête distante qui est ajoutée dans la file d’attente du jeton (lignes 127 et 130). À la réception d’un message de compteur (ligne 138), la valeur du compteur est sauvegardée dans l’entrée correspondante du vecteur (ligne 141) et l’ensemble des compteurs requis est mis à jour (ligne 142). Comme le site envoyeur est le porteur du jeton le plus récent du point de vue du site courant, le pointeur de parenté est alors mis à jour (ligne 143) : des messages de requêtes peuvent alors être économisés. Si le site n’attend plus de compteur (ligne 144) la fonction processCntNeededEmpty est appelée. Cette fonction fait passer le site courant à l’état waitCS. Le site peut ensuite envoyer pour toute ressource requise non possédée, un message de requête de type 2 (ligne 181). La réception un message de requêtes de type 2 (ligne 147), implique dans un premier temps une vérification de l’obsolescence de la requête (ligne 152). Si le site possède la ressource demandée (lignes 155 à 164) alors le traitement est le même que la réception d’une requête de type 1 concernant une seule ressource . Si le site ne possède pas la ressource et si la requête n’a pas déjà visité le processus père du site courant (ligne 165) alors la requête est enregistrée dans la file locale pendingReq2. Le test de la ligne 167 permet de décider si le message nécessite d’être retransmis au père ou non (principe de l’algorithme de Mueller). Si le site courant et le site demandeur sont en conflit sur la ressource en question et s’ils sont tous les deux en état waitCS alors il est possible de différencier les deux requêtes. Si la requête du site courant est plus prioritaire que le site distant alors il est inutile de retransmettre le message car le site courant obtiendra le jeton avant le site distant. Il subsiste néanmoins une exception où la requête sera retransmise : la requête du site courant concerne une seule ressource. En effet, puisque dans ce cas le site courant ne connaît pas le réel de sa requête, il est donc impossible pour lui de la différencier de celle du site distant. À la réception d’un message de jeton (ligne 184) le processus va dans en premier temps mettre à jour ses variables locales pour chaque jeton contenu dans le message en appelant la fonction processUpdate (ligne 188). Cette fonction met à jour dans un premier temps les variables T Owned, tokDir puis sauvegarde d’éventuels compteurs manquants (lignes 226 à 229). Ensuite on traite les requêtes de type 1 enregistrées dans pendingReq1 et qui n’ont pas été prises en compte (lignes 230 à 249)). Le traitement est similaire à la réception d’une requête de type 1 lorsque le site possède la ressource concernée. Chaque requête de type 2 enregistrée dans pendingReq2 est ensuite copiée dans la file d’attente du jeton si elle n’a pas encore été prise en compte (lignes 251 à 257). Une fois les variables locales mises à jour, le site contrôle s’il peut entrer en section critique (lignes 189 à 191). S’il ne peut pas encore entrer en section critique, il contrôle d’abord si l’ensemble des compteurs manquants ont été acquis dans la fonction processUpdate et le cas échéant appelle la fonction processCntEmpty permettant de passer à l’état waitCS et d’envoyer les messages de requête de type 2 (lignes 177 à 181). Il contrôle ensuite si leA.5. Description 135 97 Receive request1 (visitedN odes : set of sites, Req1sRecv : set of Request1) from sj begin98 99 foreach Request1 req1 ∈ Req1sRecv do 100 ressource r ← req1.r; 101 site si ← req1.sinit; 102 if req1.id ≤ lastT ok[r].lastReq1[si] or req1.id ≤ lastT ok[r].lastCS[si] then 103 continue; if r ∈ T Owned then104 105 lastT ok[r].lastReq1[si] ← req1.numSeq; if r /∈ T Required then106 107 SendToken(si, r); 108 else if ¬req1.isOne then 109 /* send Counter */ 110 buffer(si,Counter,< r, lastT ok[r].counter > ); 111 lastT ok[r].counter ← lastT ok[r].counter + 1; 112 else 113 V tmp : array of M integer; 114 V tmp[rk] ← 0 ∀rk ∈ R; 115 V tmp[r] ← lastT ok[r].counter; 116 lastT ok[r].counter ← lastT ok[r].counter + 1; 117 float mark ← A(V tmp); 118 Request2 newReq ←< si, r, seq, mark >; if state = waitS then119 120 SendToken(si, r); 121 else if state = waitCS then 122 Request2 myReq ←< self, r, curId, A(M yV ector) > ; if newReq / myReq then123 124 add(lastT ok[r].req2,myReq); 125 SendToken(si, r); 126 else 127 add(lastT ok[r].req2,newReq); else128 129 /* inCS */ 130 add(lastT ok[r].req2,newReq); else if tokDir[r] ∈/ visitedN odes then131 132 add(pendingReq1[r],req1); 133 buffer(tokDir[r],Request1, req1 ); 134 SendBufReq1(visitedN odes ∪ {self}); 135 SendBufTok(); 136 SendBufCnt(); end137 138 Receive Counter(CntsRcv : sets of Counter) from sj 139 begin foreach Counter cnt ∈ CntsRcv do140 141 M yV ector[cnt.r] ← cnt.val; 142 CntNeeded ← CntNeeded − {cnt.r}; 143 tokDir[r] ← sj ; if CntNeeded = ∅ then144 145 processCntNeededEmpty(); end146 147 Receive Request2(visitedN odes : set of sites, Req2sRcv : sets of Request2) from sj 148 begin foreach Request2 req2 ∈ Req2sRecv do149 150 ressource r ← req2.r; 151 site si ← req2.sinit; 152 if req2.id < lastT ok[r].lastReq1[si] or req2.id ≤ lastT ok[r].lastCS[si] then 153 continue; 154 Request2 myReq2 ←< self, r, curId, A(M yV ector) >; 155 if r ∈ T Owned then 156 if r /∈ T Required or state = waitS then 157 SendToken(si, r); else if req2 ∈/ lastT ok[r].req2 then158 159 if state = waitCS ∧ req2 / myReq2 then 160 add(lastT ok[r].req2,myReq2); 161 SendToken(si, r); 162 else 163 /* (waitCS ∧ myReq2 / req2) ∨ inCS */ 164 add(lastT ok[r].req2,req2); 165 else if tokDir[r] ∈/ visitedN odes then 166 add(pendingReq2[r],req2); 167 if state = waitCS ∧ r ∈ T Required ∧ myReq2 / req2 ∧ |T Required| 6= 1 then 168 /* Do not forward */ else169 170 buffer(tokDir[r],Request2, req2 ); 171 SendBufReq2(visitedN odes ∪ {self}); 172 SendBufTok(); end173 174 processCntNeededEmpty() 175 begin 176 /* precond : state = waitS ∧ CntNeeded = ∅ */ 177 state ← waitCS; foreach resource r ∈ T Required do178 179 Request2 myReq2 ←< self, r, curId, A(M yV ector) >; 180 if r /∈ T Owned then 181 buffer(tokDir[r],Request2, myReq2 ); 182 SendBufReq2({self}); end183 Figure A.4 – Implémentation distribuée : procédures de réception de requêtes 1 et 2 et de compteur136 Annexe A. Implémentation distribuée de l’algorithme d’exclusion mutuelle généralisée 184 Receive Token (T oksRcv : sets of Token) from sj begin185 186 /* t.r must be in T Required */ foreach T oken t ∈ T oksRcv do187 188 processUpdate(t); if T Required ⊆ T Owned then189 190 state ← inCS; 191 notify(T Required ⊆ T Owned); else192 if state = waitS ∧ CntNeeded = ∅ then193 194 processCntNeededEmpty(); foreach resource r ∈ T Owned do195 if lastT ok[r].req2 6= ∅ then196 197 Request2 req2 ← Head(lastT ok[r].req2); 198 site si ← req2.sinit; 199 if state = waitS then 200 dequeue(lastT ok[r].req2); 201 SendToken(si, r); else if state = waitCS then202 203 Request2 myReq2 ←< self, r, curId, A(M yV ector) >; if req2 / myReq then204 205 dequeue(lastT ok[r].req2); 206 add(lastT ok[r].req2,myReq2); 207 SendToken(si, r); else208 209 /* IMPOSSIBLE */ 210 SendBufCounters(); 211 SendBufTokens(); end212 SendToken(sdest : site, r : resource)213 begin214 215 /* precond : r∈T Owned */ 216 buffer(sdest,T oken, lastT ok[r] ); 217 tokDir[r] ← sdest; 218 T Owned ← T Owned − {r}; end219 processUpdate(t : Token)220 begin221 222 ressource r ← t.r; 223 lastT ok[r] ← t; 224 T Owned ← T Owned ∪ {r}; 225 tokDir[t.r] ← nil; if r ∈ CntNeeded then226 227 CntNeeded ← CntNeeded − {r}; 228 M yV ector[r] ← lastT ok[r].counter; 229 lastT ok[r].counter ← lastT ok[r].counter + 1; foreach Request1 req1 ∈ pendingReq1[r] do230 231 site si ← req1.sinit; 232 if req1.id ≤ lastT ok[r].lastReq1[si] or req1.id ≤ lastT ok[r].lastCS[si] then 233 /* req1 is out of date */ 234 continue; 235 lastT ok[r].lastReq1[si] ← req1.id; if pendingReq1[r].isOne then236 237 /* transform it in req2 */ 238 V tmp : array of M integer; 239 V tmp[rk] ← 0 ∀rk ∈ R; 240 V tmp[r] ← lastT ok[r].counter; 241 lastT ok[r].counter ← lastT ok[r].counter + 1; 242 float mark ← A(V tmp); 243 Request2 newReq2 ←< si, r, req1.id, mark >; 244 if newReq2 ∈/ lastT ok[r].req2 then 245 add(lastT ok[r].req2,newReq2); else246 247 /* send Counter */ 248 buffer(si,lastT ok[r].counter); 249 lastT ok[r].counter ← lastT ok[r].counter + 1; 250 pendingReq1[r] ← ∅; foreach Request2 req2 ∈ pendingReq2[r] do251 252 site si ← req2.sinit; 253 if req2.id < lastT ok[r].lastReq1[si] or req2.id ≤ lastT ok[r].lastCS[si] then 254 /* req2 is out of date */ 255 continue; 256 if req2 ∈/ lastT ok[r].req2 then 257 add(lastT ok[r].req2,req2); 258 pendingReq2[r] ← ∅; end259 Figure A.5 – Implémentation distribuée : procédure de réception et d’envoi de jetonA.5. Description 137 jeton en question doit être retransmis à un éventuel site plus prioritaire présent dans la file d’attente (lignes 195 à 207). Enfin lorsque le site sort de la section critique (ligne 85), il repasse à l’état tranquil et transmet éventuellement les jetons possédés aux prochains processus demandeurs (lignes 88 à 92). Segmentation par coupes de graphe avec a priori de forme Application `a l’IRM cardiaque Damien Grosgeorge To cite this version: Damien Grosgeorge. Segmentation par coupes de graphe avec a priori de forme Application `a l’IRM cardiaque. Image Processing. Universit´e de Rouen, 2014. French. HAL Id: tel-01006467 https://tel.archives-ouvertes.fr/tel-01006467 Submitted on 16 Jun 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.THÈSE En vue de l’obtention du grade de DOCTEUR DE NORMANDIE UNIVERSITÉ Délivré par L’UNIVERSITÉ DE ROUEN LABORATOIRE D’INFORMATIQUE, DU TRAITEMENT DE L’INFORMATION ET DES SYSTÈMES École doctorale : SCIENCES PHYSIQUES, MATHÉMATIQUES ET DE L’INFORMATION POUR L’INGÉNIEUR Discipline : PHYSIQUE - TRAITEMENT DU SIGNAL Présentée par Damien GROSGEORGE Segmentation par coupes de graphe avec a priori de forme Application à l’IRM cardiaque Directrice de thèse : Pr Su RUAN Co-encadrant : Mme Caroline PETITJEAN Soutenue le 27 mai 2014 JURY Pr Laurent NAJMAN Université Paris-Est Président du jury Pr Fabrice MERIAUDEAU Université de Bourgogne Rapporteur Pr Abderrahim ELMOATAZ-BILLAH Université de Caen Rapporteur Pr Jean-Nicolas DACHER Université de Rouen Examinateur Pr Su RUAN Université de Rouen Directrice Mme Caroline PETITJEAN Université de Rouen EncadrantRemerciement Je souhaite tout d’abord remercier les membres du jury de cette thèse pour l’intérêt porté à mes travaux. Je remercie tout particulièrement Monsieur Fabrice Meriaudeau, Professeur à l’Université de Bourgogne, et Monsieur Abderrahim Elmoataz-Billah, Professeur à l’Université de Caen, d’avoir accepté de rapporter ma thèse. Je remercie également Monsieur Laurent Najman, Professeur à l’Université Paris-Est, de m’avoir fait l’honneur de présider le jury. Je suis particulièrement reconnaissant pour l’ensemble des remarques formulées, critiques et conseils très enrichissants qui m’ont été prodigués. Je tiens tout particulièrement à exprimer ma reconnaissance à Madame Su Ruan, Professeur à l’Université de Rouen et directeur de cette thèse, pour m’avoir fait bénéficier de ses nombreuses connaissances et de son expertise. Sa disponibilité ainsi que ses précieux conseils ont été d’une grande aide à la réalisation de cette thèse. Je tiens également à adresser toute ma reconnaissance et mes remerciements à Madame Caroline Petitjean, Maitre de Conférence à l’Université de Rouen et encadrant de cette thèse, qui m’a formé et donné goût au traitement d’images lors de mon Master. Ses compétences, sa disponibilité et ses qualités humaines ont permis à cette thèse de se dérouler dans les meilleures conditions. Je souhaite à tout thésard un encadrement de cette qualité. Ma reconnaissance va également à Monsieur Jean-Nicolas Dacher, Professeur des Universités et Praticien Hospitalier au CHU de Rouen, pour son expertise médicale en imagerie cardiaque, sa gentillesse et sa disponibilité malgré un emploi du temps chargé. Ses conseils et suggestions ont été d’une grande aide à l’appréhension de la problématique de segmentation cardiaque. iRemerciements Je remercie également tous les membres de l’équipe QuantIF, en particulier Benoît Lelandais, Pierre Buyssens et Maxime Guinin qui ont rendu ces années de thèse agréables et sympathiques, et les membres de l’équipe DocApp, en particulier David Hébert, pour nos nombreux échanges qui m’ont permis d’élargir mon horizon. C’est également l’occasion de remercier ma famille et mes amis dont le soutien a été pré- cieux. En particulier, le soutien du sinpou, Elsa Vavasseur, a été primordial à l’accomplissement de cette thèse. Sa compréhension lors de mes nuits de travail, son soutien à tout épreuve et son Amour ont permis à cette thèse d’en arriver là aujourd’hui. iiTable des matières Introduction générale 1 I Contexte médical et problématiques de segmentation 5 1 - 1 Le cœur : anatomie et imagerie . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1 - 1.1 Structure et vascularisation du cœur . . . . . . . . . . . . . . . . . . . . 5 1 - 1.2 Imagerie cardiaque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1 - 2 Evaluation de la fonction contractile cardiaque . . . . . . . . . . . . . . . . . . . 11 1 - 2.1 Pourquoi recourir à l’IRM ? . . . . . . . . . . . . . . . . . . . . . . . . . 12 1 - 2.2 Méthodes de mesure de la fonction contractile du VG . . . . . . . . . . . 14 1 - 2.3 Méthodes de mesure de la fonction contractile du VD . . . . . . . . . . . 17 1 - 3 Problématiques de segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 1 - 3.1 Difficultés liées à l’acquisition . . . . . . . . . . . . . . . . . . . . . . . . 23 1 - 3.2 Difficultés inhérentes aux images . . . . . . . . . . . . . . . . . . . . . . 24 1 - 4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 II Etat de l’art des méthodes de segmentation des ventricules cardiaques en IRM 29 2 - 1 Segmentation du VG et du VD : état de l’art . . . . . . . . . . . . . . . . . . . . 30 2 - 1.1 Méthodes sans a priori ou avec un a priori faible de forme . . . . . . . . 30 2 - 1.2 Méthodes avec un a priori fort de forme . . . . . . . . . . . . . . . . . . 34 2 - 1.3 Comparaison des méthodes, résultats et étude des erreurs . . . . . . . . . 38 2 - 1.4 Choix d’une méthodologie . . . . . . . . . . . . . . . . . . . . . . . . . . 42 2 - 2 Méthode des coupes de graphe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 iiiTable des matières 2 - 2.1 Modèle d’énergie d’une coupe . . . . . . . . . . . . . . . . . . . . . . . . 44 2 - 2.2 Segmentation binaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 2 - 2.3 Segmentation multi-labels . . . . . . . . . . . . . . . . . . . . . . . . . . 50 2 - 2.4 Algorithmes de recherche de coupe minimum . . . . . . . . . . . . . . . . 54 2 - 2.5 Intégration d’a priori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 2 - 3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 III Segmentation binaire par coupes de graphe avec un modèle de forme statistique 61 3 - 1 Représentation d’un modèle statistique de forme . . . . . . . . . . . . . . . . . . 62 3 - 1.1 Représentation des formes basée sur la fonction distance . . . . . . . . . 63 3 - 1.2 Comparaison des modèles de forme . . . . . . . . . . . . . . . . . . . . . 65 3 - 1.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 3 - 2 Méthode de segmentation binaire par coupes de graphe avec a priori de forme . 68 3 - 2.1 Création d’un a priori de forme . . . . . . . . . . . . . . . . . . . . . . . 69 3 - 2.2 Intégration au graphe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 3 - 3 Resultats expérimentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 3 - 3.1 IRM cardiaques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 3 - 3.2 Construction du modèle de forme et paramétrisation . . . . . . . . . . . 74 3 - 3.3 Résultats de segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . 75 3 - 4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 IV Segmentation par GC multi-labels intégrant des a priori de forme 81 4 - 1 Segmentation avec atlas multi-labels . . . . . . . . . . . . . . . . . . . . . . . . 82 4 - 1.1 Recalage des atlas par coupes de graphe . . . . . . . . . . . . . . . . . . 82 4 - 1.2 Création du modèle de forme . . . . . . . . . . . . . . . . . . . . . . . . 85 4 - 1.3 Segmentation multi-labels par coupes de graphe . . . . . . . . . . . . . . 86 4 - 2 Résultats expérimentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 4 - 2.1 Sélection automatique d’une région d’intérêt . . . . . . . . . . . . . . . . 88 4 - 2.2 Base d’atlas et sélection . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 4 - 2.3 Paramétrisation et implémentation de la méthode . . . . . . . . . . . . . 92 4 - 2.4 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 4 - 3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 ivTable des matières V Comparaison des méthodes : challenge MICCAI 2012 103 5 - 1 Données et mesures d’évaluation du challenge . . . . . . . . . . . . . . . . . . . 104 5 - 1.1 Base segmentée d’IRM cardiaques . . . . . . . . . . . . . . . . . . . . . . 104 5 - 1.2 Méthodologie d’évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . 105 5 - 2 Challenge et méthodes participantes . . . . . . . . . . . . . . . . . . . . . . . . . 106 5 - 2.1 Préparation des données . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 5 - 2.2 Méthodes participantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 5 - 3 Résultats et comparaisons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 5 - 3.1 Performances techniques . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 5 - 3.2 Performances cliniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 5 - 3.3 Comparaisons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 5 - 4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 Conclusion générale et perspectives 125 Liste des publications 129 Annexe 131 A.1 Volumétrie du VG : compléments . . . . . . . . . . . . . . . . . . . . . . . . . . 131 A.1.1 Appréciation semi-quantitative du VG . . . . . . . . . . . . . . . . . . . 131 A.1.2 Méthode planaire 2D grand-axe . . . . . . . . . . . . . . . . . . . . . . . 131 Références bibliographiques 135 vTable des matières viIntroduction générale Les maladies cardiovasculaires sont la principale cause de décès dans les pays occidentaux [1]. Parmi les troubles cardiaques les plus fréquents, il est possible de citer l’hypertension pulmonaire, les maladies coronaires, les dysplasies ou encore les cardiomyopathies. Afin de détecter ces pathologies ou réaliser leur suivi, il est nécessaire d’évaluer la fonction cardiaque. Or l’Imagerie par Résonance Magnétique (IRM) est l’outil standard dans l’évaluation de la fonction contractile cardiaque gauche et droite [2, 3]. Afin de déterminer ses différents paramètres cliniques, tels que les volumes ventriculaires ou la fraction d’éjection, la segmentation des cavités ventriculaires gauche (VG) et droite (VD) est nécessaire. Bien que des solutions existent pour la segmentation du VG, la segmentation du VD est plus difficile et est actuellement effectuée manuellement en routine clinique. Cette tâche, longue et fastidieuse, nécessite en moyenne 20 minutes pour un expert et est sujette à la variabilité intra et inter-expert. Parmi les difficultés principales de cette application, on peut noter (i) le flou aux frontières des cavités ventriculaires du fait de la circulation sanguine, (ii) des artefacts d’acquisition et de l’effet de volume partiel, ainsi que la présence de trabéculations (irrégularités) dans le VD, qui ont le même niveau de gris que le myocarde environnant, (iii) la forme en croissant du VD, complexe et qui varie fortement en fonction du patient et du niveau de coupe d’imagerie. L’objectif est ainsi de réaliser la segmentation des ventricules cardiaques en IRM. En segmentation d’images, les méthodes fondées sur les coupes de graphe (GC, Graph Cut) ont suscité un fort intérêt depuis l’article de Boykov et Jolly [4]. En s’appuyant sur des algorithmes issus de la communauté combinatoire, elles permettent d’optimiser des fonctions de coût de manière globale, et ainsi d’éviter les minima locaux. Or dans notre application, la forme à segmenter est connue a priori. Le processus de segmentation peut ainsi être guidé par 1Introduction générale un modèle de forme ou des contraintes sur celle-ci. Pour des images ayant un contraste faible ou un taux de bruit élevé, une telle contrainte permet d’améliorer la précision de la segmentation. Les modèles de formes basés sur une analyse en composantes principales ou sur des atlas ont été largement étudiés. Ces modèles ont montré leur capacité à capturer la variabilité des formes. Bien que la méthode des coupes de graphe ait la capacité de donner efficacement une solution optimale pour l’utilisation conjointe de différentes informations sur l’image, à ce jour, les travaux de segmentation par coupe de graphe en prenant en compte des formes a priori sont encore peu nombreux dans la littérature. Deux problèmes se posent en effet : la modélisation de la forme de l’objet à segmenter et son intégration dans l’algorithme de coupe de graphe. L’objectif de cette thèse est de concevoir et développer des méthodes de segmentation à base de coupes de graphe, graphe dans lequel est intégré un a priori de forme statistique, afin de l’appliquer à la segmentation des ventricules en IRM cardiaque. Les méthodes que nous proposons peuvent bien sûr être utilisées afin de segmenter d’autres objets, dans le cas où des connaissances a priori sont disponibles. Afin d’utiliser ces connaissances a priori à travers la construction d’un modèle statistique de forme, le choix d’un espace de représentation des formes est nécessaire. Le modèle de distribution de points (PDM, Point Distribution Model) [5] est la représentation la plus largement utilisée dans la littérature. Cette représentation explicite consiste à représenter les objets par un nombre fini de points de correspondance. Nous avons cependant fait le choix d’utiliser une représentation implicite, la distance minimale au contour de l’objet (SDF, Signed Distance Function). Nous montrerons que cette représentation permet de modéliser correctement les variabilités des formes, sans nécessiter la mise en place de points de correspondance et de leur alignement, tout en étant plus robuste que le PDM à un désalignement initial des formes. Notre première contribution consiste en une méthode de segmentation : (i) un modèle de forme sera défini à partir d’une Analyse en Composantes Principales (ACP) permettant de représenter les variabilités du VD par rapport à la moyenne de l’ensemble d’apprentissage, (ii) une carte d’a priori de forme sera créée à partir de ce modèle, afin de l’intégrer au graphe des GC binaires, à partir de l’ajout de termes originaux d’a priori de forme dans la fonctionnelle d’énergie du graphe. Nous montrerons que cette première méthode permet d’obtenir une bonne efficacité de segmentation du VD sur IRM cardiaques. Cependant, certaines applications nécessitent la segmentation conjointe de plusieurs objets au sein d’une même image. Par exemple sur IRM cardiaques, le ventricule droit et le ventricule 2Introduction générale gauche sont tous les deux visibles et proches, et leurs contours présentent un contraste faible et peuvent être bruités. Une segmentation du VD peut déborder vers le VG (et vice-versa), l’intégration d’un modèle de l’ensemble de ces objets à la méthode de segmentation permet de résoudre ce problème. Notre méthode précédente n’est pas adaptée à ce type de situation pour plusieurs raisons : (i) la représentation par SDF ne permet pas de différencier plusieurs objets, auquel cas il faudrait construire un modèle par objet, rendant laborieux le traitement des conflits entre les différentes modélisations, (ii) les GC binaires doivent être remplacés par les GC multi-labels, nécessitant des modifications à l’intégration de termes d’a priori de forme au graphe. Afin de représenter judicieusement les formes des différents objets, nous constituerons un ensemble d’images labellisées par un expert, appelé également un ensemble d’atlas. Un recalage non-rigide de cet ensemble d’atlas sur l’image à segmenter sera réalisé à partir de la méthode des GC multi-labels, une technique récente qui n’a pas encore été très étudiée. A la suite de ce recalage, des cartes d’a priori de forme pour chaque objet seront créées à partir de la fusion des atlas recalés. Nous intégrerons dans le graphe un terme déduit des cartes précé- demment construites, ainsi qu’une contrainte topologique de position des objets entre eux. Nos contributions principales quant à cette méthode reposent sur l’intégration d’a priori de forme à la méthode des GC multi-labels, ce qui à notre connaissance n’a pas été réalisée dans la litté- rature dans le cas multi-objets. Nous montrerons que cette seconde méthode permet d’obtenir une bonne efficacité de segmentation d’un ensemble d’objets. La suite de ce mémoire est ainsi articulée autour de 5 chapitres : – Le chapitre I présente le contexte médical. Nous verrons tout d’abord quelques notions sur l’anatomie du cœur ainsi que les différentes modalités permettant sa visualisation par imagerie. Nous montrerons que l’IRM est l’outil standard dans la détermination de la fonction contractile cardiaque, malgré un besoin de contourage manuel ou semi-automatique du contour des ventricules. Ce chapitre montre également que cette tâche de contourage n’est pas aisée, due à un certain nombre de difficultés inhérentes aux images, posant la problématique de nos travaux. – Le chapitre II présente un état de l’art des méthodes de segmentation des ventricules gauche et droit. Les méthodes sont catégorisées selon l’ajout ou non d’un a priori de forme. Les méthodes sans a priori ou avec un a priori faible sont globalement basées sur les intensités de l’image, sur la classification de pixels ou sur les approches variationnelles, et les méthodes utilisant un a priori fort utilisent généralement les modèles déformables, les modèles actifs de forme et d’apparence, ou les méthodes à base d’atlas. Une comparaison des résultats obtenus par ces méthodes justifiera le choix de l’utilisation d’un a priori de 3Introduction générale forme statistique, et son intégration à la méthode des coupes de graphe. Le cadre général de la méthode des GC sera alors présenté, à la fois dans le cas binaire et dans le cas multi-labels. Nous présenterons également l’état de l’art actuel quant à l’intégration d’a priori de forme à cette méthode. – Le chapitre III présente notre première contribution, permettant la segmentation d’un unique objet. Cette première méthode est dédiée à la segmentation du VD, cette tâche étant la plus difficile et la moins traitée dans la littérature. Une première partie est consacrée à la comparaison de deux représentations des formes pour la modélisation : une représentation explicite par correspondance de points et une représentation implicite par carte de distances signées. Issue de cette comparaison, nous avons défini un modèle de forme basé sur la carte des distances. Notre but est alors d’intégrer ce modèle à la méthode des coupes de graphe, sans la nécessité d’un procédé itératif. Or il est difficile d’intégrer directement le modèle dans le graphe. C’est pourquoi une carte a priori est créée à partir de ce modèle et intégrée directement dans les pondérations du graphe. Nous montrerons que cette méthode permet d’obtenir une bonne efficacité de segmentation du VD sur IRM cardiaque. – Le chapitre IV présente notre seconde contribution, permettant la segmentation conjointe de plusieurs objets. En effet, sachant que les deux ventricules sont visibles sur les images et que leurs contours peuvent présenter un contraste faible et être bruités, l’intégration d’un modèle de l’ensemble de ces objets à la méthode de segmentation permet de résoudre ce problème. Plus précisément, un ensemble d’atlas est créé avec la labellisation par un expert du VD, du VG et du myocarde. Les atlas sont tout d’abord recalés sur l’image à segmenter et combinés afin de construire un modèle probabiliste de forme à 4 labels (VG, VD, myocarde et fond). Ce modèle est alors intégré à la méthode des coupes de graphe multi-labels afin de réaliser la segmentation du VD, du VG et du myocarde de manière totalement automatique. Cette méthode permet également l’obtention de bons résultats pour les différents objets considérés. – Nos deux contributions sont comparées aux méthodes de l’état de l’art à partir du challenge de segmentation MICCAI’12 au chapitre V. Ce challenge que nous avons organisé propose une importante base labellisée d’IRM cardiaques composée de 48 patients, ainsi que des mesures d’évaluation technique et clinique permettant une comparaison honnête des méthodes sur cette application difficile. Nous montrerons l’efficacité de nos méthodes, à la fois à travers l’évaluation technique et clinique des résultats. Enfin, la conclusion générale synthétisera les résultats obtenus ainsi que les perspectives envisageables à ces travaux. 4Chapitre I Contexte médical et problématiques de segmentation Ce chapitre est consacré à l’anatomie du cœur ainsi qu’à sa visualisation par imagerie. Dans une première partie sont présentées les caractéristiques physiques du cœur, ainsi que les modalités principales de l’imagerie cardiaque. Dans une seconde partie, nous verrons l’importance de l’IRM dans la détermination de la fonction contractile cardiaque, malgré un besoin de contourage manuel ou semi-automatique. Dans une dernière partie, nous montrerons que cette tâche de contourage n’est pas aisée, due à un certain nombre de difficultés inhérentes aux images, posant la problématique de nos travaux. 1 - 1 Le cœur : anatomie et imagerie Le cœur est un organe creux et musculaire servant de pompe au système circulatoire, i.e. permettant la circulation du sang vers les vaisseaux sanguins et les divers organes du corps à partir de contractions rythmiques. Le cœur est ainsi un système complexe que nous allons aborder dans cette partie. 1 - 1.1 Structure et vascularisation du cœur Le cœur est un muscle qui a pour fonction de faire circuler le sang dans l’organisme en agissant comme une pompe par des contractions rythmiques. Il est situé dans le médiastin antéro-inférieur, 2/3 à gauche et 1/3 à droite de la ligne médiane. Légèrement plus petit pour une femme que pour un homme, il mesure en moyenne chez ce dernier 105 mm de largeur, 98 mm de hauteur, 205 mm de circonférence et pèse en moyenne chez l’adulte de 300 à 350 grammes. Ces dimensions sont sujettes à des augmentations en cas de pathologies cardiaques. Le cœur est composé de quatre chambres appelées cavités cardiaques (Figure I.1) : deux cavités 5Chapitre I. Contexte médical et problématiques de segmentation 1. Atrium droit 5. Artère pulmonaire 9. Ventricule gauche 13. Valve sigmoïde 2. Atrium gauche 6. Veine pulmonaire 10. Ventricule droit 14. Septum interventriculaire 3. Veine cave supérieure 7. Valve mitrale 11. Veine cave inférieure 15. Piliers 4. Aorte 8. Valve aortique 12. Valve tricuspide Figure I.1 – Schématique (à gauche, sous licence GFDL) et anatomie du cœur (à droite, d’après [6]). droites, l’atrium (ou oreillette) droite (AD) et le ventricule droit (VD) et deux cavités gauches, l’atrium gauche (AG) et le ventricule gauche (VG). Les cavités droite et gauche sont séparées par une cloison musculaire épaisse, le septum atrio-ventriculaire. Celui-ci permet d’éviter le passage du sang entre les deux moitiés du cœur. Les atria sont reliés aux ventricules par l’intermédiaire de valves qui assurent un passage unidirectionnel et coordonné du sang des atria vers les ventricules : la valve mitrale à gauche et la valve tricuspide à droite. Un muscle, appelé myocarde, entoure ces quatre cavités. Il est lui-même entouré d’une membrane, le péricarde. La paroi interne du myocarde est appelé endocarde, la paroi externe l’épicarde. La partie haute du cœur est appelée base, sa pointe est appelée apex. Deux axes sont souvent utilisés pour sa représentation : l’axe apex-base, appelé grand axe, et le plan lui étant perpendiculaire, appelé petit axe (Figure I.2). Les deux parties gauche et droite du cœur fonctionnent en parallèle durant le cycle cardiaque. Au repos, ce dernier dure environ 800 ms (75 battements par minute). La contraction des ventricules vide dans les artères un débit de sang de l’ordre de 5 à 6 litres par minute. Chaque battement entraîne une succession d’événements appelée révolution cardiaque, consistant en trois étapes majeures : la systole auriculaire, la systole ventriculaire et la diastole. Voici leurs définitions : (i) Pendant la systole auriculaire, la contraction des atria entraîne l’éjection du sang vers les 6I.1 - 1 Le cœur : anatomie et imagerie Figure I.2 – Géométrie du ventricule gauche (VG) et du ventricule droit (VD) (d’après [7]). ventricules : on parle de remplissage actif des ventricules. A la suite de ce remplissage, les valves auriculo-ventriculaires se ferment, ce qui produit le son familier du battement du cœur. Le sang continue d’affluer vers les atria bien que les valves soient fermées, ce qui permet d’éviter tout reflux de sang (Figure I.3-(a)). (ii) Pendant la systole ventriculaire, les ventricules se contractent afin d’expulser le sang vers le système circulatoire. Tout d’abord, les valves sigmoïdes sont fermées brièvement, puis s’ouvrent dès que la pression à l’intérieur des ventricules est supérieure à la pression artérielle. Après l’expulsion du sang, les valves sigmoïdes (valve aortique à gauche et valve pulmonaire à droite) se ferment afin de l’empêcher de refluer vers les ventricules. Cette action provoque un deuxième son cardiaque, plus aigu que le premier. La pression sanguine augmente à la suite de cette étape (Figure I.3-(b)). (iii) Enfin, la diastole est l’étape où toutes les parties du cœur sont totalement relaxées, ce qui permet le remplissage passif des ventricules à partir des veines cave et pulmonaire en passant par les atria gauche et droit : ces derniers se remplissent doucement et le sang s’écoule alors dans les ventricules. Ce remplissage concerne plus de 80% de la capacité totale dans les conditions usuelles (Figure I.3-(a)). Au repos, la diastole dure environ 60% du cycle cardiaque et la systole 40% du cycle cardiaque. Les termes protosystole et télésystole (respectivement protodiastole et télédiastole) désignent le début et la fin de la systole (respectivement diastole). 7Chapitre I. Contexte médical et problématiques de segmentation (a) Diastole et systole auriculaire (b) Systole ventriculaire Figure I.3 – Illustration de la diastole, systole auriculaire et ventriculaire (sous licence GFDL). Les ventricules cardiaques ont ainsi pour fonction de pomper le sang vers le corps (VG) ou vers les poumons (VD). Par conséquent, leurs parois sont plus épaisses que celles des atria, et leur rôle de distribution du sang leur confère une contraction bien plus importante. Le VG est également plus développé (muscle plus important, paroi plus épaisse) que le VD. En effet, le VG est considéré comme la chambre pompante principale puisqu’il doit être capable d’envoyer le sang à l’organisme entier, lorsque le VD ne dessert que les poumons : la pression sanguine dans l’aorte est environ quatre fois plus importante que dans l’artère pulmonaire. D’autres éléments d’anatomie cardiaque peuvent être retrouvés dans les annexes de [8]. Le cœur repose sur différents mécanismes intercorrélés, qui doivent être pris en compte lors de son exploration et sa visualisation. La section suivante 1 - 1.2 va présenter différentes modalités d’imagerie cardiaque utilisées en routine clinique et en recherche. 1 - 1.2 Imagerie cardiaque Le diagnostic, les soins, la thérapeutique sont autant de nécessités à l’imagerie cardiaque. Le cœur étant un organe complexe, il est nécessaire de déterminer des plans de coupe permettant une bonne visualisation de cet organe. Pour l’imagerie en coupe en radiologie, les incidences orthogonales, i.e. transverses (ou axial), sagittales et frontales (ou coronales) sont habituellement utilisées. Par définition, les coupes transverses sont des vues par dessous (avec 8I.1 - 1 Le cœur : anatomie et imagerie le côté droit du patient à gauche de l’image et la face antérieure en haut), les coupes frontales sont des vues par devant (côté droit du patient à gauche de l’image, direction craniale en haut) et les coupes sagittales sont des vues de côté (direction craniale en haut mais face antérieure à gauche ou à droite). Cependant, ces coupes ne sont pas les plus pertinentes pour l’étude du cœur. Les orientations spécifiques indispensables à la visualisation du cœur sont les plans de coupe obliques, orientés selon la direction du ventricule gauche. Cet ensemble de plan de coupe standard a été défini en 2002 par la Société Américaine de Cardiologie (AHA) [9]. En effet, le choix de l’orientation ou même encore l’épaisseur des plans de coupe restaient jusqu’alors sujettes au choix du radiologue, ce qui pouvait résulter en des difficultés de comparaison entre les différentes modalités d’imagerie, et même pour une même modalité. Les trois incidences fondamentales définies consistent en un système de plans orthogonaux deux à deux : l’incidence sagittale oblique ou grand axe vertical, l’incidence transverse oblique appelé grand axe horizontal ou encore 4 cavités, et l’incidence petit axe. Ces différents plans sont illustrés à la Figure I.4. Selon cette même standardisation, l’épaisseur de coupe ne doit pas excéder 1 cm. Différentes modalités d’imagerie permettent d’obtenir ces différents plans de coupe. Nous allons présenter dans cette partie les plus couramment utilisées en routine clinique. L’échocardiographie est une échographie du cœur. Cet examen est le plus communément utilisé en cardiologie. Il consiste en l’application d’une sonde d’échographie recouverte d’un gel (qui permet un meilleur passage des ultrasons à travers la peau) sur la peau du patient en des zones précises constituant les fenêtres d’échographie. Cet examen est totalement indolore et dure de dix minutes à une demi-heure. Il permet de déterminer les volumes ventriculaires, le volume des atria, de diagnostiquer des anomalies ou épaississement du septum, de visualiser et vérifier la mobilité et l’épaisseur des quatre valves cardiaques, de même pour les parois cardiaques [10]. Cependant, l’échocardiographie souffre de certaines limitations : (i) l’air et les os ne transmettant pas les ultrasons, les fenêtres de visualisation peuvent être très réduites, voire inexistantes, et se limiter à certaines incidences (en particuliers chez les sujets obèses, très maigres ou souffrant d’une maladie pulmonaire), (ii) la résolution des images est médiocre, (iii) les résultats peuvent varier en fonction du plan de coupe choisi, l’examen dépend donc de l’expérience de l’expert. Des images de meilleures qualités peuvent être obtenues à partir d’une échographie trans-œsophagienne, qui consiste à introduire par l’œsophage une sonde ultrasonore. Les structures postérieures du cœur (valves et atria en particulier) sont mieux définies sur les images. Cependant, cet examen invasif est difficile à supporter pour le patient et demande plus de temps (préparation et examen). 9Chapitre I. Contexte médical et problématiques de segmentation Figure I.4 – Illustration des plans de coupe petit axe, grand axe vertical et grand axe horizontal (d’après [7]). Le scanner cardiaque est un scanner thoracique avec injection de produit de contraste [11]. Il consiste en un tube délivrant des rayons X et effectuant une rotation continue permettant l’exploration d’un volume. Les données recueillies permettent la reconstruction de ce volume en une image en deux ou trois dimensions. L’acquisition des images par le scanner dure 10 à 15 secondes, pendant laquelle le patient doit réaliser une apnée. La qualité des images est corrélée au rythme cardiaque qui doit être lent et régulier pour une qualité optimale. Cet examen permet l’obtention des différents plans de coupe cardiaques et d’accéder à la fonction contractile cardiaque. Cependant, dans la plupart des cas, il est utilisé pour diagnostiquer les maladies coronaires, bien que l’examen de référence soit la coronarographie, un examen médical invasif (introduction d’une sonde) et utilisant la technique de radiographie aux rayons X avec injection d’un produit de contraste iodé. Le scanner cardiaque permet une bonne visualisation des gros troncs coronaires mais sa qualité de visualisation des artères distales reste médiocre. De plus, il 10I.1 - 2 Evaluation de la fonction contractile cardiaque n’est pas complètement non invasif : il délivre des radiations ionisantes nettement supérieures à celles d’une coronarographie et nécessite l’utilisation de produit de contraste allergisant et toxique pour le rein de patients présentant une insuffisance rénale. Enfin, cet examen ne permet pas de traiter directement les artères malades. L’Imagerie par Résonance Magnétique (IRM) cardiaque est l’examen radiologique de référence pour l’exploration du muscle cardiaque [11]. C’est un examen non invasif permettant d’obtenir des vues 2D ou 3D avec une résolution en contraste relativement élevée. Elle a l’avantage de ne pas délivrer de radiations mais nécessite l’injection d’un produit de contraste au patient, celle-ci étant peu risquée mais coûteuse et contraignante, et requérant une voie veineuse. L’IRM anatomique (ciné-IRM) permet d’avoir accès à des informations sur la ciné- matique des parois endo- et épicardiques. Des variantes de l’IRM conventionnelle permettent également une étude précise de la fonction segmentaire transmurale (en particulier l’IRM de marquage et l’IRM à contraste de phase), ce qui n’est réalisable par aucun autre examen [12]. Des précisions sur l’imagerie par résonance magnétique, son principe ainsi que ses spécificités dans le cas de l’IRM cardiaque, peuvent être trouvées en [7]. Ainsi, l’apport de l’IRM conventionnelle en diagnostic cardiaque est intéressant (Figure I.5) : celle-ci permet par exemple de préciser la sévérité et la localisation de pathologies en cas d’échec de l’échocardiographie chez les patients peu échogènes. De plus, elle permet de mesurer directement et précisément des paramètres de la fonction contractile cardiaque (fraction d’éjection à partir des volumes, voir Section 1 - 2 ). Nous verrons dans la section suivante comment obtenir ces paramètres à partir des séquences ciné-IRM. Enfin, cet examen est totalement non invasif. 1 - 2 Evaluation de la fonction contractile cardiaque Les maladies cardiovasculaires sont la principale cause de décès dans les pays occidentaux [1, 13]. L’étude de la fonction contractile cardiaque permet l’évaluation de la fonction du cœur (sain ou pathologique), et est ainsi nécessaire à la prévention d’accidents cardiaques. L’Imagerie par Résonance Magnétique permet d’obtenir des informations anatomiques et fonctionnelles précises et est une modalité de plus en plus utilisée comme un outil standard dans l’évaluation du ventricule gauche [14] et du ventricule droit [2, 3]. Cette section va ainsi s’intéresser à la segmentation du cœur en IRM cardiaque, et plus précisément accéder à la volumétrie et donc 11Chapitre I. Contexte médical et problématiques de segmentation Figure I.5 – Images RM cardiaques (d’après Petitjean [7]). aux indices de la fonction contractile cardiaque du VG et du VD dans un but de diagnostic. Les différents indicateurs classiques de la fonction contractile cardiaque sont l’index de volume télédiastolique (IVTD) en ml/m2 , l’index de masse ventriculaire (IMV) en g/m2 , le volume éjecté et la fraction d’éjection F E définie par : F E = Vdiastole − Vsystole Vdiastole (I.1) Les volumes absolus des ventricules peuvent également être intéressants dans le suivi longitudinal de certains patients, en particulier pour le VD, dans le cas de pathologies congénitales peu stéréotypées comme la tétralogie de Fallot. Différentes techniques d’évaluation de la fonction contractile cardiaque gauche et droite vont être abordées, basées sur [15] 1 . 1 - 2.1 Pourquoi recourir à l’IRM ? L’échocardiographie est l’examen de référence pour l’étude de la fonction cardiaque. En effet, cet examen est aisé à réaliser, peu coûteux, sans contre-indication, indolore, non invasif et permet de choisir immédiatement la mesure thérapeutique adaptée. Cependant, pour l’étude du VG, et plus encore pour le VD, cette modalité souffre de deux limitations principales : (i) le champ d’exploration peut être restreint selon l’échogénicité des patients, (ii) la capacité de quantification est limitée, surtout en cas de déformation des ventricules par une pathologie (par exemple infarctus). En effet, l’estimation du volume du VG en échocardiographie 2D repose sur 1. www.irmcardiaque.com 12I.1 - 2 Evaluation de la fonction contractile cardiaque une modélisation, soit ellipsoïde de révolution pour la méthode surface-longueur, soit comme une pile de disques de diamètres définis par le petit axe depuis la base jusqu’à l’apex pour la méthode Simpson. Ces modélisations impliquent une forte variabilité dans les résultats du fait des imprécisions inhérentes. L’échocardiographie 3D n’a pas besoin de ces modélisations mais n’est pas d’utilisation courante. Ainsi, l’IRM est une bonne solution car elle permet de résoudre ces deux problèmes : il n’y a pas de limitation du champ de vue, et d’autre part la possibilité d’acquisition de l’ensemble des données 3D rend inutile l’utilisation d’un modèle géométrique. Cependant, la technique d’acquisition ainsi que les post-traitements nécessaires à la réalisation de la volumétrie 3D est beaucoup plus fastidieuse, et dépend du médecin. Avant même l’étude quantitative, la qualité des ciné obtenus dans les 3 plans permet déjà une analyse qualitative de la contraction globale et segmentaire, et permet une description systématisée des anomalies : selon le territoire anatomique considéré (antérieur, septal, inférieur, latéral, apical), selon la zone le long du grand axe (basale, médiane, apicale) et avec des qualifitatifs du plus normal au plus pathologique (normo, hypo, akinétique, dyskinétique), ce dernier évoquant un mouvement paradoxal d’expansion du segment pendant la contraction segmentaire. De plus, une nomenclature standardisée permet une appréciation semi-quantitative de la contraction du VG et l’obtention de résultats comparables quelque soit le lieu d’examen (voir Section A.1.1 de l’Annexe). Des outils de quantification plus précis existent cependant, comme nous le verrons partie 1 - 2.2 et 1 - 2.3 . Afin de réaliser l’étude quantitative de la fonction du VG et du VD, il est nécessaire de sélectionner la séquence ciné. Depuis le début des années 2000, les séquences ciné SSFP (TE 1.1/TR 2.5) sont utilisées car elles sont plus rapides, ont un meilleur RSB et un meilleur contraste entre parois et cavités cardiaques que sur les anciennes séquences en Echo de Gradient (FL2D). Les normes doivent ainsi être établies en fonction de la séquence utilisée. De plus, une acquisition optimale d’une pile de coupes des volumes ventriculaires est fait de compromis entre deux exigences contradictoires : la résolution et le temps d’acquisition. La résolution spatiale utilisée typiquement est une largeur de pixel de 1.5 à 2 mm et une épaisseur de coupe entre 6 et 9 mm (cette épaisseur conditionne le nombre de coupes nécessaires). Concernant la résolution temporelle, plus celle-ci est résolue, plus on obtient d’images pour un cycle cardiaque et plus on risque d’observer le plus petit volume réel en systole. Seule la systole peut poser problème, le temps diastolique étant long une résolution temporelle médiocre permet d’obtenir un volume proche de la réalité. La résolution temporelle typique est de 50 ms, celle-ci permettant d’obtenir les instants où le cœur est totalement dilaté (fin de diastole, ED) et totalement contracté (fin de systole, ES). Concernant le temps d’acquisition, sur les meilleurs appareils utilisés actuellement, 13Chapitre I. Contexte médical et problématiques de segmentation Figure I.6 – Exemple d’acquisition de 3 coupes en une apnée de 14 secondes, pour une résolution temporelle de 33 ms et une résolution spatiale d’environ 2 mm (d’après [15]). seules 3 à 4 apnées de 15 secondes sont nécessaires à l’obtention de la volumétrie cardiaque complète. Un exemple d’acquisition est donné à la Figure I.6. Ces acquisitions réalisées, il est possible de réaliser des mesures de la fonction contractile du VG ainsi que du VD afin de détecter d’éventuelles pathologies. Différentes techniques existent, que nous allons détailler dans la suite de cette partie. 1 - 2.2 Méthodes de mesure de la fonction contractile du VG La première étape consiste à déterminer les 2 dimensions de base du VG qui se mesurent sur l’incidence 4-cavités en diastole : (i) l’épaisseur des parois, plus précisément la portion médiane du septum, qui est normalement de 10 à 11 mm et qui au-dessus de 12 mm est considérée comme une hypertrophie pariétale, (ii) le diamètre du VG en dessous des valves mitrales, qui est normalement de l’ordre de 50 mm et qui au-delà de 56 mm est considéré comme une dilatation du VG pour un patient de corpulence normale (en petit axe, avec la forme elliptique du VG, la limite du diamètre verticale est de 60 mm). La Figure I.7 illustre l’obtention de ces mesures. L’étape suivante consiste à quantifier les volumes ventriculaires gauches. Deux méthodes 14I.1 - 2 Evaluation de la fonction contractile cardiaque Diamètre diastolique en grand axe Diamètre diastolique en petit axe Figure I.7 – Illustration de l’obtention des dimensions de base du VG (en haut), exemple du diamètre du VG en grand axe et petit axe (en bas) avec un diamètre vertical de 53 mm et horizontal de 42 mm (d’après [15]). différentes sont disponibles : Méthode planaire 2D grand axe : Deux principes de quantification peuvent être utilisés sur les coupes grand axe, la méthode ’surface-longueur’ et la méthode Simpson. La Section A.1.2 de l’Annexe présente ces deux techniques. Ces méthodes sont beaucoup moins précises que la méthode 3D que nous allons détailler dans la suite, puisqu’elles reposent sur une modélisation du ventricule. Volumétrie 3D petit axe : L’incidence petit axe est l’incidence privilégiée pour l’étude du VG, et nécessite en moyenne 8 à 10 coupes jointives de 8 mm d’épaisseur pour obtenir la cavité ventriculaire de la base à l’apex (Figure I.8). Le principe de calcul du volume sur cette incidence est similaire à celui de la méthode de Simpson illustrée à la Figure A.2 (Annexe, Section A.1.2 ), à la différence que les contours de chaque disque sont tracés sur des coupes petit axe réellement acquises et ne repose plus sur un modèle géomètrique : la méthode 3D offre une volumétrie vraie. Les contours endocardique et épicardique (Figure I.9) peuvent être tracés manuellement ou à l’aide d’un logiciel semi-automatique, avec par convention les piliers 15Chapitre I. Contexte médical et problématiques de segmentation exclus du contourage myocardique (donc inclus dans le volume ventriculaire), ce qui entraîne une sous-estimation de la masse du VG d’environ 9% par rapport à la masse effective [16], mais une meilleure reproductibilité des tracés. L’opération de tracé, fastidieuse, peut se limiter au volume diastolique et systolique afin d’accéder à la fraction d’éjection. Il est également possible à l’aide de tracés semi-automatisés de réaliser la segmentation sur l’ensemble des images de la série et disposer de la courbe temps-volume (Figure I.9). Cette dernière permet d’accéder aux vitesses maximales d’éjection et de remplissage par sa dérivée. Une difficulté réside dans l’exclusion des coupes extrêmes en systole : le plan valvulaire mitral et tricuspidien se déplace vers l’apex du ventricule pendant la systole, alors que l’apex ne bouge pas. Des problèmes de reproductibilité des mesures peuvent se poser si deux observateurs ne choisissent pas le même plan de coupe comme plan basal. Concernant le plan apical, les observateurs sont en général concordants. Le plan mitral donnant la première coupe basale de la cavité du VG en diastole peut ainsi contenir une portion de l’oreillette gauche en systole (Figure I.10). Un problème similaire peut également intervenir à l’apex bien que les observateurs soient en général concordants sur le plan apical. Ces coupes problématiques doivent être exclues du calcul volumique, car elles peuvent entrainer de fortes erreurs de calcul. Leur détection est cependant relativement aisée, car la couronne myocardique est de l’ordre de 1 cm dans le myocarde VG alors qu’elle n’est que de l’ordre de 3 mm pour l’oreillette gauche. Il peut également arriver que le tracé du myocarde ne soit pas elliptique mais en croissant latéro-basal lorsque la racine aortique apparaît sur la coupe basale. A partir des tracés précédemment effectués, il est possible de réaliser une volumétrie du VG permettant d’accéder aux différents indicateurs de la fonction contractile cardiaque : IVTD, IMV, volume éjecté et fraction d’éjection F EV G. Ceux-ci doivent alors être comparés aux valeurs dites normales. Ces valeurs sont variables dans la littérature, car elles dépendent de facteurs physiologiques : taille et surface corporelle (d’où l’utilisation de valeurs indexées), sexe (valeurs supérieures chez l’homme), âge (supérieures entre 20 et 45 ans qu’après 45 ans), l’ethnie (africains > hispaniques > caucasiens > asiatiques), l’entrainement physique (chez les athlètes : IVTD supérieure de 21%, IMVG supérieure de 42% [17, 18]), mais également de facteurs méthodologiques : mesures sur coupes grand axe ou petit axe (IVTD beaucoup plus grand avec l’approche ’surface-longueur’ qu’avec la volumétrie 3D petit axe, qui est beaucoup plus précise), le type d’Echo (IVTD et IMVG : Echo de Spin en sang noir (BB) > Echo de Gradient classique > SSFP), selon le type d’apnée et si elle est réalisée, selon l’exclusion des piliers ou non (9.6% de différence [16]). Des valeurs normales peuvent être trouvées dans la littérature pour l’IVTD et l’IMVG en volumétrie 3D petit axe selon le type d’Echo : ciné EG 16I.1 - 2 Evaluation de la fonction contractile cardiaque Figure I.8 – Exemple de 5 coupes petit axes où seront tracés les contours endocardiques (d’après [15]). non SSFP [19], ciné EG SSFP [17] ou encore Turbo spin-écho [20]. Pour ces mêmes auteurs, le volume d’éjection systolique est de l’ordre de 50 à 60 ml/m2 pour l’homme et 40 à 50 ml/m2 chez la femme, et les normes de fraction d’éjection F EV G sont uniformes : NF E = 56 à 75%. On observe des variations très importantes selon la méthode IRM utilisée mais également entre les normes échographique et IRM (l’IMVG normal en échographie TM est de 120 g/m2 alors qu’elle est de 90 g/m2 en IRM SSFP). Des études sur la variabilité des mesures montrent des écarts moyens sur l’IMVG de ±8g en IRM contre ±49g en échographie TM [21], et des écarts types de différences intra-observateur de 9.2g en IRM contre 24g en échographie 2D [22]. 1 - 2.3 Méthodes de mesure de la fonction contractile du VD L’état fonctionnel du VD peut être mesuré à l’aide d’indices fonctionnels, tel que l’indice TAPSE (Tricuspid Annular Plane Systolic Excursion) quantifiant l’excursion de l’anneau tricuspidien. Celui-ci se mesure facilement sur des coupes axiales en ciné-IRM (Figure I.11) et détermine une dysfonction du VD si ce déplacement est inférieur à 15 - 20 mm. Certains indices du VD ne sont pas accessibles en IRM : c’est le cas par exemple de l’indice TEI correspondant à la somme des périodes de relaxation et de contraction isovolumique sur la durée de l’éjection 17Chapitre I. Contexte médical et problématiques de segmentation Figure I.9 – Exemple de tracé endocardique en rouge et épicardique en vert du VG (en haut, diastole à gauche, systole à droite) et de la courbe du volume du VG et de ses indicateurs de fonction (en bas) (d’après [15]). ventriculaire, dont le seuil maximal de normalité est N < 30 à 40%, calculé à partir des courbes de flux mitral et de flux aortique sur échocardiographie doppler. De nombreux autres indices fonctionnels sont également accessibles à partir des nouvelles méthodes écho-doppler basées sur le speckle tracking notamment pour l’étude du synchronisme du VD, alors que sa réalisation en IRM reste du domaine de la recherche. Cependant, l’évaluation de la fonction systolique du VD est difficile en échographie. La fraction d’éjection réelle du VD ne peut être atteinte facilement et seule l’étude de la variation de surface en coupe 4-cavités médio-ventriculaire permet de réaliser une approche quantitative de la fonction contractile (avec des valeurs de normalité de 40 à 75%). Cette étude ne prend pourtant pas en compte toutes les parties du VD, dont l’infundibulum comptant pour 25% du volume. L’IRM reste le meilleur outil d’analyse du VD afin de quantifier le volume 3D puisqu’elle n’a aucune limitation de champ de vue et ne nécessite aucune modélisation géométrique ou mathématique. Deux incidences différentes sont utilisées pour la quantification du VD, pré- 18I.1 - 2 Evaluation de la fonction contractile cardiaque Figure I.10 – Illustration de l’exclusion de la coupe basale en systole : alors qu’en diastole la rondelle myocardique est bien définie (en haut), le mouvement du cœur défini par les flèches implique que le myocarde sort du plan de coupe et on observe alors l’oreillette gauche (OG, en bas) qui doit être exclu du volume (d’après [15]). sentant chacune des avantages et des faiblesses, que nous allons détailler : Approche avec une pile de coupes axiales : Cette approche consiste à réaliser la volumétrie sur l’ensemble des coupes axiales du cœur. Son avantage repose sur une excellente identification du plan tricuspidien, ce qui permet de bien définir la cavité ventriculaire pour ces niveaux de coupe, en diastole comme en systole. Cependant, un fort effet de volume partiel affecte les coupes extrêmes en haut et en bas. En haut, la valve pulmonaire peut généralement être identifiée mais également rendre plus difficile le tracé, ce qui n’est objectivement pas critique, la contribution à la volumétrie du VD étant marginale. Le problème est plus critique à la partie basse où le plancher du VD peut entrer et sortir du plan de coupe et où, du fait de l’effet de volume partiel, un mélange des intensités avec la paroi inférieure atténue le signal sanguin. Le VD est alors plus difficile à segmenter à ce niveau de coupe alors que sa contribution est significative dans la volumétrie totale du VD. La Figure I.12 présente un exemple de volumétrie du VD chez un patient présentant un infarctus du VD. Approche petit axe : Cette approche consiste à réaliser la volumétrie sur l’ensemble des coupes petit axe du cœur. Sa difficulté réside dans la détection de la coupe basale extrême 19Chapitre I. Contexte médical et problématiques de segmentation (a) Image diastolique (b) Image systolique (c) Mesure du TAPSE Figure I.11 – Illustration de mesure de l’indice TAPSE à partir de la superposition de l’image diastolique (a) et systolique (b) donnée par la double flêche bleue (c) (d’après [15]). Figure I.12 – Tracé endocardique manuel du VD (diastole en haut, systole en bas) chez un patient atteint d’un infarctus du VD, dont la coupe la plus basse (coupe numéro 1, à gauche) pose problème au contourage du fait de l’effet de volume partiel au niveau du plancher ventriculaire (d’après [15]). du VD, au niveau du plan tricuspidien, qui peut être confondue avec une coupe de l’oreillette droite. Le même type de problème avait été rencontré pour la coupe basale du VG, mais dans le cas du VD l’épaisseur de la paroi myocardique ne permet pas de distinguer le VD de l’OD aussi facilement (si la coupe passe devant ou derrière l’anneau tricuspidien), comme le montrent les Figures I.13 et I.14. Le choix de la première coupe basale en systole par l’expert doit donc être l’objet d’une attention toute particulière car le déplacement de l’anneau tricuspidien est de l’ordre de 20 mm (indice TAPSE présenté précedemment), soit jusqu’à 3 niveaux de coupe. Puisqu’il n’est pas possible de considérer le même plan basal en systole et en diastole, il faut donc choisir le plan basal de la systole et le plan basal de la diastole sur les coupes orthogonales (Figure I.13). Une autre solution consiste à pointer les 2 extrémités de la valve tricuspide et 20I.1 - 2 Evaluation de la fonction contractile cardiaque Figure I.13 – Illustration du déplacement de l’anneau tricuspidien selon le cycle cardiaque entre la diastole (en haut) et la systole (en bas). La coupe basale est indiquée par la ligne rouge oblique sur l’incidence 4-cavités (à gauche) et montre que la coupe passe dans le VD en diastole alors qu’elle est localisée dans l’OD en systole (d’après [15]). mitral à tout instant de la révolution cardiaque afin de ne conserver que les volumes de sang qui sont réellement dans le ventricule (système syngo via de siemens). Malgré ces difficultés, cette incidence a le grand avantage de permettre l’analyse simultanée des ventricules droit et gauche et un contourage des ventricules plus aisé que sur l’approche avec une pile de coupes axiales. Elle reste ainsi l’approche la plus employée en routine clinique pour la mesure de la fonction contractile cardiaque : dans la suite, nous ne considérerons donc que l’approche petit axe dans un but de segmentation du VG et du VD. Un exemple de segmentation manuelle des contours endo- et épicardique du VG, et endocardique du VD est donné à la Figure I.15 sur l’incidence petit axe en diastole et en systole. Comme pour le VG, il existe des valeurs normales de volume (IVTD) et de masse ventriculaire (IMV) droite, qui dépendent des méthodes de mesure. Ces valeurs sont déterminées par [23] dans le cas de séquence Ciné SSFP (pour des adultes, des normes spécifiques pour les enfants existent [24]). Par convention, les trabéculations sont exclus du contour, ils sont donc inclus dans la cavité ventriculaire. On peut noter que les volumes et masses ventriculaires sont plus élevés chez l’homme que chez la femme, que le volume ventriculaire droit est légèrement supérieur au gauche mais que sa fraction d’éjection est plus faible. Enfin, la masse ventriculaire du VD est beaucoup plus faible que celle du VG, d’un facteur 2 à 3. 21Chapitre I. Contexte médical et problématiques de segmentation Figure I.14 – Exemple de cavité ventriculaire droite à inclure dans la mesure en diastole (en rouge, en haut) et à exclure en systole car dans la cavité de l’OD (en jaune, en bas) (d’après [15]). L’IRM est un excellent outil d’étude et de quantification du VG et du VD. Elle permet d’accéder à la fonction contractile cardiaque à partir d’une volumétrie 3D précise puisque chaque niveau de coupe est disponible sur cette modalité. De plus, l’utilisation de l’incidence petit axe a le grand avantage de permettre l’analyse simultanée des deux ventricules cardiaques et est la plus utilisée en routine clinique. Cependant, cette analyse précise a un coût : elle requiert le contourage par un expert du VG et du VD sur chaque coupe. Cette tâche n’est pas aisée, due à certaines caractéristiques des données d’acquisition, ainsi qu’à la qualité des images, et est coûteuse en temps pour un expert. Compte tenu de la méthode clinique de contourage (semiautomatique pour le VG et manuel pour le VD), la réalisation de méthodes de segmentation des ventricules pose une véritable problématique. 1 - 3 Problématiques de segmentation L’objectif est d’aider à la mesure de la fonction contractile cardiaque en réalisant la segmentation des ventricules sur les coupes de l’incidence petit axe en IRM. Cette segmentation est effectuée en 2D sur chaque coupe du fait de la résolution anisotropique de la séquence, comme nous le verrons dans la suite. Elle doit faire face à un certain nombre de difficultés. Certaines sont liées aux données d’acquisition, lorsque d’autres sont liées à la nature des images. Cette partie va présenter les différents problèmes rencontrés à la réalisation de cette tâche. 22I.1 - 3 Problématiques de segmentation (a) (b) Figure I.15 – Segmentation manuelle du VD (en vert) et du VG (endocarde en bleu, épicarde en rouge) en diastole (a) et systole (b) sur incidence petit axe. Patient 2 de la base du challenge MICCAI’12 (voir Chapitre V). 1 - 3.1 Difficultés liées à l’acquisition Grandes variations des formes : Bien que la résolution spatiale des plans de coupe soit bonne (de l’ordre du millimètre pour un pixel), l’épaisseur des coupes et la distance entre deux coupes successives sont assez importantes (de 6 à 9 millimètres chacune) : la résolution d’un volume cardiaque est ainsi anisotropique. Ceci implique de grandes variations des formes entre deux coupes successives, comme l’illustre la Figure I.16 présentant les différentes coupes d’un volume cardiaque en fin de systole. Cet écart entre les coupes peut poser problème à un traitement 3D pour la segmentation. En effet, il est difficile de recréer un volume 3D correct sans une étape d’interpolation des coupes manquantes. Cependant, les variations très importantes rendent cette interpolation malaisée et sujette aux erreurs. De plus, le nombre de coupes varie en fonction de la taille du cœur, et donc du patient. Ces différentes considérations doivent être prises en compte pour la réalisation de la segmentation, et il semble ainsi plus pertinent d’effectuer la segmentation en 2D. 23Chapitre I. Contexte médical et problématiques de segmentation 1 2 3 4 5 Figure I.16 – Visualisation des variations entre les coupes successives d’un volume ES (1 : coupe basale à 5 : coupe apicale). La segmentation a été tracée par un expert : VD (en vert) et VG (endocarde en bleu, épicarde en rouge). Effet de volume partiel : Cette épaisseur de coupe a également une autre conséquence lors de l’acquisition : des erreurs sur les mesures du signal d’IRM, dénommées artefacts de volume partiel. Ce dernier se produit lorsque le diamètre de l’objet examiné est inférieur à l’épaisseur de la coupe. Deux phénomènes peuvent alors se produire : le phénomène de coupe tangentielle et le phénomène de masquage. Le premier provient du signal des structures étroites et orientées selon l’axe vertical qui sont représentées dans le signal moyen d’un voxel donné par rapport à celles des structures obliques (ou horizontales) qui sont moins aisément identifiables. La résolution axiale dans le plan vertical sera ainsi d’autant moins bonne que l’épaisseur de coupe est élevée. Le second provient des structures fines et situées dans le plan axial transverse qui ne peuvent être identifiées que si leurs intensités ne diffèrent que très nettement de celles des structures avoisinantes. Dans le cas contraire, un phénomène de masquage de ces structures fines se traduit visuellement par un effet optique de flou visuel. Ce phénomène de masquage est souvent observé pour les coupes apicales [25], comme l’illustre la Figure I.17. Autres artefacts : Enfin, d’autres artefacts d’acquisition peuvent apparaître, se traduisant sur les images par des irrégularités dans les intensités ou un flou aux frontières. On peut noter en particulier les artefacts dus au mouvement : un flou aux frontières des cavités en raison de la circulation sanguine, ou encore un léger flou global dû au mouvement du patient. Des artefacts apparaissent également en cas d’arythmie. 1 - 3.2 Difficultés inhérentes aux images Irrégularités dans les cavités : En amont de toute segmentation, le traitement des muscles papillaires, piliers et trabéculations peut poser problème. Ces derniers devraient être exclus du calcul des volumes ventriculaires. En effet, afin de calculer le volume exact des cavités 24I.1 - 3 Problématiques de segmentation (a) Deux coupes apicales (b) Avec contourages manuels superposés Figure I.17 – Illustration de l’effet de volume partiel, créant un flou aux frontières des cavités sur les coupes apicales. La segmentation a été tracée par un expert : VD (en vert) et VG (endocarde en bleu, épicarde en rouge). ventriculaires, il serait nécessaire de les contourer indépendamment afin d’exclure leur volume de celui des cavités. Cependant, les conventions de segmentation recommandent de les considé- rer comme partie intégrante des cavités ventriculaires. De ce fait, les segmentations manuelles sont plus reproductibles. Les muscles papillaires ayant les mêmes intensités que le myocarde, cette intégration à la cavité peut ne pas être aisée. La Figure I.15 présente des exemples de segmentation du VG et du VD avec cette convention. Contraste faible : La segmentation de l’épicarde du VG est également une difficulté majeure : elle forme la frontière entre le myocarde et les tissus voisins (en particulier graisse et poumon). Ces derniers ont des profils d’intensité tous différents et présentent un contraste faible avec le myocarde, d’où la difficulté à le déterminer. Cette difficulté est encore plus importante pour le VD du fait de l’épaisseur très faible de la paroi ventriculaire droite. Complexités anatomiques : La complexité de la segmentation dépend également du niveau de coupe de l’image. Les coupes basales et apicales sont plus difficiles à segmenter que les coupes mi-ventriculaires. En effet, la forme des ventricules peut être fortement modifiée par la présence des atria sur les coupes basales, et nous avons vu précédemment que les coupes apicales souffraient d’un effet de volume partiel créant un flou aux frontières des cavités. Bien que la forme du VG (en forme d’anneau) ne varie que peu en fonction du niveau de coupe, le VD a une forme complexe en croissant, qui varie fortement selon le niveau de coupe d’imagerie (Figure I.18) et selon le patient (Figure I.19). De plus, de nombreuses pathologies peuvent affecter la forme déjà complexe du VD. D’un point de vue morphologique, on peut considérer les surcharges VD barométriques (augmentation de la pression) entrainant une hypertrophie des parois myocardiques, causées par un obstacle sur la voie d’éjection droite (sténose pulmo- 25Chapitre I. Contexte médical et problématiques de segmentation Figure I.18 – Représentation schématique des volumes ventriculaires et leurs images MR obtenues à la coupe basale et apicale. naire, hypertension artérielle pulmonaire ou HTAP, embolie pulmonaire). Cette augmentation de pression dans le VD va inverser la courbure septale et le VD va alors prendre la forme d’un VG et inversement. Cette inversion sera plus prononcée en passant du cœur pulmonaire aigü à l’HTAP constituée. On peut observer dans un premier temps une dilatation de la cavité ventriculaire droite, puis le septum qui bombe vers le VG, et enfin le VD peut devenir sphérique et l’oreillette droite se dilater. On peut également considérer les surcharges volumétriques, la plus commune étant la distension de la cavité ventriculaire droite. Ces surcharges proviennent essentiellement de cardiopathies congénitales, telles que l’insuffisance pulmonaire, le shunt de communications inter-auriculaires (CIA), un retour veineux pulmonaire anormal et les suites de chirurgie réparatrice de tétralogie de Fallot [15, 26]. Ces différentes pathologies ajoutent encore en complexité à cette difficile tâche de segmentation. 1 - 4 Conclusion La segmentation des cavités ventriculaires gauche et droite en IRM cardiaques est une tâche difficile, et pourtant nécessaire afin d’accéder à la fonction contractile cardiaque. Certaines méthodes commerciales relativement efficaces sont disponibles en routine clinique pour la segmentation du VG sur les images IRM : QMASS MR (Medis, Leiden, Pays-Bas) [27], syngo 26I.1 - 4 Conclusion Figure I.19 – Images MR typiques afin d’illustrer la variabilité de la forme du VD (en rouge) chez différents patients. ARGUS 4D VF (Siemens Medical Systems, Allemagne) [28], CMR42 (Circle CVI, Canada) ou encore CAAS (PIE Medical Imaging, Pays-Bas) [29]. Cependant, ces méthodes commerciales ne permettent pas d’obtenir de bons résultats pour le VD, du fait de sa difficulté à segmenter. La segmentation du VD est actuellement effectuée manuellement en routine clinique. Cette tâche, longue et fastidieuse, nécessite environ 20 minutes pour un expert et est aussi sujette à la variabilité intra et inter-expert. Une méthode de segmentation permettrait d’éviter ces inconvénients, mais doit faire face à un certain nombre de difficultés : le flou aux frontières des cavités en raison de la circulation sanguine, des artefacts d’acquisition et des effets de volume partiel, la présence de trabéculations (irrégularités) dans le VD, qui ont le même niveau de gris que la myocarde environnant, la forme complexe en croissant, qui varie selon le niveau de coupe d’imagerie et selon le patient. Ces difficultés sont probablement l’une des raisons pour lesquelles l’évaluation fonctionnelle du VD a longtemps été considérée comme secondaire par rapport à celle du VG, laissant le problème de segmentation du VD grand ouvert [30]. Le chapitre suivant (II) va ainsi s’intéresser à l’état de l’art concernant la segmentation du VG et du VD sur IRM cardiaques dans la littérature, afin de définir une méthodologie efficace pour cette tâche difficile de segmentation. 27Chapitre I. Contexte médical et problématiques de segmentation 28Chapitre II Etat de l’art des méthodes de segmentation des ventricules cardiaques en IRM Ce chapitre va d’abord s’intéresser aux publications présentant des méthodes de segmentation du VG et/ou du VD en séquence ciné IRM incidence petit-axe, ayant une validation qualitative ou quantitative et des illustrations sur des images MR cardiaques. Cette étude est basée sur la review de Petitjean et Dacher [30] augmentée des dernières publications. La catégorisation proposée par [30] a été reprise : l’ajout d’un a priori ou pas à la méthode. Cet a priori, s’il existe, peut être faible si la relation est géométrique (VD à gauche du VG, forme circulaire du VG) ou encore biomécanique (mouvement du cœur selon la phase considérée), ou fort par la construction d’un a priori de forme statistique. La suite de ce chapitre va d’abord être divisée en 4 parties : – La section 2 - 1.1 présente les méthodes sans a priori ou avec un a priori faible. Cette section concerne essentiellement les méthodes basées uniquement sur les intensités de l’image, sur la classification de pixels et sur les modèles déformables. – La section 2 - 1.2 présente les méthodes utilisant un a priori fort et concerne également les modèles déformables mais aussi les modèles actifs de forme et d’apparence, et les méthodes à base d’atlas. – La section 2 - 1.3 présente et compare les résultats fournis par ces méthodes de la littérature, ainsi qu’une étude des erreurs obtenues. – Enfin, la section 2 - 1.4 définit la méthodologie de la suite de nos travaux, intégrer un a priori fort à une méthode de segmentation. Nous verrons que la méthodes des coupes de graphe est particulièrement adaptée à notre problématique de segmentation. Les travaux de segmentation par coupe de graphe en prenant en compte des formes a priori sont cependant peu nombreux dans la littérature. Cette technique sera détaillée à la section 2 - 2 . 29Chapitre II. Etat de l’art des méthodes de segmentation des ventricules cardiaques en IRM 2 - 1 Segmentation du VG et du VD : état de l’art 2 - 1.1 Méthodes sans a priori ou avec un a priori faible de forme Méthodes basées sur les intensités : Concernant les méthodes reposant uniquement sur les intensités des images, deux techniques ont été principalement utilisées. La première consiste en un seuillage des intensités, permettant de séparer la cavité ventriculaire du reste de l’image [31–34]. Il s’agit de séparer l’histogramme des intensités de l’image en différents modes correspondant aux différents tissus, comme l’illustre la Figure II.1-(a). La seconde consiste à déterminer le chemin optimal dans une matrice de coût (chemin 1D par une transformation en coordonnées polaires du fait de la forme circulaire du VG) assignant un coût faible aux frontières de la cavité par programmation dynamique [35–37]. Cette matrice peut être construite par seuillage [27, 38], par logique floue [39], en utilisant les intensités améliorées par ondelettes [40] ou lignes radiales [41], ou encore les valeurs de gradient pour pondérer un graphe spatio-temporel [42]. Le schéma général multi-dimensionnel de ce type de méthode est donné à la Figure II.1-(b). Un algorithme du plus court chemin a également été proposé [43], sur une image moyenne formée par toutes les phases du cycle cardiaque. Ces méthodes permettent d’obtenir le contour endocardique du VG, qui peut être affiné par certains post-traitements : le calcul de l’enveloppe convexe du contour obtenu [27, 44], l’application d’opérateurs de morphologie mathématique [33, 42] ou encore l’ajustement d’une courbe paramétrique au contour afin de le lisser [45]. Le contour épicardique lorsqu’il est recherché est déduit du contour endocardique par des opérations de morphologie mathématique ou un modèle spatial incorporant l’épaisseur du myocarde. Ces méthodes nécessitent une interaction utilisateur assez faible pour l’initialisation, allant d’un point au centre du VG au placement d’un cercle aux alentours du contour myocardique. Une interaction plus importante est requise lorsque les contours endocardique et épicardique sont recherchés simultanément : le tracé manuel des contours sur la première coupe [37, 46, 47]. Ce tracé est alors propagé sur les coupes restantes par des mé- thodes de split-and-merge [46] ou un recalage non-rigide [47]. Méthodes basées sur la classification : Une autre famille de méthodes est particuliè- rement utilisée dans le domaine de la segmentation d’images médicales : la classification de pixels. Le principe consiste à décrire chaque pixel par un ensemble de caractéristiques, afin de lui attribuer une classe parmi plusieurs. L’attribution de différentes classes aux différents pixels permet de partitionner l’image en régions, et ainsi d’obtenir une segmentation. Deux techniques de partitionnement existent : les méthodes supervisées et les méthodes non-supervisées. 30II.2 - 1 Segmentation du VG et du VD : état de l’art (a) Histogramme d’une image cardiaque et ses modes (d’après [33]) (b) Schéma général de la programmation dynamique multi-dimensionnel (d’après [37]) Figure II.1 – Illustrations concernant les méthodes reposant uniquement sur les intensités des images. (a) pour le seuillage, (b) pour la programmation dynamique. Les approches supervisées nécessitent une phase d’apprentissage à partir de pixels labellisés, ce qui peut être une tâche fastidieuse, et sont moins nombreuses dans la littérature pour cette application. Un réseau de neurone est généré par [48] à partir de clics manuels sur des pixels du myocarde, de la cavité ventriculaire et du poumon. Un masque spatial peut également être utilisé pour un apprentissage automatique [49], associé à l’algorithme des k plus proches voisins pour la classification, comme par [50]. Des forêts de classification ont également été proposées [51]. Mais les méthodes non supervisées sont les plus utilisées, et plus particulièrement deux techniques classiques : l’ajustement d’un modèle de mélange de gaussiennes (GMM, Gaussian Mixture Model), et le clustering. Le GMM est un modèle statistique dépendant d’une densité de mélange de K gaussiennes, p(x|θ) = PK k=1 ωk g(x|µk, Σk), où x est un individu sur l’espace vectoriel IRD, ωk les poids du mélange et g(x|µk, Σk) les densités des composantes gaussiennes définies par : g(x|µk, Σk) = 1 (2π) D 2 |Σk| 1 2 exp  − 1 2 (x − µk) TΣ −1 k (x − µk)  (II.1) avec µk et Σk la moyenne et la matrice de covariance de la k-ème composante. Les poids du mélange doivent satisfaire la contrainte PK k=1 = 1. La paramétrisation du GMM est réalisée sur les moyennes, les matrices de covariance et les poids du mélange pour chaque densité, notés θk = {ωk, µk, Σk}. Pour maximiser la vraisemblance de cette quantité, l’algorithme espérance- 31Chapitre II. Etat de l’art des méthodes de segmentation des ventricules cardiaques en IRM maximisation (EM) [52], qui est une méthode générale de données manquantes, peut être appliqué à l’ajustement du mélange de gaussiennes et permettre l’obtention d’un maximum local. Pour l’application cardiaque, le nombre de gaussiennes correspond au nombre de modes de l’histogramme de l’image : de deux à cinq modes selon les tissus considérés (par exemple : myocarde, gras, fond, cavité ventriculaire), mais des gaussiennes peuvent être ajoutées pour prendre en compte l’effet de volume partiel [53] ou les muscles papillaires [54]. Pour compenser le manque d’informations spatiales, l’ajustement d’un GMM peut précéder une étape basée sur les champs de Markov [55] ou de programmation dynamique [53]. Des techniques de clustering ont également été utilisées, consistant à construire une collection d’objets, similaires au sein d’un même groupe, dissimilaires quand ils appartiennent à des groupes différents. La méthode la plus connue est l’algorithme k-means, qui tend à réduire : E = X k i=1 X p∈Ci |p − Mi | 2 (II.2) avec Ci un regroupement correspondant à une classe parmi les k objets, et Mi son barycentre. L’algorithme k-means a été appliqué par [56], et une généralisation de cet algorithme permettant une adhésion partielle à un regroupement, nommée fuzzy C-means, a été proposée par [57]. Après l’obtention des regroupements, la cavité ventriculaire gauche est identifiée en calculant la distance de chaque regroupement à un cercle [56]. Cependant, les regroupements sont construits à partir du barycentre des objets, ce qui peut poser problème en cas de classes non-convexes (le barycentre pouvant ne pas appartenir à l’objet). Méthodes basées sur les modèles déformables : Enfin, une dernière famille de mé- thodes a été particulièrement utilisée : les modèles déformables. Deux grandes familles de modèles déformables ont ainsi été proposées : les modèles paramétriques [58] et les modèles géométriques [59]. Dans le premier cas, la courbe est représentée explicitement pendant la déformation, ce qui permet des implémentations rapides et même du temps réel. Cependant, le changement de topologie est très difficile à gérer. Dans le second cas, la représentation du contour est implicite, ce dernier étant vu comme le niveau 0 d’une fonction scalaire de dimension supérieure. La paramétrisation est donnée après la déformation mais cette méthode permet une adaptation naturelle de la topologie des contours, pour une dimension de l’espace de calculs supérieure. Les deux modèles sont sensibles à l’initialisation. Plus précisément dans le cas des modèles paramétriques, le contour déformable est une courbe v(s) = [x(s), y(s)], avec s ∈ [0, 1] l’abscisse curviligne, qui se déforme vers une position qui minimise la fonctionnelle d’énergie 32II.2 - 1 Segmentation du VG et du VD : état de l’art Etotale = Einterne (v(s)) + Eexterne (v(s)). L’énergie interne classique est définie par : Einterne (v(s)) = Z 1 0 α(s) ∂v(s) ∂s !2 + β(s) ∂ 2 v(s) ∂s2 !2 ds (II.3) avec α(s) le coefficient d’élasticité sur la longueur du contour et β(s) le coefficient de rigidité sur la courbure du contour. Le terme Eexterne (v(s)) est classiquement défini par une intégrale d’un potentiel de force Eexterne (v(s)) = R 1 0 P (v(s)) ds, c’est-à-dire avec une valeur basse sur les contours des objets de l’image. Par exemple, avec les informations de gradient : P(x, y) = −w|∇I(x, y)| 2 (II.4) Le contour v(s) minimisant l’énergie totale, c’est-à-dire proche des contours des objets de l’image en évitant les étirements et fléchissements, peut alors se poser comme un problème variationnel. Dans la plupart des travaux de la littérature, le terme classique de régularisation basé sur la courbure est utilisé. La force externe quant à elle peut être basée sur le gradient [35, 36, 60] ou encore sur une mesure d’homogénéité de région [61–64]. Des termes ont été ajoutés pour améliorer la robustesse de la méthode, comme le flux de vecteur gradient [65–70], des termes de recouvrement des distributions d’intensité [71] ou des modèles paramétriques de forme pour contraindre le contour à être lisse [63, 72, 73]. Les modèles déformables ont également été étendus en 3D [66, 74–76], en utilisant des modèles de maillage 3D. Le but est d’obtenir les contours ventriculaires sur le cycle cardiaque complet, à partir de contraintes temporelles d’évolution. Ces dernières peuvent être des trajectoires moyennes de points [75, 77], une approche couplée recalage/segmentation [78] ou des modèles biomécaniques [66, 79–83]. Pour ces derniers, le myocarde est modélisé par un tissu élastique linéaire à partir d’un ensemble de paramètres (par exemple le rapport de Poisson ou le module de Young), intégré à la matrice de rigidité [66, 79]. Le maillage est ensuite déformé en utilisant une force dépendant de l’image et une force interne dépendant du modèle biomécanique, utilisé en tant que terme de régularisation. Le but est alors de minimiser l’énergie globale, couplant les données de l’image avec les déformations du modèle. Discussion : De nombreuses méthodes utilisant peu ou pas d’a priori dans un but de segmentation des ventricules sur IRM cardiaques ont été développées. Ces méthodes nécessitent pour la plupart une interaction utilisateur, qu’elle soit faible ou importante. Bien que les mé- thodes basées uniquement sur les intensités ou sur la classification de pixels ne permettent pas facilement l’intégration d’a priori de forme fort, les modèles déformables ont été très étudiés dans ce sens. 33Chapitre II. Etat de l’art des méthodes de segmentation des ventricules cardiaques en IRM 2 - 1.2 Méthodes avec un a priori fort de forme D’une façon générale, la segmentation d’organe en imagerie médicale peut être guidée par l’utilisation de modèles de formes et/ou d’intensités, afin d’augmenter sa robustesse et sa pré- cision [84]. Ceci est particulièrement vrai si la forme considérée ne varie pas fortement d’un individu à un autre. L’utilisation d’un a priori de forme dans un but de segmentation requiert trois étapes : (i) L’alignement des formes de l’ensemble d’apprentissage, afin de compenser les différences de position et de taille des objets à segmenter. Cette tâche peut être particulièrement difficile en 3D. Une forme quelconque de l’ensemble est classiquement choisie en tant que référence. Un recalage affine de chaque forme est alors réalisé sur cette référence. Ces opérations peuvent être itérativement recommencées en calculant la forme moyenne de la base et en l’utilisant comme référence. De nombreuses méthodes ont été proposées pour réaliser cette étape [85–89]. (ii) La définition mathématique d’une représentation et d’une modélisation des formes. Dans la littérature, les formes sont représentées soit par un modèle explicite tel que le modèle de distribution de points (PDM, Point Distribution Model) [5], soit par un modèle implicite tel que la fonction distance signée (SDF, Signed Distance Function) [90], ou encore par leurs intensités. Le principe est de calculer la forme ou image moyenne puis de modéliser les variabilités présentes dans la base d’apprentissage. Une alternative est l’analyse en composantes principales (ACP), qui consiste en une décomposition en valeurs propres de la matrice de covariance de l’ensemble des formes. Cette dernière permet l’obtention des vecteurs propres représentant les variabilités par rapport à la moyenne de l’ensemble d’apprentissage. Il est alors possible de décrire toute nouvelle forme par une combinaison linéaire de la moyenne et de ses vecteurs propres pondérés. Les détails de cette technique sont données au chapitre III. (iii) Le choix d’une méthode de segmentation intégrant ce modèle de forme. Initialement proposée dans le cadre des modèles déformables, la modélisation PDM a par exemple été utilisée essentiellement avec les modèles actifs de forme (ASM, Active Shape Model) et d’apparence (AAM, Active Appearance Model) [5]. Il s’agit ainsi d’intégrer le modèle à une méthode afin de guider la segmentation en prenant en compte les variabilités définies par la base d’apprentissage. Ce choix doit être fait en fonction du modèle de formes réalisé. Les méthodes de segmentation et les modèles de forme sont considérés ensembles, et généralement adaptés conjointement. Trois catégories sont habituellement utilisées afin de classifier les méthodes basées sur les modèles statistiques : la segmentation par a priori de formes [84], 34II.2 - 1 Segmentation du VG et du VD : état de l’art Figure II.2 – Variabilité de forme du VG obtenue par ACP. (a) forme moyenne, (b)-(c) déformations selon le premier axe de variation, (d)-(e) selon le second axe de variation, (f)-(g) selon le troisième axe de variation (d’après [85]). les ASM et AAM [91] et les méthodes basées atlas [92]. La principale différence entre ces mé- thodes réside dans la réalisation de l’étape (iii), i.e. l’utilisation du modèle dans la méthode de segmentation. Modèles de formes : L’utilisation d’un a priori fort dans le cadre des modèles déformables que nous avons vu précédemment consiste à introduire un nouveau terme à la fonctionnelle d’énergie, qui va prendre en compte une contrainte anatomique. Cette dernière peut être une carte des distances signées à une référence, dont le critère à minimiser intègre des paramètres d’alignement à cette référence [78]. Cet alignement permet de déduire une fonction de probabilité de densités, qui peut être intégrée à l’équation d’évolution [93] ou intégrée à la fonctionnelle d’énergie de la méthode des coupes de graphe [94]. La contrainte anatomique peut également être basée sur la réalisation préliminaire d’une ACP sur une base d’apprentissage [85, 95], dont les paramètres d’alignement et les poids des formes propres sont mis à jour itérativement en minimisant les termes d’énergie basés région. Un exemple de cette modélisation du VG est pré- senté à la Figure II.2. Ces approches permettent une propagation couplée de l’endocarde et de l’épicarde du VG selon un modèle de distances [78, 93, 95]. Enfin, d’autres approches reposent sur une formulation bayésienne afin de considérer l’aspect temporel dans la segmentation. Le modèle de forme est formé à partir d’une ACP [96] ou à partir d’une représentation de Fourrier dont les paramètres sont appris sur une base d’apprentissage étiquetée [54]. La méthode de segmentation repose sur une estimation du maximum a posteriori selon le modèle statistique de l’image. Le terme de régularisation est basé sur l’a priori, composé d’un modèle de forme et d’un modèle de mouvement, permettant le suivi des contours ventriculaires selon le temps. PDM : Une autre famille de méthodes a été très utilisée depuis leur définition par [5] : les modèles actifs de forme. Ils consistent en un modèle de distribution de points, appris sur une base de données contenant de nombreux exemples alignés. Une analyse en composantes 35Chapitre II. Etat de l’art des méthodes de segmentation des ventricules cardiaques en IRM principales est réalisée afin de diminuer l’espace de représentation et permet de commander le modèle en réglant un nombre limité de paramètres, la seule limitation à la flexibilité du modèle étant les variations données par la base d’apprentissage (les détails de l’ACP sont données au chapitre III). La segmentation est réalisée en estimant itérativement les paramètres de translation, rotation et échelle par la méthode des moindres carrés sur l’image à segmenter. Le principe des ASM a été étendu à la modélisation des intensités des images, donnant les modèles actifs d’apparence [97]. La méthode des AAM a été appliquée à la segmentation de l’endocarde et de l’épicarde du VG [98, 99], puis des approches hybrides ASM/AAM ont été proposées [100–102]. Ces approches permettent de combiner les avantages des deux techniques : les AAM sont optimisés sur l’apparence globale et proposent donc une solution avec des bords imprécis, alors que les ASM permettent une bonne définition des structures locales selon [100]. L’apport de cette approche hybride sur les erreurs de segmentation est donné à la Figure II.3. Pour [101], des AAM 2D permettent de déterminer les contours sur chaque image, pendant que l’ASM 3D permet l’obtention d’une cohérence globale du modèle. Des variantes ont été proposées au cadre général : l’utilisation d’une analyse en composantes indépendantes au lieu de l’ACP pour la modélisation [103], l’introduction de caractéristiques invariantes aux ASM [104], ces deux derniers travaux se limitant cependant aux coupes mi-ventriculaires sur des images ED. On peut noter que trois méthodes spécifiques à la segmentation du VD ont été proposées dans ce cadre de segmentation : dans [105], la recherche locale des points de correspondance pendant la phase de segmentation de l’ASM est améliorée par un estimateur robuste dénommé Robust Matching Point ; dans [106], un modèle d’apparence est construit sur des noyaux de produits de probabilités à partir d’un seul patient, les contraintes se basant alors sur des fonctionnelles non-linéaires, résolues par partie par relaxation convexe ; enfin, dans [107], un ASM est appliqué en utilisant des relations sur les variations inter-profil. La dimension temporelle a également été prise en compte avec cette famille de segmentation, avec les modèles actifs d’apparence et de mouvement en 2D + temps (AAMM), en considérant directement une séquence d’images sur un cycle complet [108]. Ce modèle permet d’obtenir rapidement l’ensemble des segmentations sur un cycle cardiaque, bien que limité aux coupes mi-ventriculaires. Enfin, l’extension en 3D des ASM et des AAM a également été étudiée [109–111]. Celle-ci n’est cependant pas aisée puisqu’elle nécessite des points de correspondance entre les formes en 3D, et une augmentation du temps de calcul en considérant la taille des données. Atlas : Dernière famille de méthodes particulièrement utilisée, les atlas, décrivant les différentes structures présentes dans un type donné d’image. Un atlas est composé d’une image des intensités et d’une carte de labels associée. Il peut être généré à partir d’une segmentation 36II.2 - 1 Segmentation du VG et du VD : état de l’art Figure II.3 – Erreurs RMS de segmentation selon les différentes étapes d’une approche hybride ASM/AAM [100]. manuelle ou en intégrant les informations provenant d’images segmentées sur plusieurs individus. Le principe de cette technique est de recaler l’atlas labellisé sur l’image à segmenter, puis d’appliquer la transformation T obtenue à l’atlas afin d’obtenir la segmentation finale, comme l’illustre la Figure II.4. Très utilisée pour la segmentation du cerveau [112], les atlas ont également été appliqués à la segmentation du cœur, à travers plusieurs méthodologies pour sa construction : à partir d’une seule image segmentée [113], d’un résultat moyen de segmentation à partir d’un ensemble d’images [114, 115] ou d’un ensemble d’atlas [116]. Un recalage non rigide (NRR) est alors réalisé afin de cartographier l’atlas sur un nouvel individu. Ce type de transformation prend en compte les déformations élastiques, et consiste à maximiser une mesure de similarité entre une image source (l’atlas) et une image cible ou référence (l’image à segmenter). De nombreux critères ont été proposés : la différence absolue des intensités (SAD), la différence des intensités au carré (SSD), l’information mutuelle (MI) et normalisée (NMI) [117] basée sur les distributions individuelles et jointes des intensités. Cependant, la maximisation seule d’un critère de similarité donne lieu à des équations sous-contraintes. Le recalage non-rigide nécessite ainsi l’utilisation de contraintes additionnelles. Ainsi, l’espace de transformation peut être restreint aux transformations paramétriques, telles que les splines cubiques [113], ou basée sur les formes propres déterminées par une ACP [115]. Une autre possibilité est d’ajouter un terme de régularisation au critère de similarité, tel que le modèle des fluides visqueux classique [116] ou un modèle statistique [115]. Les atlas probabilistes ont également été utilisés pour initialiser les paramètres d’un algorithme EM [114]. La segmentation obtenue après convergence de l’algorithme EM est alors affinée en utilisant des informations contextuelles modélisées à partir de champs de Markov. 37Chapitre II. Etat de l’art des méthodes de segmentation des ventricules cardiaques en IRM Figure II.4 – Illustration du recalage d’un atlas sur une image à segmenter, selon une transformation T (d’après [113]). Discussion : Le choix d’une modélisation particulière impose certaines contraintes. Par exemple, les ASM ne peuvent pas modéliser des variations non présentes dans l’ensemble d’apprentissage. Certains auteurs tentent de s’affranchir de ce problème en introduisant une autre source d’information, par exemple une segmentation manuelle de la première coupe [102]. La méthode est alors plus robuste mais perd l’avantage d’être indépendante de l’utilisateur. Le cadre du recalage non-rigide est beaucoup plus flexible puisqu’il permet la modélisation de formes inconnues de l’ensemble d’apprentissage, mais n’impose aucune contrainte anatomique à la transformation. De ce fait, la composition de l’atlas n’a que peu d’influence sur le résultat de segmentation finale puisqu’il ne sert que de point de départ au recalage [116]. 2 - 1.3 Comparaison des méthodes, résultats et étude des erreurs Toutes les méthodes présentées précédemment ne traitent pas les différentes difficultés de segmentation de la même manière. Très peu de méthodes sont dédiées à la segmentation du VD, la plupart étant dédiée au VG. Certaines proposent cependant une segmentation conjointe des deux ventricules. Comme mentionné précédemment, les caractéristiques physiques du VD ainsi que son rôle moins vital que le VG ont restreint les efforts portés sur sa segmentation. Cependant, l’IRM devenant un outil standard et le plus précis dans l’évaluation de la fonction cardiaque du VD, l’intérêt de sa segmentation et du calcul de son volume a fortement augmenté [2, 3]. A cause de la forte variation de la forme du VD, les méthodes dédiées à sa segmentation reposent sur des a priori forts, et en particulier sur des méthodes basées atlas de par leur flexibilité. De plus, comme expliqué au chapitre I, la segmentation des images en ED et ES est suffisante à l’estimation de la fonction contractile cardiaque en routine clinique. C’est pourquoi peu de méthodes exploitent les informations fournies par le mouvement cardiaque (en fonction 38II.2 - 1 Segmentation du VG et du VD : état de l’art du temps), en plus de la complexité et de la variabilité d’un modèle de mouvement. L’utilisation de la dimension temporelle peut cependant aider la segmentation à obtenir des solutions cohé- rentes. Le suivi des contours selon le temps peut être fait avec ou sans connaissance externe, et dans ce dernier cas, reposer sur les propriétés intrinsèques de la méthode de segmentation. Les approches variationnelles des modèles déformables sont ainsi des outils performants pour le suivi [66, 71, 73, 118]. Des améliorations de propagation des contours ont également été proposées, comme le suivi en avant et en arrière dans le temps [73] ou une contrainte de position sur le contour d’après des préférences de l’utilisateur à travers des profils d’intensité [118]. La propagation a également été réalisée par des techniques de recalage non-rigide, à partir de contours initialisés manuellement ou d’atlas du cœur [47, 113, 116]. Le problème de segmentation est alors vu comme un problème de recalage, ajuster une image segmentée sur une autre inconnue, et appliquer la transformation afin d’obtenir le nouveau contour déformé. La segmentation et le recalage peuvent également être couplés pour chercher conjointement les contours endocardique et épicardique et une transformation d’alignement à une forme de référence [78]. Les contours endocardique et épicardique peuvent être traités séparément (notamment avec les méthodes basées images ou classification de pixels) ou simultanément (notamment avec les mé- thodes basées sur des modèles). Le traitement des muscles papillaires a également fait l’objet de questionnement : bien qu’ils n’appartiennent pas à la cavité du VD (et devraient être exclus au calcul du volume), ils lui sont souvent intégrés pour des raisons de reproductibilité. Certaines méthodes proposent cependant leurs segmentations, afin de permettre au radiologiste de les intégrer ou pas à la cavité [53, 56]. On peut remarquer dans les travaux de la littérature que l’utilisation d’interaction avec l’utilisateur est corrélée à l’utilisation d’informations a priori : les méthodes sans ou avec un a priori faible nécessitent une interaction utilisateur de limité à avancé, lorsque l’utilisation d’un a priori fort permet une automatisation des méthodes. Les interactions peuvent être faites pendant la phase d’initialisation ou pendant le processus de segmentation. Critères d’évaluation : L’évaluation de la qualité de segmentation varie grandement en fonction des différents travaux de la littérature. Certains ne présentent que des résultats visuels, lorsque d’autres utilisent différents indices entre le contour manuel par un expert et le contour (semi-)automatique (score de recouvrement, distance perpendiculaire moyenne entre les contours, volume et masse ventriculaire, fractions d’éjection). Néanmoins, lorsque des ré- sultats quantitatifs sont fournis, la distance perpendiculaire moyenne (P2C, point to curve) est souvent utilisée dans la littérature. Les comparaisons entre les méthodes doivent cependant être l’objet d’une attention particulière. En effet, chaque étude propose sa propre base d’évaluation, 39Chapitre II. Etat de l’art des méthodes de segmentation des ventricules cardiaques en IRM qui diffère sur le nombre d’images, le nombre et la nature des patients (sains ou pathologiques), la phase du cycle cardiaque (ED, ES, toutes les phases), les niveaux de coupe (que les coupes mi-ventriculaires ou tous les niveaux de coupe). Ces études ne présentent parfois pas toutes ces informations. Pourtant, ces conditions ont une influence sur les résultats de segmentation (par exemple les coupes apicales sont beaucoup plus difficiles à segmenter que les coupes basales et mi-ventriculaires). Le tableau II.1 présente un certain nombre de résultats de la littérature pour la segmentation du VG et/ou du VD sur IRM cardiaques, en présentant ces informations. Les dernières lignes de ce tableau présentent les résultats obtenus au challenge de segmentation du VG de MICCAI 2009, composé de deux bases (une pour l’apprentissage, une pour le test). Les résultats sont donnés sur une ou les deux bases selon le type de la méthode. Les méthodes de cette compétition sont représentatives de celles présentes dans la littérature : des techniques basées images [119, 120], basées ASM et AAM [121, 122], sur les modèles déformables [83, 123], les méthodes de montées des eaux 4D [124] ou du recalage [125]. Comparaison : Le choix de la distance perpendiculaire moyenne entre le résultat de la méthode et les contours tracés manuellement par un expert du tableau II.1 permet la comparaison avec la variabilité intra et inter-observateur du contourage manuel, qui est de l’ordre de 1 à 2 mm [115, 124, 126, 127]. Les résultats se comparent favorablement à cette valeur en moyenne. On peut remarquer que l’erreur de segmentation est supérieure pour l’épicarde que pour l’endocarde. Les résultats obtenus sur les images ED sont également meilleurs que ceux des autres phases. Il est à noter que certaines méthodes se restreignent à la segmentation d’un nombre réduit de coupes mi-ventriculaires (en particulier pour le VD), montrant la difficulté de segmentation des coupes extrêmes apicales et basales. De plus, les erreurs de segmentation sont plus importantes pour le VD que pour le VG. Certaines études confirment de plus grandes difficultés de segmentation pour les coupes apicales en présentant la distribution spatiale des erreurs [43, 44, 128]. Dans nos travaux [128], la distribution des erreurs du P2C pour le VG et le VD pour une méthode basée sur les contours actifs sans bords montre de fortes erreurs à l’apex et en particulier en ES (voir Figure II.5). Conclusion : A cause des différentes conditions de test, il est difficile de tirer des conclusions définitives. Le challenge MICCAI’09 de segmentation du VG montre que les techniques basées images [119, 120] donnent les meilleurs résultats, mais ces méthodes ne traitent pas toutes les phases et nécessitent une interaction avec l’utilisateur. Certains résultats sont ainsi intéressants [119, 120, 123] mais sont spécifiques à la segmentation du VG et ne peuvent être appliqués au VD, contrairement aux méthodes proposées par [121, 122]. Le choix d’une méthode doit reposer 40II.2 - 1 Segmentation du VG et du VD : état de l’art Tableau II.1 – Résultats de segmentation pour le VG et le VD dans la littérature. N : nombre de patients, S/P : sain (S) et pathologique (P), Co : nombre de coupes (mi : mi-ventriculaire), épi : épicarde, endo : endocarde. Auteurs N S/P Co Phases Erreurs moyennes (mm) VG épi VG endo VD endo Sans ou avec un a priori faible Basé image [37] 20 2/18 8-12 Toutes 1.77 ± 0.57 1.86 ± 0.59 - [43] 19 - Toutes ED, ES 2.91 2.48 - [42] 18 0/18 9-14 ED, ES 1.42 ± 0.36 1.55 ± 0.23 - Classification de pixels [56] 25 - 5-12 ED, ES 1.31 ± 1.86 0.69 ± 0.88 - Modèles déformables [118] 69 - 9/14 ES 1.84 ± 1.04 2.23 ± 1.10 2.02 ± 1.21 [69] 13 - 3 ED 1.3 ± 0.7 0.6 ± 0.3 - Avec un a priori fort A priori de forme [95] 121 0/121 7-10 ED 2.62 ± 0.75 2.28 ± 0.93 - ES 2.92 ± 1.38 2.76 ± 1.02 - [54] 30 - 5 ED 1.98 1.34 - ES 2.74 2.62 - [93] 4 - - Toutes 1.83 ± 1.85 0.76 ± 1.09 - ASM / AAM [100] 20 11-9 3 mi ED 1.75 ± 0.83 1.71 ± 0.82 2.46 ± 1.39 [108] 25 - 3 mi Toutes 0.77 ± 0.74 0.63 ± 0.65 - [109] 56 38/18 8-14 ED 2.63 ± 0.76 2.75 ± 0.86 - [104] 74 13/61 3 mi 5 1.52 ± 2.01 1.80 ± 1.74 1.20 ± 1.47 [127] 15 15/0 10-12 ED 2.23 ± 0.46 1.97 ± 0.54 - [105] 13 - - ED - - 1.1 [106] 20 - Toutes 20 - - 2.30 ± 0.12 [102] 25 25/0 - Toutes 1.67 ± 0.3 1.81 ± 0.4 2.13 ± 0.39 25 0/25 - Toutes 1.71 ± 0.45 1.97 ± 0.58 2.92 ± 0.73 Atlas [114] 10 0/10 3 mi Toutes 2.99 ± 2.65 2.21 ± 2.22 2.89 ± 2.56 ED 2.75 ± 2.62 1.88 ± 2.00 2.26 ± 2.13 [115] 25 25/0 4-5 ED 2.77 ± 0.49 2.01 ± 0.31 2.37 ± 0.5 Challenge MICCAI 2009 [83] 15 3/12 6-12 ED, ES 2.72 - - [122] 15 3/12 6-12 ED, ES 2.29 2.28 - [120] 15 3/12 6-12 ED, ES 2.07 ± 0.61 1.91 ± 0.63 - [124] - - 6-12 ED, ES 3 ± 0.59 2.6 ± 0.38 - [123] 30 6/24 6-12 ED, ES 2.04 ± 0.47 2.35 ± 0.57 - [125] 30 6/24 6-12 ED, ES 2.26 ± 0.59 1.97 ± 0.48 - [119] 30 6/24 6-12 ED, ES 2.06 ± 0.39 2.11 ± 0.41 - [121] 30 6/24 6-12 ED, ES 3.73 3.16 - 41Chapitre II. Etat de l’art des méthodes de segmentation des ventricules cardiaques en IRM Figure II.5 – Distribution des erreurs de P2C selon les niveaux de coupes (base, mid, apex) et la phase (ED, ES) pour le VG (à gauche) et le VD (à droite). N est le nombre d’images. Issue de nos travaux [128]. sur un compromis entre performance et généricité et tenir compte des difficultés de segmentation de certaines coupes (apicales et phase ES en particulier). On peut remarquer que la méthode des coupes de graphe n’a été que peu exploitée dans ce but. 2 - 1.4 Choix d’une méthodologie Nous avons observé qu’il est difficile de conclure sur la supériorité d’une méthodologie, puisque les expérimentations ont été réalisées sous diverses conditions et sur des bases diffé- rentes. On peut néanmoins remarquer que les résultats sont satisfaisants pour la segmentation du VG, en particulier sur les coupes mi-ventriculaires, puisque la précision est de l’ordre de la variabilité du tracé manuel. Les améliorations pour le VG sont ainsi limitées aux coupes extrêmes basales et apicales. Au contraire, on remarque qu’un nombre limité de travaux s’est attaqué à la segmentation du VD. En effet, cette tâche est toujours critique, due à la difficulté de délinéation du VD, dont la forme est très variable et dont les contours sont mal définis, en particulier sur les coupes apicales. De plus, il n’existe pas de base publique conséquente d’IRM cardiaques labellisées pour le VD. Si le problème de segmentation du VD est toujours actuel, il l’est en partie du fait d’un manque de données publiques et de protocoles d’évaluation permettant de comparer les performances des différentes méthodes proposées. Aujourd’hui, de telles bases de données pour le VG sont disponibles (en particulier les données du challenge MICCAI 2009), ce qui n’est pas le cas pour VD. Il est ainsi nécessaire de créer cette base étiquetée pour le VD, cette tâche de segmentation très difficile présentant un intérêt croissant pour la communauté. C’est pourquoi nous avons organisé un challenge de segmentation du VD MICCAI’12, comme nous le verrons au chapitre V. L’avantage est de permettre une comparaison 42II.2 - 2 Méthode des coupes de graphe honnête entre les futures méthodes proposées. A partir de cette base, notre méthodologie de segmentation du VD en IRM cardiaques s’articule autour de deux axes : – La définition d’un a priori de forme. La segmentation du VD est une tâche difficile et nécessite l’utilisation d’informations a priori fortes afin de guider la segmentation. L’analyse en composantes principales a été très utilisée dans la littérature, et a prouvé son efficacité. Cette piste doit être étudiée pour la modélisation de la forme du VD dans un but de segmentation. – L’intégration de cet a priori de forme dans un cadre de segmentation. Dans la littérature, de nombreuses pistes ont été étudiées, mais la représentation de l’image par un graphe [4, 129], et plus particulièrement la méthode des coupes de graphe (relativement récente) n’a été que peu explorée, notamment quant à l’ajout d’un a priori fort à la méthode. La méthode des coupes de graphe est basée sur une optimisation globale d’une fonction de coût et est très efficace et rapide en 2D. De plus, la méthode est assez flexible pour prendre en compte assez facilement des informations de forme. Enfin, bien que notre objectif premier soit la segmentation du VD (segmentation binaire), cette méthode permet facilement une extension en multi-labels. Notre objectif est ainsi d’utiliser la souplesse de la méthode des coupes de graphe et de son faible coût de calcul afin de proposer une approche de segmentation efficace basée sur un a priori de forme fort, afin de l’appliquer à la segmentation du VD en IRM cardiaques. La prochaine partie de ce chapitre présente ce cadre général de segmentation. 2 - 2 Méthode des coupes de graphe La méthode des coupes de graphe, ou graph cuts (GC), est une technique polyvalente qui a suscité un fort intérêt depuis son introduction [4, 130]. Avant de définir plus formellement les GC dans la suite de cette partie, voyons le principe de cette méthode à travers la construction d’un graphe sur une image. Considérons un champ d’observation, telle que l’image de la Figure II.6-(a), composée de i pixels. Le but est de réaliser une segmentation binaire de cette image, les intensités claires formant l’objet et les intensités foncées le fond. Chaque pixel correspond à un nœud dans le graphe (Figure II.6-(b)). Afin de représenter l’objet et le fond, deux nœuds sont ajoutés, appelés nœuds terminaux : la source S (représentant l’objet) et le puits T (représentant le fond). Des liens sont créés entre les nœuds et les nœuds terminaux, appelés t-links (Figure II.6-(c)). Ces liens sont pondérés par un terme région Ri(ω) qui est un terme d’attache aux données (Figure II.6-(d)). En considérant notre définition initiale de l’objet et du fond, ce poids 43Chapitre II. Etat de l’art des méthodes de segmentation des ventricules cardiaques en IRM Figure II.6 – Principe de la méthode des GC à partir de la construction d’un graphe. Plus de détails dans le texte. est fort entre les pixels clairs et la source S et entre les pixels foncés et le puits T, modélisé par un lien plus large (Figure II.6-(e)). Des liens sont également créés entre les pixels voisins, appelés n-links (Figure II.6-(f)). Ces liens sont pondérés par un terme de régularisation Bi,j (Figure II.6-(g)). Le graphe est alors totalement défini. La méthode des GC permet de déterminer la coupe d’énergie minimale, modélisée par des lignes discontinues jaunes sur la Figure II.6-(h), définissant le partitionnement final et ainsi la segmentation. 2 - 2.1 Modèle d’énergie d’une coupe Le modèle d’énergie classique utilisé avec les GC est composé de deux termes distincts : un terme région et un terme contour. Le terme région, noté Rp(Ap), assigne un coût à un pixel p ∈ P (avec P l’ensemble des pixels de l’image) d’appartenir à Ap, où A représente une labellisation et Rp(Ap) le coût tel que p appartienne à A. Ce coût est généralement déterminé à partir de l’intensité du pixel p par rapport à la distribution des intensités connue de la labellisation Ap. Le terme contours, noté Bp,q(Ap, Aq), assigne un coût à chaque paire de pixels p et q voisins (noté alors {p, q} ∈ N). Le voisinage d’un pixel p, noté N, est défini comme un ensemble de pixels proche de p selon une distance qui reste au choix de l’utilisateur, avec comme seule condition la symétrie : si p est voisin de q, alors q est voisin de p. Les voisinages les plus utilisés sont les connexités 4 et 8. Ce terme prend en compte les interactions de paire de pixels et cherche à regrouper les pixels proches du point de vue de l’intensité dans un même objet, et au contraire 44II.2 - 2 Méthode des coupes de graphe à séparer en plusieurs objets deux pixels ayant des intensités très différentes. Ce terme peut ainsi être vu comme un terme de régularisation. Le modèle d’énergie pour une image est alors donnée par : E(A) = R(A) + λB(A) (II.5) où : R(A) = X p∈P Rp(Ap) (II.6) B(A) = X {p,q}∈N Bp,q(Ap, Aq) (II.7) avec λ une constante déterminant le poids de la régularisation. Nous avons prétendu précédemment que la méthode des GC permet d’obtenir une optimisation exacte. Afin de le prouver, il est nécessaire de déterminer le maximum a posteriori (MAP) de ce modèle d’énergie, permettant une explication probabiliste de la définition de segmentation optimale. L’utilisation de ce modèle d’énergie est justifiée par le fait qu’il peut être utilisé pour optimiser une estimation du maximum a posteriori (MAP) d’un champ de Markov aléatoire (MRF). Le MAP détermine la segmentation A∗ ayant la plus forte probabilité d’être en adéquation avec les données D contenues dans l’image, tel que : A ∗ = arg max A P(A|D) (II.8) Afin de déterminer l’estimation du MAP, il est nécessaire de faire certaines hypothèses sur les données permettant de simplifier cette estimation. La première hypothèse concerne les labels Lp, indiquant l’objet auquel p appartient. Ces derniers doivent être des variables aléatoires et l’ensemble des labels L = {L1, L2, . . . , L|P|} forment alors un MRF, i.e. un ensemble de variables aléatoires, ayant chacune un voisinage symétrique N formant un sous-ensemble de variables aléatoires. La propriété principale des MRF est l’hypothèse de Markov : la probabilité qu’une variable aléatoire prenne une valeur selon toutes les autres du champ est égale à celle donnée par son voisinage seul [131]. Cette hypothèse peut se traduire par P(Lp = Ap|A) = P(Lp = Ap|ANp ) où A = {A1, A2, . . . , A|P|} est la labellisation de l’image et ANp la labellisation des pixels dans le voisinage Np. Pour définir un MRF, il faut également définir une taille de clique, ces derniers étant des groupes de pixels entièrement connectés. Cette taille dicte les hypothèses d’indépendance entre les pixels voisins de p lors du calcul de la probabilité de p à un label particulier. Pour des cliques de taille c, alors P(Lp = Ap|ANp ) est un produit de P(Lp = Ap|C) pour chaque clique C ∈ Np ∪ p ayant la taille c. Cette taille de clique va dépendre du voisinage 45Chapitre II. Etat de l’art des méthodes de segmentation des ventricules cardiaques en IRM considéré : une connexité 4 ne permet que des cliques de taille 2, alors qu’une connexité 8 permet des tailles de 2, 3 ou 4. Pour simplifier les calculs, la taille typique choisie est de 2 et donc P(Lp = Ap|ANp ) = Q q∈Np P(Lp = Ap|Aq). Ainsi, le label d’un pixel p, en ne considérant qu’un unique voisin q, est indépendant de tout autre pixel voisin. Cette formulation permet d’utiliser la théorie associée aux MRF, et plus particulièrement le théorème Hammersly-Clifford (H-C) : P(L = A) ∝ Y {p,q}∈N Vp,q(Ap, Aq) (II.9) avec Vp,q(Ap, Aq) la probabilité a priori d’un étiquetage donné pour une clique [130]. Une seconde hypothèse concerne la probabilité des caractéristiques observées pour un pixel p. Soit D = {D1, D2, . . . , D|P|} les données de l’image tel que Dp soit par exemple l’intensité, la couleur ou encore la texture. On fait l’hypothèse que la probabilité du pixel p dont la caractéristique est dp ne dépend que du label considéré au pixel p, et donc indépendant des autres, soit : P(D|A) = Y p P(Dp = dp|Ap) (II.10) Ceci correspond à une distribution des données identiquement et indépendamment distribuées, ce qui est vrai par exemple pour les intensités d’un objet ne variant que d’un bruit Gaussien. Il est alors possible de déterminer l’estimation du MAP A∗ , en notant H l’ensemble des segmentations possibles A : A ∗ = arg max A∈H P(A|DP) = arg max A∈H P(DP|A)P(A) P(DP) par loi de Bayes = arg max A∈H P(DP|A)P(A) puisque P(DP) est une constante indépendante de A = arg max A∈H Y p∈P P(dp|Ap) Y {p,q}∈N Vp,q(Ap, Aq) par indép. de dp sachant Ap et théorème de H-C = arg min A∈H X p∈P − ln P(dp|Ap) + X {p,q}∈N − ln Vp,q(Ap, Aq) (II.11) On remarque alors deux termes : le premier est une somme sur tous les pixels, fonction de P(dp|Ap), étant ainsi le terme région et donnant une estimation de l’adéquation entre l’étiquetage et les données de l’image ; le second est une somme sur tous les pixels, fonction de Vp,q(Ap, Aq), étant ainsi le terme contours et donnant les probabilités d’un étiquetage spécifique 46II.2 - 2 Méthode des coupes de graphe pour chaque paire de pixels voisins. La définition classique de ces deux termes est la suivante : Rp = − ln P r(Ip|Ap) (II.12) Bp,q =    exp  − (Ip−Iq) 2 2σ2  . 1 (Xp−Xq) 2 si {p, q} ∈ N, Ap 6= Aq 0 sinon (II.13) avec Ip l’intensité du pixel p et Xp sa position physique sur l’image. Le premier terme est le même que celui déterminé par le MAP MRF, avec comme caractéristique l’intensité de p. Cette probabilité est calculée à partir d’informations de l’utilisateur sur les intensités des objets. Le second terme dérive également du MAP MRF en considérant que la probabilité que deux pixels voisins aient différents labels est modélisée par une distribution Gaussienne selon les intensités des pixels. Ainsi, une approche probabiliste nous a permis d’obtenir la fonctionnelle d’énergie initiale, sous certaines hypothèses définies. Cette formalisation des hypothèses permet une meilleure compréhension de la précision des résultats en vérifiant si ces conditions sont réunies sur les images traitées. 2 - 2.2 Segmentation binaire Nous avons défini à l’équation II.5 la fonctionnelle d’énergie à minimiser. Nous allons tout d’abord détailler un cas simplifié de la méthodes de GC, la segmentation binaire telle que présentée par [4, 132]. A partir de ce cas, la méthode sera généralisée à la segmentation multilabels. La segmentation binaire consiste à séparer un seul objet du reste de l’image, cet objet pouvant être composé de plusieurs parties distinctes. La première étape consiste en une interaction utilisateur afin d’identifier un certain nombre de pixels spécifiques appartenant à l’objet et au fond. Ces pixels sont appelés graines. Les pixels labellisés objet sont dans le sous-ensemble O ⊂ P de l’ensemble des pixels P, ceux pour le fond dans le sous-ensemble B ⊂ P. Ces graines permettent de bien définir le problème de segmentation binaire et de créer une distribution des intensités de l’objet et du fond pour le terme région de la fonctionnelle d’énergie. Le but est alors le suivant : à partir d’une image donnée composée d’un ensemble de pixels P, déterminer 47Chapitre II. Etat de l’art des méthodes de segmentation des ventricules cardiaques en IRM le vecteur A = {A1, A2, . . . , A|P|} tel que : Ai =    ”objet” ou 1 ”fond” ou 0 (II.14) minimisant l’énergie d’une segmentation E(A), définie par : E(A) = X p∈P Rp(Ap) + λ X {p,q}∈N Bp,q.δ(Ap, Aq) (II.15) où : δ(Ap, Aq) =    1 si Ap 6= Aq 0 sinon (II.16) Cette fonctionnelle est plus spécifique que celle vue précédemment puisqu’elle ajoute une condition : le coût entre deux pixels voisins de même label doit être nul. L’idée fondamentale de l’algorithme des GC est alors de définir un graphe sur la grille des pixels de l’image, les segments du graphe étant pondérés par des poids tels que la coupe minimum du graphe définisse une segmentation minimisant la fonctionnelle d’énergie. Considérons un graphe G = (V, E), composé d’un ensemble de nœuds V et de segments E, et de deux nœuds supplémentaires appelés nœuds terminaux, l’un représentant l’objet appelé source S et l’autre le fond appelé puits T. Une coupe est alors définie comme un ensemble de segments C ⊂ E, tel que S et T soient dans des composantes séparées dans le sous graphe G′ = (V, E − C). Le coût d’une coupe C vaut alors la somme des poids des segments contenus dans C : |C| = X e∈C we (II.17) où we est le poids du segment e. La coupe minimum d’un graphe est la coupe de coût minimum. Elle correspond à une partition des nœuds à la source S ou au puits T, ce qui est équivalent à une segmentation binaire. Il faut ainsi définir la construction du graphe telle que la coupe minimale du graphe soit la segmentation d’énergie minimale. Pour cela et pour rappel, nous considérons que les pixels de l’image sont les nœuds du graphe, auxquels on ajoute les deux nœuds terminaux S et T pour représenter l’objet et le fond. Les liens entre nœuds voisins sont appelés n-links, {p, q} notant un n-link entre deux nœuds p et q. Les liens entre les nœuds terminaux S et T et les pixels de l’image sont quant à eux appelés t-links. La figure II.7 présente 48II.2 - 2 Méthode des coupes de graphe un exemple de construction d’un tel graphe à partir d’une image en niveau de gris et d’une graine objet et une graine fond, (II.7 (a) et (b)), afin de déterminer la coupe minimale et ainsi la segmentation (II.7 (c) et (d)), tel que proposé par [4]. Dans le graphe G′ , il est naturel de considérer que les nœuds étant dans la même composante que S font partie de l’objet et ceux dans la même composante que T du fond. Ceci peut être formalisé en définissant une segmentation A(C) déterminée par une coupe C telle que : Ap(C) =    ”objet” ou 1, si {p, T} ∈ C ”fond” ou 0, si {p, S} ∈ C (II.18) La façon intuitive de définir les poids des segments du graphe est que le coût de la coupe soit égale à l’énergie de segmentation A(C), soit |C| = E(A(C)). Ainsi, en minimisant |C|, l’énergie E(A(C)) est minimisée. On peut tout d’abord remarquer que le poids des n-links correspond au terme contours. Il faut juste s’assurer qu’une coupe de n-link n’est possible que si les deux pixels voisins ne sont pas dans la même composante, permettant l’ajout du coût contour approprié à la coupe. D’une façon similaire, il est possible d’assigner aux t-links le terme région. Si {p, T} fait partie de la coupe (resp. {p, S}), alors Ap(C) = 1 (resp. 0) et le poids de {p, T} doit être Rp(1) (resp. Rp(0) pour {p, S}). De plus, le coût des nœuds provenant des graines, dont on sait qu’ils appartiennent à O ou à B, doit être nul ou infini afin de forcer ou interdire la coupe. Le tableau II.2 présente l’assignation des poids pour chaque segment dans la construction du graphe. Cette construction du graphe permet l’obtention d’une segmentation A où E(A) est minimale pour toute segmentation A satisfaisant les contraintes fortes provenant des graines [132]. Tableau II.2 – Les différents poids assignés aux segments lors de la construction du graphe. Segment Poids Cas d’assignation {p, q} Bp,q {p, q} ∈ N λRp(0) p ∈ P, p /∈ O ∪ B {p, S} ∞ p ∈ O 0 p ∈ B λRp(1) p ∈ P, p /∈ O ∪ B {p, T} 0 p ∈ O ∞ p ∈ B La méthode des coupes de graphe que nous avons présentée possède certaines limitations mais également de bonnes propriétés. Une première limitation peut être la nécessité de placer les graines. Cette interaction peut être assez lourde pour des cas compliqués de segmentation, 49Chapitre II. Etat de l’art des méthodes de segmentation des ventricules cardiaques en IRM Figure II.7 – Illustration de la construction du graphe et de la segmentation par la méthode des coupes de graphe. A partir d’une image et de graines objet O = {v} et fond B = {p} (a), il est possible de créer le graphe dont l’épaisseur des segments représente les coûts (b). La détermination de la coupe minimale (c) permet d’obtenir la segmentation finale (d). Cette figure est tirée de [4]. et sujet à la variabilité. Ces graines sont pourtant importantes puisqu’elles permettent à la fois de limiter l’espace de recherche et déterminer les probabilités a priori permettant de calculer Rp(Ap). La détermination automatique de graines est possible, mais n’est pas une tâche aisée. Un avantage de la méthode des GC est sa gestion des différentes topologies sans aucun biais, contrairement à d’autres techniques favorisant les régions elliptiques ou nécessitant des régions connectées, comme une variante de l’algorithme k-means [133]. 2 - 2.3 Segmentation multi-labels L’algorithme des GC peut être étendu à la segmentation d’un nombre arbitraire de régions dans une image. La méthode des coupes de graphe multi-labels a été utilisée dans des cadres très différents. Tout d’abord la stéréo, pour du calcul de profondeur de scène [134], l’estimation de disparité [135] ou de la reconstruction [136]. La méthode a également été utilisée afin de réaliser du recalage non-rigide pour différentes mesures de similarités [137–141]. D’autres applications ont également été étudiées, tel que le suivi [142, 143] ou la restauration d’image [144, 145]. Cependant, dans ce cas, il n’est plus possible de déterminer la solution globale exacte 50II.2 - 2 Méthode des coupes de graphe comme pour la méthode binaire, le problème étant NP-difficile [146]. Il est cependant possible de déterminer une approximation de la solution. Nous verrons dans la suite de cette partie une solution d’approximation au problème multi-labels appelée α-expansion [146, 147]. Il est à noter qu’il est nécessaire de connaître à l’avance le nombre de labels possibles. Cette limitation peut également être un avantage pour des problèmes de segmentation spécifiques où le nombre d’objets à segmenter est connu, comme en imagerie médicale. Ce problème peut être formulé d’une façon similaire à la segmentation binaire : un vecteur A = (A1, A2, . . . , A|P|) est recherché, avec P l’ensemble des pixels, tel que Ai ∈ L avec L l’ensemble des N labels. Le but est toujours de minimiser la fonctionnelle d’énergie de l’équation II.15, mais la minimisation n’est pas exacte. Les travaux originaux [146] ont proposé deux méthodes d’approximations reposant sur le même principe. A partir d’une labellisation arbitraire, l’assignation des labels est itérativement modifiée en résolvant un sous-problème binaire. La première méthode, appelée α-β swap, ne considère que les sous-ensembles de pixels dans l’image ayant les labels courants fp = α ou fp = β, et permet l’échange de ces deux labels à chaque itération. Ce procédé est réalisé jusqu’à convergence pour chaque paire de labels. Cette méthode ne sera pas détaillée plus en détails car la seconde approximation, appelée α-expansion, est plus rapide et est plus proche de la solution optimale dans la plupart des applications [148]. Il est cependant important de noter que cette méthode permet l’utilisation de classes de fonctionnelles d’énergie plus importantes qu’avec l’α-expansion : une semi-métrique sur l’espace des labels pour le terme contours au lieu d’une métrique [147], ce qui limite le choix des énergies contours comme nous le verrons par la suite. Le principe de la méthode α-expansion est de considérer un label α contre tous les autres, noté ¯α. A chaque itération, la segmentation optimale binaire est réalisée, chaque pixel pouvant prendre le label α ou conserver son ancien label, permettant une expansion α. Cette étape est réitérée jusqu’à la convergence des labels. La construction du graphe est cependant plus difficile que précédemment puisqu’en considérant deux pixels initiaux de labels différents de α, fp 6= α et fq 6= α, le coût de Bp,q(α, α¯) = Bp,q(α, fq) et Bp,q(¯α, α) = Bp,q(fp, α) ne sont généralement pas les mêmes, contrairement au cas binaire. Le coût de coupe d’un n-link est ainsi dépendant des assignations respectives de p et q. Pour résoudre ce problème, l’article original [146] propose l’ajout de nœuds supplémentaires aux pixels et nœuds terminaux pour la construction du graphe. Un article plus récent permet une construction du graphe plus simple [147], sans ajout de nœuds, mais en utilisant un graphe orienté. Nous appuierons la suite de cette description sur ce dernier article. Afin de décrire la construction du graphe, il est nécessaire d’introduire certaines notations : soit un label α, notons Pα l’ensemble des pixels ayant comme label courant α et Pα¯ les autres 51Chapitre II. Etat de l’art des méthodes de segmentation des ventricules cardiaques en IRM pixels, tel que Pα ∪Pα¯ = P. Un voisinage orienté doit alors être créé, qui consiste à ajouter une direction à chaque n-link. Ce voisinage orienté peut être arbitraire, mais par simplicité pour un pixel p et tout q ∈ Np, nous définissons comme voisin entrant tout pixel q à gauche ou au-dessus de p, noté −→Np, et comme voisin sortant tout pixel q à droite ou en dessous de p, noté ←−Np. La construction du graphe peut alors débuter : soit G = (V, E) un graphe où V = P ∪ {S} ∪ {T} et S et T sont les nœuds terminaux. Les segments de E sont orientés, les t-links de S à tout p ∈ P sont notés (S, p) et de tout p ∈ P à T sont notés (p, T). E contient également les n-links (p, q) (orientés, (p, q) 6= (q, p)) entre toute paire de pixels p ∈ P et q ∈ ←−Np. Le but est alors d’assigner aux segments des coûts appropriés tels que la coupe minimale C minimise l’énergie et détermine la segmentation suivante : Ap(C) =    α si {S, p} ∈ C α¯ = fp si {p, T} ∈ C (II.19) où fp est le label courant du pixel p. Comme pour le cas binaire, il semble naturel d’assigner les poids tel que le coût d’une coupe |C| soit égale à E(A(C)). Nous considérerons séparément dans la suite les termes régions et contours R(A) et B(A) afin d’assigner les coûts appropriés à chaque segment. Ces coûts seront alors ajoutés, puisque E(A) est une somme [147]. La prise en compte du terme R(A) dans la construction du graphe est aisée : pour tout p ∈ Pα¯, si p ne change pas de label le coût est de Rp(fp) (ce qui revient à couper le t-link (p, T)), et si p change son label en α le coût est alors de Rp(α) (ce qui revient à couper le t-link (S, p)). Dans le cas où p ∈ Pα, on ne peut assigner le label ¯α puisqu’il n’est pas unique. Dans ce cas, le t-link (S, p) doit être coupé et son coût de coupe doit être nul, alors que le t-link (p, T) doit avoir un coût de coupe infini. Le tableau II.3 présente cette affectation des poids pour le terme R(A) dans la construction du graphe. Tableau II.3 – Les différents poids assignés aux segments pour le terme région R(A) lors de la construction du graphe. Segment Poids Cas d’assignation (S, p) λRp(α) p ∈ Pα¯ 0 p ∈ Pα (p, T) λRp(fp) p ∈ Pα¯ ∞ p ∈ Pα Concernant le terme contour B(A), on peut considérer la somme des coûts pour chaque lien n-link coupé [147]. Pour chaque paire de pixels p et q, les coûts du terme contour sont basés 52II.2 - 2 Méthode des coupes de graphe sur les assignations Ap et Aq : (Ap, Aq) = (¯α, α¯) : Bp,q(fp, fq) = Vp,q, (Ap, Aq) = (α, α¯) : Bp,q(α, fq) = Vα,q, (Ap, Aq) = (¯α, α) : Bp,q(fp, α) = Vp,α, (Ap, Aq) = (α, α) : Bp,q(α, α) = Vα,α. Ces différentes assignations de p et de q correspondent à une coupe spécifique du sous-graphe contenant p, q ainsi que S et T. Afin de définir le coût approprié à une assignation spécifique, il est nécessaire de sommer les coûts de chaque segment coupé de ce sous-graphe. Par exemple, si Ap = ¯α et Aq = α, alors trois segments sont coupés : wS,p + wp,q + wp,T = Vp,α. Ce coût total peut être déterminé pour chaque coupe possible. Du fait que le graphe est orienté, si Ap = α et Aq = ¯α alors le lien (p, q) n’est pas considéré car le coût d’une coupe est la somme des coupes de la source S vers le puits T. L’orientation du graphe permet de résoudre l’ensemble des équations linéaires des assignations possible de p et de q. Les poids obtenus sont alors les suivants : wS,p = Vα,q, wS,q = Vα,α − Vα,q, wp,T = Vp,q, wq,T = 0, wp,q = Vα,q + Vp,α − Vα,α − Vp,q. Certains de ces poids sont négatifs, alors que des poids positifs sont nécessaires à l’obtention de la coupe minimale. En effet, puisqu’un coût contour n’est affecté que si les assignations sont différentes alors V (α, α) = 0, ce qui implique que wS,q < 0. De plus wp,q n’est positif que si Vα,q + Vp,α ≥ Vp,q. Ce problème peut être résolu en ajoutant une constante aux segments (S, q) et (q, T), un de ces deux liens apparaissant pour chaque coupe possible. Cette constante doit valoir au moins Vα,q afin que wS,q ≥ 0. On obtient finalement les poids suivants : wS,p = Vα,q, wS,q = 0, wp,T = Vp,q, wq,T = Vα,q, wp,q = Vα,q + Vp,α − Vp,q. Finalement, la seule condition restante est : Vα,q + Vp,α ≥ Vp,q. Comme montré par [147], la méthode des GC avec l’α-expansion permet ainsi de minimiser des classes d’énergie satisfaisant l’inégalité suivante : Bp,q(α, α) + Bp,q(fp, fq) ≥ Bp,q(α, fq) + Bp,q(fp, α). La classe d’énergie utilisée doit donc être une métrique sur l’espace des labels afin que Vp,q soit sous-modulaire. Lors de la création d’un poids contour, il est donc important et nécessaire de vérifier ces conditions. Les poids finaux des segments du graphe peuvent alors être déterminés en combinant le terme région et le terme contour : ces poids sont donnés par le tableau II.4. La preuve que la coupe minimum par cette construction du graphe pour un label α permet l’obtention de l’assignation optimale des α peut être trouvée en [147]. Afin de déterminer la segmentation multi-labels, il est nécessaire de répéter le processus d’α-expansion pour chaque 53Chapitre II. Etat de l’art des méthodes de segmentation des ventricules cardiaques en IRM Tableau II.4 – Les différents poids assignés aux segments pour l’approximation α-expansion, pour un label α et un voisinage orienté N. Segment Poids Cas d’assignation (p, q) Bp,q(α, q) + Bp,q(p, α) − Bp,q(p, q) p ∈ P, q ∈ ←−Np (S, p) λRp(α) + P q∈ ←−Np Bp,q(α, q) p ∈ Pα P q∈ ←−Np Bp,q(α, q) p ∈ Pα (p, T) λRp(fp) + P q∈ ←−Np Bp,q(p, q) + P q∈ −→Np Bp,q(α, q) p ∈ Pα¯ ∞ p ∈ Pα¯ label jusqu’à convergence. Ceci permet d’obtenir une approximation proche de la segmentation optimale [146] : si ˆf est la segmentation obtenue par cette approximation et f ∗ la segmentation optimale, alors les auteurs ont prouvé que : E( ˆf) ≤ 2k.E(f ∗ ) (II.20) où k est une constante dépendant des valeurs de Bp,q et valant k = max{Bp,q(α,β):α6=β} min{Bp,q(α,β):α6=β} . 2 - 2.4 Algorithmes de recherche de coupe minimum La détermination de la coupe minimale d’un graphe est un problème qui a été très étudié dans la littérature, et des solutions efficaces sont disponibles. Cette partie va brièvement exposer le principe d’un des algorithmes les plus connus de détermination de la coupe minimum, basé sur [146, 149]. La clé de ce principe est le théorème de Ford et Fulkerson (1956) [150] statuant que déterminer la coupe minimale dans un graphe orienté avec une source et un puits équivaut à déterminer le flot maximal. Le flot d’un graphe peut être vu comme une valeur assignée à chaque segment, telle que sa valeur soit inférieure au poids du segment, et que la somme du flot entrant dans un nœud équivaut à la somme du flot sortant de ce nœud. Le poids d’un segment peut alors être vu comme la capacité maximale de flot de ce segment. Plus formellement, le flot d’un graphe est une fonction f à valeurs réelles sur les segments tel que ∀e ∈ E, fe ≤ we, et ∀v ∈ V \{S, T}, P e∈(.,v) fe = P e∈(v,.) fe. S’il est possible de déterminer une coupe dont la somme des poids des segments vaut c, alors c est l’unité maximale pour traverser cette coupe, et donc le flot vaut au plus c. De même, s’il existe un flot f de S à T, alors le coût de toute coupe séparant S et T vaut au minimum f. Ce théorème min-cut max-flow est intéressant puisqu’il affirme que si une coupe et un flot ont la même valeur, alors cette coupe est minimale et ce flot est maximal. La figure II.8 illustre cette équivalence entre coupe minimale et flot maximal. L’équivalence entre coupe minimum et flot maximum a été utilisée afin de créer un algo- 54II.2 - 2 Méthode des coupes de graphe Figure II.8 – Illustration de l’égalité entre coupe minimale et flot maximal. Les segments sont pondérés par une fraction x/y où x est le flot et y le poids du segment. Le flot courant est de 5, déterminé en sommant le flot en sortie de S (ou d’une façon équivalente arrivant à T). La coupe est visualisée par par la ligne noire, séparant le graphe en deux sous-ensembles S et T. En ajoutant les poids des segments, on remarque que le coût de la coupe est également de 5. Puisque le coût de coupe est égal au flot, alors la coupe est minimale et le flot maximal. Cette figure est issue de [151]. rithme de recherche de la coupe minimum, appelé algorithme augmenting path (chemin augmentant) et développé par Ford et Fulkerson. Le principe est de continuellement augmenter le flot dans le graphe. Lorsqu’il ne peut plus être augmenté, alors la coupe de même valeur a été déterminée et est la coupe minimale. En partant d’un flot nul, un chemin de S vers T est recherché, tel que we − fe > 0 si le segment est orienté vers le puits et fe > 0 si le segment e est dirigé vers la source. Ce chemin est appelé augmenting path. Le but est de rechercher tout chemin où un flot peut être ajouté, et d’augmenter le flot tel qu’au moins un segment soit saturé, c’est-à-dire we = fe si le segment est dirigé vers le puits, fe = 0 sinon. Cette étape est réitérée jusqu’à ce qu’aucun augmenting path ne puisse être trouvé. Le flot maximum, et donc la coupe minimum, ont ainsi été déterminés. La figure II.9 illustre cet algorithme sur un exemple simple. La variation Dinic de l’algorithme original propose la recherche de l’augmenting path le plus court à chaque étape. Cette recherche permet de déterminer la coupe minimum en un temps O(n 2m), avec n le nombre de nœuds du graphe et m son nombre de segments. En pratique, dans le cas où l’image est un graphe, l’algorithme le plus efficace est basé sur les augmenting paths et a été défini par [152]. C’est sur ce dernier algorithme que repose la minimisation de l’énergie de la méthode des coupes de graphe. 55Chapitre II. Etat de l’art des méthodes de segmentation des ventricules cardiaques en IRM Figure II.9 – Illustration des différentes étapes de l’algorithme augmenting path. Les segments sont pondérés par une fraction x/y où x est le flot et y le poids du segment. (a) présente le graphe initiale, (b)-(d) les différentes étapes d’augmentation du flot, (e) le flot maximal. Cette figure est issue de [151]. 2 - 2.5 Intégration d’a priori La méthode des coupes de graphe binaire a donné lieu à de nombreux développements théoriques [153] et applicatifs [154–158]. Nous avons vu l’intérêt de l’utilisation d’informations a priori fortes afin de guider la segmentation à la section 2 - 1.3 . La méthode des coupes de graphe permet de facilement prendre en compte des informations de forme. Ainsi, des contraintes ou des modèles concernant l’objet à segmenter peuvent être introduits, au travers d’un terme supplémentaire dans la formulation de l’énergie de l’équation II.15. La manière d’incorporer ces informations a priori dépend des informations disponibles : soit les contraintes sont faibles et sont de simples hypothèses sur la forme générale de l’objet (convexe par exemple), soit les contraintes sont fortes et concernent une forme précise à retrouver dans l’image. Contraintes faibles : Dans la littérature, les contraintes sur la forme générale d’un objet sont généralement spécifiées au travers des n-links, modifiant l’étiquetage dans le voisinage des pixels selon l’hypothèse effectuée. Dans [159], les valeurs de l’énergie contours Bp,q sont modifiées 56II.2 - 2 Méthode des coupes de graphe (a) (b) Figure II.10 – (a) Exemple de contrainte faible imposée à la segmentation par coupe de graphe selon [161] avec calcul de l’angle α, permettant au contour (rouge) d’évoluer vers une forme convexe (vert) ; (b) Schéma de connectivité permettant l’introduction de contraintes entre les coupes proposé par [162] pour un point de contrôle c (cylindre rouge) avec ses voisins Nc (sphères grises), ses points de contrôle voisins sur la même coupe, ou slice (cylindres oranges) et sur les coupes voisines u et r (cubes bleus). en interdisant certaines positions relatives de p et q, favorisant ainsi les formes compactes. La même méthodologie est utilisée dans [160] pour des formes plus générales que des formes convexes, définies en imposant que si C est le centre de la forme et p un point dans la forme, tout point q situé sur la droite (C, p) après p soit également dans la forme. Notons que cette méthode présente un effet intéressant contrant le biais de rétrécissement généralement observé dans la segmentation par coupe de graphe, mais pose des problèmes importants de discrétisation. Imposer que le résultat de la segmentation soit convexe peut également être fait au travers d’un terme d’énergie supplémentaire de la forme 1 − cos(α) où α est l’angle entre (p, q) et (p, C) où C est le centre de l’objet, désigné par un clic de l’utilisateur [161]. On voit ainsi comment des angles importants sont pénalisés par de fortes valeurs de l’énergie, encourageant ainsi les coupes grossièrement convexes dans le graphe (Figure II.10-(a)). Plus récemment, des informations sur les intensités et des contraintes de régularisation entre les contours de différentes coupes ont été intégrées aux n-links du graphe pour la segmentation 3D du VG [162]. Cette méthode repose sur des règles contraignant les caractéristiques géométriques, de topologie et d’apparence du VG à partir de points de contrôle issus d’un modèle fixe placé lors d’une phase d’initialisation. La Figure II.10-(b) présente le schéma de connectivité du graphe pour cette méthode. Contraintes fortes : Lorsqu’un modèle de l’objet à segmenter est disponible, il est en général imposé à la segmentation au travers des t-links, ce qui inclut, dans la formulation de 57Chapitre II. Etat de l’art des méthodes de segmentation des ventricules cardiaques en IRM l’énergie du graphe, un terme supplémentaire qui peut être similaire au terme régional Rp. Les formulations classiques de Rp sont reprises en remplaçant les modèles d’intensités sur l’objet par les étiquettes du modèle, qui peut être une courbe paramétrique permettant de segmenter des structures circulaires [163], ou par une carte des probabilités [164, 165], et dans ce cas l’énergie liée à l’a priori prend la forme : Es(ωp) = − ln(P rA(ωp)) (II.21) où (P rA(ωp)) représente la probabilité du pixel p d’appartenir à la classe ωp selon le modèle. Notons que l’utilisation d’un a priori de forme pose un problème difficile de mise en correspondance du modèle avec l’image. Le recalage peut être fait de façon itérative et donc coûteux en temps de calcul : les phases d’estimation des paramètres de pose et de calcul de la segmentation sont alternées [165–168]. Par exemple, la méthode proposée par [166] consiste à rechercher alternativement les paramètres de pose, de l’ACP et du GMM en utilisant une descente de gradient (étape de maximisation) et à segmenter par la méthode des coupes de graphe en utilisant la forme courante donnée par l’ACP (étape d’estimation), par une approche EM. Dans le cas où le recalage est préalable à la segmentation, le processus repose sur une intervention de l’utilisateur [164, 169]. Le modèle est défini dans ce cas par une carte des distances ou un atlas. Notons que ces modèles sont limités pour représenter judicieusement les variabilités de forme. Une particularité est à noter dans les travaux de Freedman and Zhang [169], une des premières méthodes intégrant un a priori de forme fort dans la méthode des GC : le terme d’a priori est intégré aux n-links. Leur méthode consiste en l’utilisation d’un modèle de forme unique, décrit par une carte des distances non signées aux contours de l’objet φ¯, recalé sur l’image à segmenter par une analyse Procruste réalisée grâce à des graines définies par l’utilisateur. L’a priori de forme est pris en compte dans l’énergie du graphe par un terme additionnel φ¯  p+q 2  dans les n-links : E(A) = X p∈P (1 − λ)µRp(Ap) + X (p,q)∈N:Ap6=Aq  (1 − λ)Bp,q + λφ¯  p + q 2  (II.22) avec Rp et Bp,q respectivement définis aux équations II.12 et II.13, et λ et µ des paramètres contrôlant respectivement la régularisation et l’influence de l’a priori de forme. Les graines de l’utilisateur sont nécessaires au recalage du modèle de forme, mais également à la modélisation des intensités de l’objet et du fond pour le terme Rp. Concernant la méthode des coupes de graphe multi-labels, peu de travaux ont été proposés 58II.2 - 3 Conclusion dans un but de segmentation : une première étape par GC avant une méthode basée sur le clustering [170] ou pour la segmentation d’images naturelles [171, 172]. Et à notre connaissance, seules une méthode itérative basée sur un ASM par [173] et une méthode interactive basée sur un modèle d’apparence par [174], intègrent un a priori fort à la méthode des coupes de graphe multi-labels. 2 - 3 Conclusion Dans les applications où la forme à segmenter est connue a priori (par exemple un organe en imagerie médicale), le processus de segmentation peut être guidé par un modèle de forme ou des contraintes sur celle-ci. Pour des images ayant un contraste faible ou un taux de bruit élevé, une telle contrainte permet d’améliorer la précision de la segmentation. Dans le cadre des modèles déformables par exemple, l’intégration de contraintes de forme a été largement étudiée, avec des modèles basés sur une analyse en composantes principales ou sur des atlas. L’avantage de la méthode des coupes de graphe est sa capacité à donner efficacement une solution optimale pour l’utilisation conjointe de différentes informations sur l’image. A ce jour, les travaux de segmentation par coupe de graphe en prenant en compte des formes a priori sont encore peu nombreux dans la littérature. Deux problèmes se posent en effet : la modélisation de la forme de l’objet à segmenter et son intégration dans l’algorithme de coupe de graphe. L’objectif du prochain chapitre va être de concevoir et développer une méthode de segmentation à base de coupes de graphe, utilisant un a priori de forme statistique. L’intérêt va être d’intégrer un a priori de forme statistique fort à la méthode des coupes de graphe dans un but de segmentation, avec comme application la segmentation du VD en IRM cardiaques. 59Chapitre II. Etat de l’art des méthodes de segmentation des ventricules cardiaques en IRM 60Chapitre III Segmentation binaire par coupes de graphe avec un modèle de forme statistique Le chapitre II a montré que l’intégration d’un modèle de forme statistique à une méthode permet de guider la segmentation, et d’augmenter la robustesse et la précision de la méthode [84]. Nous avons vu que de nombreux travaux ont été réalisés dans la littérature sur la construction et l’utilisation de modèles statistiques de forme dans le but d’aider à segmenter des images [175–182]. Ce modèle de forme peut être explicite, tel que le modèle de distribution de points (PDM) [5]. Ce dernier a été très utilisé, mais nécessite le placement de points de correspondance. Il peut également être implicite en utilisant la fonction distance signée (SDF) [90], ne nécessitant alors qu’un alignement grossier des données au préalable. Des modèles utilisant ces deux représentations (PDM vs. SDF) seront présentées et comparées dans la section 3 - 1 . Issue de cette comparaison, nous avons proposé un modèle de forme basé sur la SDF. Notre objectif est d’utiliser la souplesse et le faible coût de calcul de la méthode des coupes de graphe afin de proposer une approche de segmentation efficace basée sur un a priori de forme statistique, sans la nécessité d’un procédé itératif. Or il est difficile d’intégrer directement le modèle dans le graphe. C’est pourquoi nous avons défini un a priori de forme à partir de ce modèle afin de l’intégrer directement dans les pondérations du graphe. Cette contribution sera présentée dans la section 3 - 2 . Enfin, la section 3 - 3 présentera les résultats expérimentaux obtenus sur IRM cardiaque. 61Chapitre III. Segmentation binaire par coupes de graphe avec un modèle de forme statistique 3 - 1 Représentation d’un modèle statistique de forme Avant de définir notre modèle de forme, nous allons présenter les deux modèles statistiques de forme : PDM et SDF. Le modèle de distribution de points est la représentation la plus largement utilisée, notamment dans le cadre des ASM. La représentation PDM est explicite : les objets sont représentés par un nombre fini de points de correspondance [97, 115, 183]. La correspondance entre les points est une condition nécessaire à la réalisation de l’analyse. En pratique, l’utilisation du PDM peut poser problème : le nombre de formes disponibles dans l’ensemble d’apprentissage doit être suffisant pour réaliser l’analyse, la labellisation manuelle des données médicales peut être une tâche très fastidieuse et l’établissement des correspondances peut aussi être très difficile. De plus, cette étape peut être sujette à la variabilité si elle est manuelle, et à l’erreur de détection si automatique. Une autre représentation consiste à utiliser la distance minimale (généralement Euclidienne) au contour de l’objet, ou SDF [90, 184]. La SDF consiste à considérer les frontières de la forme comme une courbe de niveau zéro et la carte des distances est construite en calculant la distance minimale signée au contour de l’objet. Une analyse en composantes principales (ACP) permet alors de modéliser les variabilités présentes dans la base d’apprentissage par une décomposition en valeurs et vecteurs propres de la matrice de covariance de l’ensemble des formes. Les vecteurs propres, appelés également formes propres, représentent les variabilités des formes de l’ensemble d’apprentissage par rapport à la moyenne, ces variabilités étant représentées implicitement par la variabilité des distances. La décomposition en formes propres utilisant la représentation implicite par SDF tolère de légers désalignements des objets, puisque des pixels légèrement désalignés sont généralement fortement corrélés avec cette représentation. Néanmoins, la combinaison linéaire de la forme moyenne et de ses vecteurs propres pondérés pour décrire une nouvelle forme par la représentation SDF peut résulter en un espace invalide, puisque la combinaison linéaire de carte de distances ne résulte pas en une carte de vraies distances. En effet, une approximation est réalisée en considérant l’espace comme étant linéaire. De plus, cette décomposition ne permet pas d’obtenir l’espace des probabilités conditionnelles, d’où la proposition de certains auteurs de remplacer la SDF par le logarithme de la probabilité d’une structure d’être présente à l’emplacement considéré [185], ou logOdds. Cependant, comme cela est souligné dans [90], bien que les surfaces résultantes ne soient pas forcément de réelles cartes de distances avec la représentation SDF, elles ont généralement l’avantageuse propriété d’être lisse, de permettre des déformations locales des formes et d’avoir une courbe de niveau zéro cohérente avec la combinaison des courbes originales. 62III.3 - 1 Représentation d’un modèle statistique de forme (a) (b) Figure III.1 – Illustration de la carte de distance sur une forme carrée : à partir du contour de ce carré (a), la carte de distance signée est créée (b), avec par exemple des valeurs négatives à l’intérieur du carré. Plus l’intensité est claire, plus la distance au contour de la forme est importante. Dans la section suivante, un modèle de forme statistique basé sur la carte des distances est proposé, dérivé de la représentation SDF précédemment introduite par [90, 186], avec lequel nous réaliserons une comparaison avec la représentation PDM. 3 - 1.1 Représentation des formes basée sur la fonction distance Soit un ensemble de n images binaires 2D alignées, de taille H × W, composé de formes de la même classe d’objet. La carte signée SDF de chaque image/forme est définie comme H × W échantillons codant la distance au point le plus proche du contour, avec par convention des valeurs négatives à l’intérieur de l’objet. Un exemple de carte de distances est donné à la Figure III.1. Soit Z la matrice SDF, où chaque vecteur colonne est l’ensemble des H × W échantillons distance de chaque forme et où chaque ligne représente les distances pour un même pixel à chaque forme de l’ensemble d’apprentissage. L’objectif est d’extraire les variations des formes de la matrice Z. La moyenne des cartes des distances est réalisée en moyennant chaque ligne de Z : ρ = 1 n Xn i=1 Z.,i (III.1) 63Chapitre III. Segmentation binaire par coupes de graphe avec un modèle de forme statistique ρ est un vecteur de taille H.W. Pour capturer la variabilité, nous proposons une approche différente que celle proposée dans la littérature [85, 90] utilisant une représentation par la fonction distance. Généralement, la moyenne signée des cartes de distances est choisie en tant que référence, ce qui implique que l’analyse en composantes principales est effectuée dans l’espace des fonctions distances. Or, la moyenne de distances signées n’est pas une distance signée, nous réinitialisons donc cette carte avec sa vraie distance. Nous proposons ainsi de d’abord calculer la forme moyenne à partir de la carte moyenne des distances signées puis ensuite de calculer sa carte des distances signées. Soit p un point du domaine de l’image inclus dans IR2 . La forme moyenne binaire est définie par : χρ (p) =    −1 if ρ(p) ≥ 0 +1 if ρ(p) < 0 (III.2) Soit C l’ensemble des points du contour de la forme moyenne binaire χρ (p). La référence µ est calculée en déterminant les distances au contour : µ(p) = χρ (p) × inf q∈C |p − q| (III.3) Chaque forme est alors centrée : M = h (Z.,1 − µ) · · · (Z.,n − µ) i (III.4) De cette façon, l’ACP est construite dans l’espace des variations des formes. La variabilité des formes est capturée par l’utilisation de l’ACP : en utilisant la méthode de décomposition en valeurs singulières (SVD), la matrice de covariance définie par 1 nMMT, est décomposée afin de déterminer les modes orthogonaux de variations de forme et leurs valeurs propres correspondantes : 1 n MMT = UΣUT (III.5) où U est une matrice dont les vecteurs colonnes représentent l’ensemble des modes orthogonaux de variation de forme, nommés vecteurs propres, et Σ est une matrice diagonale de taille n × n des valeurs singulières correspondantes, ou valeurs propres. Il est à noter que la dimension de 1 nMMT est très grande et dépend du nombre de pixels H.W × H.W. Le calcul de valeurs et formes propres de cette matrice est très coûteuse. Une solution existe pour faire face à de grandes tailles d’échantillons pour l’ACP [187]. Soit W une matrice de plus petite taille n × n 64III.3 - 1 Représentation d’un modèle statistique de forme définie par : W = 1 n MTM (III.6) Afin de déterminer les vecteurs propres de la matrice originale, si e est un vecteur propre de W dont la valeur propre correspondante est λ, alors Me est un vecteur propre de 1 nMMT de valeur propre λ : 1 n MMT(Me) = M( 1 n MTM)e = M(We) = Mλe = λ(Me) (III.7) Pour chaque forme propre e de W, Me est le vecteur propre de 1 nMMT. Ainsi, la taille de la matrice des vecteurs propres U est de H.W × n. Dans la suite, nous considérons que les vecteurs propres ont été triés en fonction de l’importance de leur valeur propre correspondante. Soit k ≤ n le nombre de modes à considérer, ces derniers définissant la quantité de variations de forme retenue. Soit z une forme inconnue de la même classe d’objet. Une estimation ˆz de z peut être calculée par : ˆz = µ + X k i=1 αiUk.,i (III.8) où αi est obtenue avec : α = UT k (z − µ) = {α1 . . . αk} (III.9) avec UT k la matrice des k premières colonnes de U utilisées pour projeter z dans le sous-espace. 3 - 1.2 Comparaison des modèles de forme Afin d’illustrer les différences entre la modélisation PDM et la nôtre, une comparaison empirique a été effectuée sur une base de données de 12 images d’avions de taille 114 × 114 [85] (Figure III.2). L’ensemble des images a été préalablement aligné. Chaque modèle a été construit à partir des images alignées, le PDM a été calculé à partir de ℓ points de correspondances. La superposition des deux formes moyennes et de leurs modes de variation principaux est donnée par la figure III.3. Celle-ci illustre la similarité des deux formes moyennes et montre que bien que les deux modèles ne représentent pas la variabilité des formes dans le même espace, leurs 65Chapitre III. Segmentation binaire par coupes de graphe avec un modèle de forme statistique Figure III.2 – Base de données binaire de 12 images alignées d’avion (tiré de [85]). axes de variations semblent similaires. Dans la suite de cette partie, nous tâchons de quantifier la différence entre les deux modèles lors de son utilisation pour définir une forme nouvelle. Chaque forme de la base d’avions a été reconstruite en utilisant les deux représentations, SDF et PDM, avec une stratégie leave-oneout : n − 1 formes sont utilisées pour construire les modèles, et la dernière est utilisée pour l’estimation. Il est à noter que le PDM consiste en ℓ points de correspondances créés sur des points facilement identifiables. Deux métriques standard ont été calculées afin de comparer la forme estimée à la forme réelle : (i) le coefficient Dice DM(A, B), une mesure de recouvrement entre deux formes A et B définie par : DM(A, B) = 2|A ∩ B| |A| + |B| (III.10) et (ii) la distance perpendiculaire moyenne, ou Point To Curve (P2C) entre les deux contours définie par : P2C(A, B) = 1 |A| X a∈A min b∈B d(a, b) (III.11) où |A| représente le nombre de points du contour A et d(.) la distance euclidienne. Les résultats, présentés à la table III.1, présentent le score de recouvrement et la distance perpendiculaire moyenne en pixels pour différents nombre de points ℓ (PDM) et différents choix du nombre de formes propres k utilisées pour la reconstruction. Sans surprise, l’erreur de reconstruction décroit lorsque k augmente. Il est à noter aussi que le PDM semble capturer les détails légèrement mieux que la représentation par SDF, et ce quelque soit le nombre de points. Cela peut également 66III.3 - 1 Représentation d’un modèle statistique de forme (a) (b) Premier mode (c) Second mode Figure III.3 – Variabilité des formes des avions en utilisant la représentation SDF et PDM. (a) la superposition des images de la base d’apprentissage, (b) les variations ±2σ du mode principal de variation, (c) les variations ±2σ du second mode principal de variation. La partie en noir est commune aux deux représentations, la partie rouge ne représente que le PDM (composé de ℓ = 37 points), la partie verte que la SDF. être observé à la figure III.4, où la reconstruction de deux formes par les deux représentations PDM et SDF est illustrée. Bien que légèrement moins précis en termes de reconstruction, les résultats obtenus par la représentation SDF montrent qu’une reconstruction correcte des formes peut être obtenue, sans la nécessité d’une coûteuse détection de points de correspondance et du processus d’appariement. 3 - 1.3 Conclusion En conclusion, la représentation PDM et la représentation SDF permettent toutes deux de correctement représenter les variabilités des formes. Cependant, la représentation SDF présente des avantages que la représentation PDM n’offre pas : – Elle ne nécessite pas la mise en place de points de correspondance, un processus sujet à la variabilité si manuel et à l’erreur de détection si automatique ; – Elle ne nécessite pas l’alignement des points de correspondance, un pré-requis nécessaire avant l’analyse des formes, qui est difficile à établir. 67Chapitre III. Segmentation binaire par coupes de graphe avec un modèle de forme statistique Tableau III.1 – Moyenne du coefficient Dice (DM) et de la distance perpendiculaire (P2C, en pixels) entre la forme reconstruite et la forme réelle pour les deux représentations PDM et SDF. DM varie entre 0 (pas de recouvrement) à 1 (recouvrement parfait). ℓ est le nombre de points du PDM. k est le nombre de modes considérés pour la reconstruction. k = 3 k = 6 k = 10 DM SDF 0.89 ± 0.04 0.91 ± 0.02 0.93 ± 0.02 PDM ℓ = 16 0.92 ± 0.03 0.94 ± 0.02 0.96 ± 0.01 PDM ℓ = 28 0.92 ± 0.03 0.94 ± 0.02 0.96 ± 0.01 PDM ℓ = 38 0.93 ± 0.03 0.94 ± 0.02 0.96 ± 0.01 P2C SDF 1.76 ± 0.49 1.35 ± 0.33 1.02 ± 0.26 (pixels) PDM ℓ = 16 1.41 ± 0.57 1.06 ± 0.36 0.74 ± 0.23 PDM ℓ = 28 1.38 ± 0.56 1.10 ± 0.42 0.71 ± 0.19 PDM ℓ = 38 1.34 ± 0.51 1.08 ± 0.40 0.79 ± 0.19 Figure III.4 – Deux formes reconstruites avec le PDM (courbe rouge) et SDF (courbe verte). – Elle est plus robuste que le PDM à un désalignement initial des formes [90]. La représentation SDF est ainsi retenue dans notre méthode de segmentation, que nous allons décrire dans la partie suivante. 3 - 2 Méthode de segmentation binaire par coupes de graphe avec a priori de forme Notre objectif est de proposer une approche de segmentation efficace basée sur un a priori de forme statistique intégré à la méthode des coupes de graphe, sans la nécessité d’un procédé itératif. La difficulté réside dans l’intégration du modèle au graphe. En effet, le modèle est composé d’une forme moyenne et de ses formes propres : son utilisation classique consiste à 68III.3 - 2 Méthode de segmentation binaire par coupes de graphe avec a priori de forme Figure III.5 – Vue d’ensemble de la méthode proposée avec a priori de forme. Pour la carte d’a priori, plus la couleur est sombre plus la distance est importante. optimiser les poids des formes propres selon un critère basé sur l’image à segmenter, afin de lui faire correspondre au mieux le modèle. Ce procédé, itératif, peut être coûteux en temps de calcul et être sujet aux minima locaux. De plus, il semble difficile d’intégrer directement ce modèle dans le graphe. C’est pourquoi nous avons défini un a priori de forme à partir de ce modèle afin de l’intégrer directement dans les pondérations du graphe. La méthode de segmentation que nous proposons repose ainsi sur deux étapes : (i) un modèle de forme est construit à partir d’une ACP et résumé dans une seule carte d’a priori (Section 3 - 2.1 ), (ii) cette carte est recalée sur l’image à partir d’une faible interaction avec l’utilisateur (deux points) et est incorporée dans la fonctionnelle d’énergie du graphe avant la segmentation finale (Section 3 - 2.2 ). Une vue d’ensemble de la méthode est donnée par la figure III.5. 3 - 2.1 Création d’un a priori de forme Considérons un ensemble de N formes binaires de l’endocarde du ventricule droit, obtenue par une segmentation manuelle du VD sur N IRM cardiaques. Pour chaque forme binaire, une carte des distances φi au contour du VD est calculée. Les formes sont alignées rigidement sur 69Chapitre III. Segmentation binaire par coupes de graphe avec un modèle de forme statistique une référence arbitraire et moyennées créant la forme moyenne Φ¯ (Fig. III.7(a)) : Φ¯ = 1 N X N i=1 φi (III.12) Puisque moyenner ne garantit pas l’obtention d’une fonction distance, nous proposons de réinitialiser Φ¯ à une SDF du contour du VD, qui est la courbe de niveau zéro. Une ACP est alors réalisée sur l’ensemble des formes centrées, ce qui détermine les formes propres notées Φi , avec i = 1..N, et leurs valeurs propres associées, notées λi [85]. Un nombre de k ≤ N formes propres est retenu selon les pondérations des valeurs propres, avec une valeur k choisie assez large afin de prendre en compte les plus importantes variations des formes présentes dans l’ensemble d’apprentissage. La forme moyenne et les variations autour du premier axe données par l’ACP (i.e. associé à la plus grande valeur propre) sur des formes du VD sont illustrées à la Figure III.6. Décrivons maintenant comment une carte unique d’a priori est calculée à partir de l’ACP. Notre objectif est d’isoler les zones de variation de la forme moyenne pour chaque axe principal. Nous générons ainsi des instances de déformation maximum pour chaque axe (Fig. III.7(b)-(c)) : γ ± i = Φ¯ ± 3 q λiΦi , pour tout i = 1..k (III.13) En effet, étant donné que la variance de la pondération de la forme propre Φi peut être vue comme valant λi et que la majeure partie de la population se situe dans trois écarts-types de la moyenne, les limites de déformations sont fixées à ±3 √ λi . Les zones de variation de la forme moyenne pour le mode considéré i peuvent ensuite être obtenues par un OU exclusif entre la forme moyenne binaire et les déformations maximales binarisées γ ± i : Γi(p) = H(Φ¯ ) ⊕ H(γ + i ) + H(Φ¯ ) ⊕ H(γ − i ), pour tout i = 1..k (III.14) où H(·) est la fonction de Heaviside. Γi est la carte binaire contenant les zones de variation de la forme moyenne, pour le mode propre i (Fig. III.7(d)). Cette carte est superposée aux valeurs des distances de la forme moyenne Φ¯ (Fig. III.7(e)-(g))) : PMi(p) = Γi(p) · Φ¯ , pour tout i = 1..k (III.15) Les k cartes de distances sont alors moyennées dans une seule carte de distances (Fig. III.7(h)) : 70III.3 - 2 Méthode de segmentation binaire par coupes de graphe avec a priori de forme (a) Φ¯ − 3 √ λ1Φ1 (b) Φ¯ − 2 √ λ1Φ1 (c) Φ¯ − √ λ1Φ1 (d) Φ¯ (e) Φ¯ + √ λ1Φ1 (f) Φ¯ + 2√ λ1Φ1 (g) Φ¯ + 3√ λ1Φ1 Figure III.6 – Premier axe de variation donné par l’ACP, à partir de la forme moyenne (d), les déformations opposées (a)-(c) et (e)-(g). PS(p) = 1 k X k i=1 PMi(p) (III.16) Ainsi, la carte finale d’a priori PS comprend une région basée distance où le contour est censé se trouver, et sa région complémentaire remplie par des valeurs nulles. 3 - 2.2 Intégration au graphe La carte d’a priori est créée, mais comment peut-elle être intégrée à la méthode des coupes de graphe ? Dans la littérature, des termes additionnels d’énergie sont ajoutés à la fonction de coût de la méthode des coupes de graphe. Certains auteurs intègrent ces termes aux pondérations des t-links [164, 165], lorsque d’autres les combinent aux n-links [169] (voir Section 2 - 2.5 du chapitre II). Nous proposons que l’a priori de forme contribue à pondérer à la fois les 71Chapitre III. Segmentation binaire par coupes de graphe avec un modèle de forme statistique (a) H(Φ¯ ) (b) H(γ − 2 ) (c) H(γ + 2 ) (d) Γ2 (e) PM1 (f) PM2 (g) PM3 (h) PS Figure III.7 – Les différentes étapes de calcul de la carte d’a priori. (a) La forme moyenne binaire, (b)- (c) déformations extrêmes de la forme moyenne pour le second axe, (d) masque final des zones de variation pour le second axe, (e)-(g) distances à la forme moyenne pour les trois premiers axes superposées à l’image, (h) carte finale d’a priori superposée à l’image, définie par les zones colorées (plus la couleur est sombre plus la distance est importante). t-links et les n-links. Préalablement, l’a priori de forme est recalé rigidement sur l’image à segmenter à partir de deux points (voir Section 3 - 3 ). Le terme région Rp peut alors être défini par : R S p (O) =    − ln (P r(O|Ip)) si PS(p) 6= 0 +∞ si PS(p) = 0 et H(Φ¯ (p)) = 1 (Fond) 0 si PS(p) = 0 et H(Φ¯ (p)) = 0 (Objet) (III.17) R S p (B) =    − ln(1 − P r(O|Ip)) si PS(p) 6= 0 0 si PS(p) = 0 et H(Φ¯ (p)) = 1 (Fond) +∞ si PS(p) = 0 et H(Φ¯ (p)) = 0 (Objet) (III.18) 72III.3 - 3 Resultats expérimentaux avec P r(O|Ip) le modèle de probabilité a posteriori calculé à partir des intensités des pixels p de l’image selon notre a priori de forme, telles que PS(p) = 0 and H(Φ¯ (p)) = 0. L’a priori de forme que nous avons construit est basé contours et peut être ajouté en tant que terme d’a priori à la pondération des n-links. Nous proposons ainsi d’ajouter un nouveau terme frontière noté BS p,q et défini par : B S p,q = PS(p) + PS(q) 2 (III.19) L’énergie finale d’une coupe C pour le graphe intégrant un a priori de forme est alors donnée par : E(C) = λ X p,q∈N (Bp,q + γBS p,q).δ(ωp 6= ωq) + X p∈V R S p (ωp) (III.20) où Bp,q est défini à l’équation II.13, λ pondère la contribution relative entre les termes n-link et t-link et γ pondère le terme frontière d’a priori de forme BS p,q et le terme frontière classique Bp,q. La prochaine partie va permettre d’évaluer notre méthode sur la segmentation du ventricule droit en IRM cardiaques. Nous montrerons l’apport de l’a priori par rapport à la méthode classique et comparerons les résultats obtenus avec une méthode de la littérature. 3 - 3 Resultats expérimentaux 3 - 3.1 IRM cardiaques Notre méthode a été appliquée à notre base de données, issue de routine clinique et collectée au Centre Hospitalier Universitaire (CHU) de Rouen. Elle comprend 491 Images à Résonance Magnétique (IRM) petit axe, acquise sur 32 patients présentant diverses pathologies et ayant donné leur consentement écrit à leur utilisation. Pour chaque patient, deux volumes d’un total de 16 images (en moyenne) sont disponibles à deux instants d’intérêt particulier : 9 images (ou coupes) en fin de diastole ED et 7 images en fin de systole ES (instants définis au chapitre I). Les ensembles appelés Training set et Test1 sont chacun composés de 16 patients. Les images cardiaques ont été zoomées et recadrées dans une région d’intérêt de taille 256 × 216 pixels (ou 216 × 256), laissant le ventricule gauche visible sur chaque image pour permettre une segmentation jointe des deux ventricules. 73Chapitre III. Segmentation binaire par coupes de graphe avec un modèle de forme statistique La segmentation manuelle de l’endocarde et de l’épicarde des ventricules droit et gauche a été réalisée par un radiologue cardiaque, avec la convention que les muscles papillaires et les trabéculations soient inclus dans la cavité ventriculaire. Plus d’informations sur les données sont données au chapitre V, lors de la présentation du challenge MICCAI 2012 de segmentation du ventricule droit en IRM cardiaque que nous avons organisé. 3 - 3.2 Construction du modèle de forme et paramétrisation Les modèles de forme sont construits exclusivement avec la base d’apprentissage. Un modèle est créé pour chaque instant (ED ou ES), et plusieurs modèles décrivent les différents niveaux de coupe de la base à l’apex du cœur : 6 en ED, 5 en ES. Chacune de ces 11 ACP a été réalisée en utilisant entre 16 et 32 images. Puisque la taille de chaque valeur propre indique l’importance de son vecteur propre correspondant pour modéliser la forme, nous avons choisi empiriquement k pour conserver 99% des variations de la forme moyenne. Ceci correspond à 7-10 vecteurs propres selon le niveau de coupe. Le recalage préliminaire est réalisé en positionnant manuellement deux points anatomiques sur la cloison interventriculaire, ou septum (Fig. III.5). Ces points anatomiques ont été choisis à partir de deux critères, (i) une interaction utilisateur minimum, (ii) des points anatomiques facilement identifiable par un expert. Basé sur ces critères, le choix de deux points à la jonction du septum pour recaler le modèle sur les images 2D semble être cohérent. Les différents paramètres de la méthode ont été définis empiriquement à partir de l’ensemble d’apprentissage de 16 patients : le paramètre gaussien pour la modélisation des intensités a été déterminé à σ = 10 et le terme de régularisation à λ = 100, à la fois pour ED et ES. Concernant la pondération de l’a priori de forme dans le terme des n-links, il a été fixé à γ = 0.001 pour ED et γ = 0.005 pour ES. On peut remarquer que pour les coupes plus difficiles (ES), la pondération de l’a priori est un peu plus important. Ces paramètres ne sont pas critiques et possèdent des plages de réglage assez importantes permettant l’obtention de résultats similaires. L’implémentation de Boykov et Kolmogorov pour l’algorithme mincut-maxflow 1 a été utilisée pour déterminer la coupe de coût minimal pour le graphe [152]. 1. Disponible en ligne : http://pub.ist.ac.at/~vnk/software.html. 74III.3 - 3 Resultats expérimentaux 3 - 3.3 Résultats de segmentation Notre algorithme de segmentation a été appliquée à la base Test1 contenant 16 patients inconnus. Notre méthode est comparée à la méthode pionnière de segmentation par la méthode des coupes de graphe avec a priori de forme, proposé par Freedman et Zhang [169], que nous avons présentée à la Section 2 - 2.5 du chapitre II. Leur méthode consiste en l’utilisation d’un unique modèle de forme décrit par une carte de distances non-signées φ¯. Nous avons également comparé notre méthode à la méthode originale des coupes de graphe [4], afin de quantifier l’apport du terme d’a priori à la méthode. Ces deux méthodes nécessitent le placement de marqueurs objet et fond pour la modélisation des intensités de l’objet et du fond, et pour le recalage du modèle (pour la méthode de Freedman et Zhang [169]). Ces marqueurs sont également utilisés comme des contraintes dures dans le graphe. Nous avons placé en moyenne pour ces méthodes 5 marqueurs pour la cavité du VD et 10 marqueurs pour le fond (Voir Figure III.8). Les paramètres de ces méthodes ont été définis empiriquement à partir de la base d’apprentissage. Figure III.8 – Exemples de marqueurs placés par interaction utilisateur pour l’objet (vert) et le fond (rouge), utilisés pour la méthode des coupes de graphe sans a priori et la méthode de Freedman et Zhang. Concernant notre méthode, pour chaque image de chaque patient, l’utilisateur doit définir les deux points anatomiques utilisés pour recaler le modèle de forme sur l’image. Les résultats de segmentation de chaque méthode sont comparés à la vérité terrain manuelle à travers le coefficient Dice (DM) (voir Eq. III.10) et la distance perpendiculaire moyenne (P2C) (voir Eq. III.11). Le tableau III.2 présente les résultats obtenus : notre méthode permet d’obtenir un bon score de recouvrement de 0.83 ± 0.15 en ED et 0.70 ± 0.22 en ES, avec une distance 75Chapitre III. Segmentation binaire par coupes de graphe avec un modèle de forme statistique perpendiculaire moyenne de 2 à 3 mm (ED et ES). On peut remarquer que seules les dernières coupes apicales posent des difficultés de segmentation et font légèrement chuter les résultats. Des exemples de segmentation sont présentés à la figure III.9. Tableau III.2 – Moyenne (± écart type) du coefficient Dice (DM) et de la distance perpendiculaire (P2C, en mm) entre la segmentation automatique et le contourage manuel du contour de l’endocarde du VD en ED et ES de la base (B) à l’apex (A) du cœur sur 16 patients. Notre méthode Méthode Freedman [169] Coupes de graphe originale [4] Dice P2C (mm) Dice P2C (mm) Dice P2C (mm) B 0.91 ± 0.09 2.25 ± 1.86 0.87 ± 0.12 4.37 ± 4.12 0.86 ± 0.12 10.99 ± 6.78 0.90 ± 0.10 2.31 ± 1.76 0.90 ± 0.09 3.80 ± 3.49 0.88 ± 0.09 10.34 ± 8.12 0.88 ± 0.12 2.11 ± 1.80 0.80 ± 0.18 7.55 ± 7.34 0.77 ± 0.19 15.29 ± 10.61 E 0.83 ± 0.10 2.55 ± 1.28 0.75 ± 0.19 9.87 ± 9.48 0.71 ± 0.20 20.01 ± 12.40 D 0.81 ± 0.12 2.39 ± 1.39 0.66 ± 0.23 12.73 ± 11.26 0.61 ± 0.24 23.62 ± 13.54 A 0.70 ± 0.18 2.27 ± 1.35 0.56 ± 0.21 12.24 ± 11.14 0.48 ± 0.22 29.62 ± 14.29 Mean 0.83 ± 0.15 2.32 ± 1.57 0.74 ± 0.22 8.77 ± 9.37 0.70 ± 0.24 19.22 ± 13.67 B 0.84 ± 0.14 2.89 ± 2.46 0.83 ± 0.12 7.12 ± 6.68 0.83 ± 0.08 16.97 ± 9.84 0.82 ± 0.15 2.85 ± 1.67 0.75 ± 0.17 9.06 ± 8.24 0.74 ± 0.21 16.47 ± 9.77 0.73 ± 0.19 3.59 ± 1.98 0.65 ± 0.24 9.67 ± 9.60 0.64 ± 0.23 18.07 ± 11.62 E 0.66 ± 0.19 2.96 ± 1.28 0.56 ± 0.21 11.62 ± 10.01 0.50 ± 0.21 23.59 ± 13.20 S A 0.52 ± 0.21 2.86 ± 1.57 0.39 ± 0.22 19.30 ± 18.79 0.40 ± 0.16 32.30 ± 16.43 Mean 0.70 ± 0.22 3.05 ± 1.82 0.61 ± 0.25 12.00 ± 12.98 0.60 ± 0.24 22.26 ± 14.28 Les valeurs en gras indiquent les meilleurs résultats entre les méthodes. Une segmentation précise est obtenue lorsqu’est atteint la variabilité intra et inter-opérateur de la segmentation manuelle, qui est de l’ordre de 2mm pour le VD [115]. Notre méthode donne des résultats encourageants se comparant favorablement à une méthode de l’état de l’art et surpasse sans surprise l’approche originale sans a priori. Notre méthode fournit également de meilleurs résultats que la méthode de Freedman et Zhang, en particulier sur les images apicales, qui sont plus difficiles à segmenter (voir Figure III.9) : elles présentent de petites structures, qui sont souvent floues (dues à l’effet de volume partiel). Le modèle a priori de Freedman et Zhang semble ne pas être assez précis pour ce type d’application. Concernant les coupes basales, les résultats sont comparables entre notre méthode et celle de Freedman et Zhang, au prix d’une interaction substantielle de l’utilisateur pour la méthode de Freedman et Zhang. Sans surprise, les résultats de segmentation sont meilleurs pour les images ED que pour celles en ES, pour les trois méthodes : les images ED sont les plus faciles à traiter, puisque le cœur y est le plus dilaté. Les résultats sont également meilleurs pour les coupes basales et mi-ventriculaires que pour les coupes apicales. Un mauvais résultat de segmentation sur les coupes apicales a peu d’influence sur le calcul du volume du cœur, mais peut être un facteur li- 76III.3 - 4 Conclusion mitant dans d’autres domaines tels que des études sur la structure des fibres. Dans une moindre mesure, cela est également vrai pour les images ES. Enfin, en ce qui concerne le temps de calcul, notre algorithme est implémenté en C++ sans aucune optimisation particulière et nécessite environ 45 secondes par patient (comprenant les volumes ED et ES) sur un ordinateur portable Dell E6510 avec 4Go de RAM et un processeur Intel(R) Core(TM) i7, M460 @ 2.80GHz. Ce temps de calcul est compatible avec une utilisation en routine clinique. 3 - 4 Conclusion Dans cette partie, nous avons présenté une méthode de segmentation du ventricule droit basée sur la méthode des coupes de graphe utilisant un a priori de forme. Le modèle de forme est construit à partir d’une ACP pour un ensemble de formes représentatives du VD obtenues par une segmentation manuelle. Un terme original d’a priori est introduit dans la fonctionnelle d’énergie de la méthode des coupes de graphe. Notre méthode de segmentation a été validée sur 491 images provenant de 32 patients. Nous avons montré que notre méthode surpasse l’approche originale de la méthode des coupes de graphe et se compare favorablement à une méthode de l’état de l’art. Néanmoins, il est à noter que bien que les résultats soient satisfaisant pour les coupes basales et mi-ventriculaires, des améliorations sont possibles pour les coupes apicales. Ainsi, plusieurs points peuvent être améliorées pour cette méthode : (i) La segmentation multi-objets. Sur les coupes petit-axe, le VD et le VG sont tous les deux visibles. De plus, le VG étant plus aisé à segmenter, il peut être utilisé pour aider la segmentation du VD. Une segmentation conjointe des deux ventricules permettrait ainsi de faciliter la segmentation. (ii) La précision du modèle. Afin d’améliorer la segmentation pour les coupes apicales, le modèle doit être plus précis et coller au mieux à l’image considérée. Contrairement à l’ACP donnant les variations générales des formes, l’utilisation des atlas peut être envisagée afin d’augmenter la spécificité de l’a priori de forme. (iii) L’automatisation de la méthode. Le recalage du modèle à partir de deux points facilement identifiables est aisé et rapide mais nécessite l’intervention de l’expert pour chaque coupe de chaque volume. Automatiser la méthode donnerait un avantage supplémentaire. Dans ce but, une étape de recalage automatique pourrait être mis en place. 77Chapitre III. Segmentation binaire par coupes de graphe avec un modèle de forme statistique Nous proposons ainsi dans la section suivante une approche répondant à ces perspectives pour la segmentation conjointe du VD (endocarde) et VG (endocarde et épicarde) par une méthode automatique de segmentation multi-objets intégrant un a priori de forme basé sur des atlas. 78III.3 - 4 Conclusion Notre méthode Méthode de Freedman et Zhang [169] Méthode originale des coupes de graphe [4] Figure III.9 – Résultats de segmentation obtenue par l’algorithme automatique (vert) et vérité terrain manuelle (rouge) pour le patient 20 de Test1 en ED (de la base à l’apex). En haut : notre méthode, au milieu : méthode de Freedman et Zhang [169], en bas : méthode originale des coupes de graphe [4]. 79Chapitre III. Segmentation binaire par coupes de graphe avec un modèle de forme statistique 80Chapitre IV Segmentation par GC multi-labels intégrant des a priori de forme Nous avons proposé au chapitre précédent une méthode semi-automatique de segmentation du VD par GC utilisant un modèle de forme construit à partir d’une ACP. Notre but est d’améliorer cette méthode afin de (i) la rendre automatique, (ii) permettre la segmentation conjointe du VD, du VG et du myocarde, (iii) améliorer la précision du modèle. Nous proposons ainsi une méthode de segmentation multi-objets automatique et non itérative basée sur les GC multi-labels intégrant un a priori de forme basé sur des atlas. En effet, sachant que le VG et le VD sont proches, que leurs contours présentent un contraste faible et peuvent être bruités, une segmentation du VD peut déborder vers le VG (et vice-versa). L’intégration d’un modèle de l’ensemble de ces objets à la méthode de segmentation permet de résoudre ce problème. Plus précisément, nous supposons que nous disposons d’un ensemble d’images labellisées par un expert, appelé aussi un ensemble d’atlas. Les atlas sont recalés sur l’image à segmenter [188] et combinés afin de construire un modèle probabiliste de forme à 4 labels (VG, VD, myocarde et fond). Nous proposons comme contribution principale d’intégrer ce modèle à la méthode des coupes de graphe multi-labels afin de réaliser la segmentation du VD, du VG et du myocarde de manière totalement automatique. Nous proposons une méthode non-itérative afin de limiter les coûts de calcul, contrairement à ce qui a pu être proposé dans la littérature [168]. Nous présentons dans une première partie la méthode dans sa globalité (section 4 - 1 ). Une deuxième partie (section 4 - 2 ) porte sur les spécificités de la méthode pour la segmentation conjointe des ventricules cardiaques et l’étude des résultats obtenus. 81Chapitre IV. Segmentation par GC multi-labels intégrant des a priori de forme 4 - 1 Segmentation avec atlas multi-labels Trois étapes composent notre méthode : (i) le recalage des atlas sur l’image à segmenter, (ii) la fusion des atlas afin de créer un modèle de forme probabiliste multi-labels, (iii) la segmentation multi-objets par GC intégrant ce modèle. 4 - 1.1 Recalage des atlas par coupes de graphe Différentes méthodes ont été proposées afin de réaliser le recalage non-rigide d’un ensemble d’atlas [189–191]. L’utilisation de la méthode des GC a l’avantage de permettre de minimiser efficacement une fonctionnelle d’énergie et d’obtenir un minimum global, ou un minimum local fort, en un temps polynomial. Cette technique récente n’a cependant pas encore été très étudiée dans la littérature [137–139, 141]. Nous présentons dans cette partie le recalage d’un ensemble d’atlas par la méthode des GC. Le recalage des atlas est une étape nécessaire à la création d’un a priori de forme pour l’image à segmenter, afin de les considérer dans le même repère. Cette tâche peut être ardue pour de nombreuses raisons : fortes variabilités des objets de l’image, différences d’illumination, contraste faible, etc. Afin de minimiser les causes d’erreur, deux recalages successifs ont été mis en place : un recalage rigide d’abord, permettant de déterminer les paramètres de translation et de rotation à appliquer afin de superposer au mieux l’atlas sur l’image à segmenter. Dans cette étape, les transformations réalisées sur l’atlas n’entraînent pas de déformation structurelle des objets. Un recalage non-rigide est ensuite effectué, permettant cette fois des déformations élastiques, afin de faire coller au mieux l’atlas et l’image à segmenter. Notons I l’image à segmenter, dont le domaine spatial est noté Ω ∈ IR2 , et dont les objets à segmenter sont représentés par un ensemble de labels L. Soit N le nombre d’atlas représentatifs, chacun étant composé d’une image d’intensité A[1..N] et d’une carte de labels L[1..N] , tel que A = {(A1; L1), . . . ,(AN ; LN )}. Nous allons tout d’abord réaliser un recalage rigide de l’ensemble des atlas A sur I. Recalage rigide : Le recalage rigide peut se voir comme le problème de minimisation suivant : T ∗ = arg min T C(I, AT) (IV.1) où le but est de rechercher la transformation optimale T∗ telle que l’image de référence I et l’image flottante A se superposent au mieux, selon la mesure de similarité C déterminant le degré de similarité entre I et AT, AT étant l’image flottante transformée. Dans le cadre du 82IV.4 - 1 Segmentation avec atlas multi-labels recalage rigide, le champ de transformation T est restreint aux paramètres de translation et de rotation T = {Tx, Ty, Tθ} : la transformation est paramétrique. Nous avons choisi d’utiliser une mesure de similarité classique et très rapide à calculer : la somme des différences absolues d’intensités (SAD). Pour chaque point spatial x = (x, y) ∈ Ω, I(x) et A(x) sont les valeurs des intensités en x pour chaque image. La recherche de la transformation rigide optimale est alors donnée par : T ∗ = arg min T Z Ω kI(x) − A T(x)kdΩ (IV.2) Cette minimisation a été réalisée de manière exhaustive, en force brute, étant très rapide à calculer. Les transformations optimales T ∗ obtenues sont appliquées aux images d’intensités et aux cartes de labels des atlas, que nous continuerons de noter A = {(A1; L1), . . . ,(AN ; LN )} après ce recalage par soucis de simplicité. Il est alors possible de réaliser le recalage non-rigide. Recalage non rigide : Dans le cas où les déformations peuvent être complexes, par exemple avec des structures anatomiques variant fortement en géométrie ou en topologie, la transformation doit être flexible et donc non paramétrique. Cette transformation est alors un champ de vecteurs de déplacement, noté D, permettant de déplacer tout point x ∈ Ω de sa position originale à un nouveau point x + D(x) ∈ Ω par le vecteur D(x) ∈ IR2 . Il est dans ce cas nécessaire d’ajouter un terme de régularisation à l’équation IV.1, afin de prendre en compte la corrélation entre les pixels voisins et de permettre une déformation lisse : D∗ = arg min D C(I, AD) + λrS(D) (IV.3) avec C la mesure de similarité, AD l’image flottante après application de D à A et λr une constante positive contrôlant le terme de régularisation S. Outre le choix des transformations considérées, il est nécessaire de choisir un critère de similarité. Dans le cas du recalage monomodal dans lequel nous nous situons, les critères classiques sont l’erreur absolue ou norme L 1 (SAD), l’erreur quadratique ou norme L 2 (SSD) et l’information mutuelle. Ce critère doit être choisi en fonction de l’application et sera déterminé à la Section 4 - 2 . Le terme de régularisation S est défini classiquement par l’amplitude de la dérivée première [137]. L’équation IV.3 peut se réécrire sous la forme : D∗ = arg min D Z Ω C  I(x), AD(x)  dX + λr Z Ω kD(x)k dΩ (IV.4) En théorie, cette équation peut être minimisée par n’importe quel outil d’optimisation. Les deux méthodes principales considérées comme état de l’art dans l’analyse d’images médicales 83Chapitre IV. Segmentation par GC multi-labels intégrant des a priori de forme sont la méthode Free-Form Deformations (FFD) [189] et la méthode Demons (DEMONS) [190]. Dans le cas de la FFD, un ensemble de points de contrôle sur une grille régulière de l’image est autorisé à se déplacer librement, le déplacement des autre points étant obtenu par des fonctions d’interpolation basées sur les B-splines et les points de contrôle voisins. Cependant, dans le cas de déformations complexes, cette transformation peut ne pas être assez flexible [137]. Pour la méthode DEMONS, une approche basée sur la diffusion est proposée, sans aucune contrainte sur la transformation D : chaque pixel peut avoir son propre déplacement, défini à chaque itération à partir de différences d’intensité et de gradient entre l’image source et l’image à transformer. Une étape de régularisation (lissage Gaussien) est appliquée à la fin de chaque itération. Cette dernière n’étant pas intégrée à la fonctionnelle d’énergie, les déplacements importants ou aigus ne sont pas pénalisés. De plus, cette méthode est sensible aux artéfacts d’acquisition [137]. Dans notre cas de transformation non paramétrique, le processus d’optimisation peut être très coû- teux en temps de calculs, notamment en cas d’utilisation de méthodes itératives. L’utilisation de la méthode des coupes de graphe permet de minimiser efficacement et non itérativement l’équation IV.4 [137], et de ce fait réduire le temps de calcul. Elle permet l’obtention d’un minimum global, ou d’un minimum local fort, en un temps polynomial, sous certaines conditions : la restriction de D(x) ∈ IR à un ensemble fini. Une fenêtre discrète W = {0, ±s, ±2s, . . . , ±ws} 2 en 2D est ainsi choisie (généralement ws = 8 pixels) telle que D(x) ∈ W. Il est à noter que si s < 1, des déplacements avec interpolation seront à considérer. Cette discrétisation permet d’assigner une valeur à tout D(x). Ainsi, l’équation IV.4 peut être résolue en utilisant la méthode des coupes de graphe par des séquences d’expansion alpha (α-expansion) [146] et converge vers un minimum local garanti à un facteur près du minimum global. Kolmogorov et Zabih [147] ont montré que la méthode des coupes de graphe permettait de déterminer le minimum global d’un problème deux labels si les termes de somme de coûts Vp,q respectent l’inégalité suivante (plus de détails sur cette condition à la section 2 - 2.3 ) : Vp,q(0, 0) + Vp,q(1, 1) ≤ Vp,q(0, 1) + Vp,q(1, 0) (IV.5) Considérons une labellisation f et deux pixels adjacents p, q avec fp = β et fq = γ et β, γ ∈ W. En cas d’expansion d’un nouveau label α ∈ W, les différents coûts possibles de Vp,q sont les suivants [137] : – Vp,q(0, 0) = kβ − γk si p et q conservent leurs anciens labels β et γ. – Vp,q(1, 1) = kα − αk = 0 si p et q choisissent le nouveau label α. – Vp,q(0, 1) = kβ − αk si p conserve β et q choisit α. – Vp,q(1, 0) = kα − γk si p choisit α et q conserve γ. 84IV.4 - 1 Segmentation avec atlas multi-labels En considérant le terme de régularisation correspondant à Vp,q de l’équation IV.4, on a α, β, γ ∈ W ⊂ IR2 et k.k l’opérateur de norme L2. Par l’inégalité triangulaire et pour tout vecteur α, β, γ nous avons kβ − γk ≤ kβ − αk + kα − γk. L’inégalité de l’équation IV.5 est ainsi vérifiée et chaque expansion α donne ainsi un optimum global. Dans ces conditions, Boykov et al. [146] ont prouvé que l’algorithme α-expansion, composé de plusieurs séquences d’expansion α pour tout α ∈ W, converge vers un minimum local garanti à un facteur près du minimum global (voir équation II.20, chapitre II). A la suite de ce recalage non rigide, nous obtenons un ensemble de N champs de vecteurs de déplacement D∗ 1..N. Ces champs sont appliqués aux images d’intensités et aux cartes de labels, pour donner les atlas recalés notés AD = {(AD 1 ; L D 1 ), . . . ,(AD N ; L D N )}. Ces atlas sont fusionnés dans une seconde étape afin de créer un a priori de forme permettant de guider la segmentation finale. 4 - 1.2 Création du modèle de forme Chaque atlas recalé (AD i (x);L D i (x)) a une opinion sur le label de chaque pixel x. Notre but est de pondérer et de combiner toutes les décisions des atlas afin de créer une carte statistique d’a priori, la pondération dépendant de la similarité entre l’intensité du pixel source I(x) et celui de l’atlas AD i (x). Dans la littérature, le vote à la majorité est généralement utilisé pour fusionner les atlas, mais d’autres méthodes ont également été proposées [192–195]. Nous avons choisi de déterminer le poids de fusion pour un label l et un pixel de coordonnées x par : P(L(x) = l|L D i (x + ∆x), I(x), AD i (x + ∆x)) = 1 1 + D(∆x) . 1 √ 2πσi exp − (I(x)−AD i (x+∆x))2 2σ2 i .δl,LD i (x+∆x) (IV.6) avec x+∆x les coordonnées des pixels voisins au pixel considéré, D(∆x) la distance euclidienne du pixel voisin au pixel considéré, σi le paramètre pour la distribution gaussienne et δl1,l2 la fonction delta Kronecker. ∆x est défini par une région de recherche S centrée en x. Cette fusion permet de compenser d’éventuelles erreurs de régularité dans le recalage en considérant le voisinage de x. La fusion des labels des atlas consiste généralement à déterminer le label estimé L¯ à un pixel de coordonnées x comme étant le label de poids maximum : L¯(x) = arg max l X |L| i=1 X ∆x∈S P(L(x) = l|L D i (x + ∆x), I(x), AD i (x + ∆x)) (IV.7) 85Chapitre IV. Segmentation par GC multi-labels intégrant des a priori de forme Dans notre cas, il ne s’agit pas de prendre une décision du label final à cette étape, mais de définir une carte d’a priori de forme pour chaque label, utilisable par notre prochaine étape de segmentation. Dans ce but, une étape de normalisation de l’équation IV.6 est nécessaire afin que la somme des scores des labels pour un pixel x soit égale à 1. Notre carte d’a priori Cl(x) pour chaque label l ∈ L est définie par : Cl(x) = P ∆x∈S P(L(x) = l|L D i (x + ∆x), I(x), AD i (x + ∆x)) P|L| i=1 P ∆x∈S P(L(x) = l|L D i (x + ∆x), I(x), AD i (x + ∆x)) (IV.8) Cet a priori de forme Cl(x) est intégré à la méthode de segmentation dans la section suivante. 4 - 1.3 Segmentation multi-labels par coupes de graphe La segmentation proprement dite est réalisée à l’aide de la méthode des coupes de graphe multi-labels, à laquelle l’a priori de forme est intégré. Nous rappelons que l’image I est considé- rée comme un graphe, dont l’ensemble des nœuds (pixels) est noté P et l’ensemble des segments ε. Les nœuds (p, q) dans un voisinage N sont connectés par un segment appelé n-link. Chaque nœud est également connecté à un nœud terminal par un segment appelé t-link. Les nœuds terminaux sont les labels l ∈ L représentant les objets. Nous noterons dans la suite fp le label du nœud p. Nos contributions portent sur (i) l’intégration d’un terme d’a priori de forme aux t-links, (ii) l’ajout d’une contrainte aux n-links empêchant un objet inclus dans un autre d’avoir une frontière commune avec tout autre objet, dans une méthode totalement automatique. Nous ajoutons à la formulation de l’énergie de coupe des GC un terme d’a priori Es dé- pendant de nos cartes Cl pour chaque label l, afin de guider le processus de segmentation. Comme deux valeurs adjacentes de la carte d’a priori Cl(p) et Cl(q) (avec p, q ∈ N) pour un label l donné peuvent être différentes, l’hypothèse de sous-modularité ne peut être vérifiée en cas d’ajout aux n-links [147]. Le terme Es est alors ajouté aux t-links : E(f) = X p∈P ( Dp(fp) | {z } Attache aux données +γs Esp (fp) | {z } Attache à l’a priori ) + λs X (p,q)∈N Vp,q(fp, fq) | {z } Régularisation (IV.9) avec γs la pondération de l’a priori Esp (fp) par rapport au terme d’attache aux données Dp(fp), et λs la pondération du terme de régularisation. Définissons d’abord les termes associés aux t-links. Dans la littérature, le terme d’attache aux données Dp(fp) est classiquement défini à partir de modèles de niveaux de gris des objets, obtenus à partir d’une interaction avec l’utilisateur, permettant de définir P r(I(p)|l), la probabilité que l’intensité I(p) du pixel p appartienne au label l. Afin de rendre la méthode 86IV.4 - 1 Segmentation avec atlas multi-labels totalement automatique, nous proposons la création automatique de germes en utilisant l’ensemble des atlas recalés : si pour un pixel p, tous les atlas L D i (p) ont la même opinion de label l, i.e. Cfp=l(p) = 1, alors l’intensité I(p) est utilisée pour modéliser l’objet de label l en utilisant une modélisation gaussienne. Si un objet n’a pu être modélisé (les atlas n’ont jamais eu la même opinion pour un label), les pixels de plus haute opinion selon les atlas sont sélectionnés, à partir d’un seuil s (initialement, s = 1). Le terme d’attache aux données est alors défini par : Dp(fp) = − ln P r(I(p)|Cfp (p) ≥ s) (IV.10) Notre terme d’a priori de forme Esp (fp) pondère également les t-links. Il est défini à partir de la carte d’a priori Cfp (p) calculée précédemment : Esp (fp) = − ln Cfp (p) (IV.11) Esp (fp) peut prendre des valeurs dans IR+ . Une valeur faible de Esp (fp) signifie un coût faible de labellisation du pixel p par le label fp. Le terme pondérant les n-links, i.e. le terme de régularisation Vp,q(fp, fq), doit être sousmodulaire afin de permettre la minimisation de l’équation (IV.9) par la méthode des coupes de graphe. Nous souhaitons introduire une contrainte spatiale sur les objets : dans le cas où un objet de label 0 est inclus dans un autre objet de label 1, alors pour tout objet de label l (l 6= 0 et l 6= 1), il n’existe pas de frontière commune entre l’objet 0 et l’objet l. Le coût de coupe entre fp = 0 et fp = l doit alors être maximum. Cette contrainte concernant l’inclusion d’un objet dans un autre peut être introduite grâce au terme de régularisation Vp,q, et doit donc être sous-modulaire, i.e. vérifier l’inégalité IV.5. Ainsi, nous proposons l’énergie suivante : Vp,q(fp, fq) =    0 si fp = fq Γp,q(fp, fq) si fp 6= fq (IV.12) avec Γp,q(fp, fq) ∈ R+ l’opérateur de pénalisation frontière. Si les objets de labels fp et fq peuvent avoir une frontière commune, la pénalisation doit être minimale : notons Γp,q(fp, fq) = κ cette valeur minimum possible. Concernant sa valeur maximale, en reprenant l’inégalité de l’équation (IV.5) pour l’expansion d’un nouveau label α sur deux nœuds voisins p et q de labels courants β et γ, les différents coûts possibles de Vp,q sont les suivants : – Vp,q(0, 0) = Γp,q(β, γ) si p et q conservent leurs anciens labels β et γ. – Vp,q(1, 1) = 0 si p et q choisissent le nouveau label α. 87Chapitre IV. Segmentation par GC multi-labels intégrant des a priori de forme – Vp,q(0, 1) = Γp,q(β, α) si p conserve β et q choisit α. – Vp,q(1, 0) = Γp,q(α, γ) si p choisit α et q conserve γ. On obtient alors la condition suivante : Γp,q(β, γ) ≤ Γp,q(β, α) + Γp,q(α, γ) (IV.13) Or, sachant que : min (Γp,q(β, α) + Γp,q(α, γ)) = 2κ (IV.14) la valeur maximum que peut prendre Γp,q(fp, fq) pour respecter l’inégalité de l’équation IV.13 vaut : max Γp,q(β, γ) = 2κ (IV.15) On a finalement : Γp,q(fp, fq) =    κ si fp et fq peuvent avoir une frontière commune 2κ sinon (IV.16) Dans ce cas, l’algorithme α-expansion peut être utilisé pour minimiser la fonctionnelle d’énergie de l’équation IV.9. L’algorithme converge alors vers un minimum local garanti à un facteur près du minimum global [147], fournissant la segmentation finale. 4 - 2 Résultats expérimentaux Notre méthode a été appliquée à notre base de données (qui a été utilisée lors de la compétition MICCAI 2012 de segmentation du ventricule droit en IRM cardiaque), afin de réaliser la segmentation conjointe du VD, du VG et du myocarde. Elle est composée d’une base d’apprentissage de 16 patients et de deux bases de test (Test1 et Test2) composées chacune de 16 patients. Plus de détails sur cette base sont donnés au chapitre V. Sur cette base publique dédiée au VD, mais où le VG est visible sur chaque image afin de permettre une segmentation conjointe des deux ventricules, les contours endocardique et épicardique du VG ont été tracés par un radiologue cardiaque. 4 - 2.1 Sélection automatique d’une région d’intérêt La sélection d’une région d’intérêt (ROI) consiste à déterminer la zone de l’image où se situent les objets à considérer (dans notre cas les ventricules), tout en éliminant les zones 88IV.4 - 2 Résultats expérimentaux superflues (voir Figure IV.1). La méthode utilisée est basée sur le travail de Cocosco et al. [196]. Elle repose sur les hypothèses suivantes : – Les intensités des voxels aux frontières du myocarde ont une grande variabilité temporelle (dans le cas de protocoles récents, IRM cardiaques structurelles 3D + temps). Celle-ci est causée par le mouvement dû aux battements du cœur et au contraste élevé entre le myocarde et le sang (ou possible graisse épicardique). – Le cœur a une forme allongée et son grand axe est proche de l’axe Z de l’image (hypothèse valide pour une séquence petit-axe correctement acquise). – Après une projection des intensités maximales selon l’axe Z de l’image, le cœur correspond au regroupement de voxels de plus grande variabilité temporelle des intensités pour le plan petit-axe. – Dans le plan petit-axe, le contour du cœur est globalement une forme convexe. Les différentes étapes de la méthode proposée par les auteurs sont les suivantes, à partir d’une séquence 3D + temps : (i) Calcul de l’écart type des intensités (autrement dit la variabilité) pour chaque voxel suivant la dimension temporelle. Le résultat est un volume 3D. (ii) Calcul de la projection d’intensité maximale selon l’axe Z du volume 3D, afin d’ajouter la variabilité selon les plans petit-axe et donc d’augmenter la robustesse de la méthode. Le résultat est une image 2D. (iii) Flouter le résultat précédent par un noyau large (Gaussien, FWHM=16mm), ce qui permet d’éliminer les éléments de petite taille et de réduire l’influence des artefacts. La valeur FWHM est liée à la taille d’un cœur adulte, et les auteur ont vérifié visuellement la robustesse des résultats aux variations de ce paramètre (iv) Binariser deux fois le résultat précédent par la méthode d’Otsu [197] : une première fois sur le quart supérieur de l’échelle des intensités, une seconde fois sur le résultat obtenu. La méthode d’Otsu est rapide, robuste et ne dépend d’aucun paramètre. Dans un but de robustesse contre les valeurs aberrantes et les erreurs d’arrondi, cette segmentation ne considère que les voxels dans le percentile 0.5 . . . 99.5% de l’histogramme des intensités de l’image. Ces valeurs sont liées au rapport entre le volume physique du cœur et le champ de vision, et sont appropriées pour cette application, i.e. ne nécessite aucun réglage. Cette étape sélectionne ainsi les emplacements de forte variabilité temporelle des intensités. (v) Réaliser une séquence d’opérations morphologiques basiques avec un noyau de connexité 4 : (5a) dilater ’A’ fois afin de connecter les différentes parties du cœur ensemble, sans pour autant lier les autres organes, (5b) identifier et conserver la composante connexe la 89Chapitre IV. Segmentation par GC multi-labels intégrant des a priori de forme plus grande, (5c) dilater ’C’ fois afin de définir la taille finale de la région d’intérêt et permettre de régler la sensibilité de la méthode. (vi) Calculer l’enveloppe convexe du résultat binaire précédent, afin d’augmenter la robustesse dans le cas où certaines parties du myocarde présentent des contractions réduites (et donc moins de variabilité temporelle des intensités) en raison d’une maladie cardiaque. Le résultat obtenu est la région d’intérêt finale. La région d’intérêt obtenue est valable pour chaque coupe et chaque instant de la séquence d’IRM. Les auteurs ont prouvé à travers 79 patients que cette méthode était très sensible (pas de faux négatifs, tout le myocarde est inclus dans la région d’intérêt), avec une faible spécificité (une région d’intérêt plus importante que nécessaire a été observée sur 5 patients), ce qui est acceptable pour l’application visée. Cependant, cette méthode propose la même région d’intérêt à la base et à l’apex du cœur alors que la difficulté principale de cette application est la segmentation des coupes apicales, où la région d’intérêt sera alors trop grande. C’est pourquoi nous avons modifié cette méthode afin de créer une région d’intérêt adaptée à chaque niveau de coupe de la séquence. L’étape (i) reste identique, puis les étapes (ii), (iii), (iv), (v) et (vi) sont répétées pour chaque niveau de coupe avec la modification de l’étape (ii) de la manière suivante : (ii) Calcul de la projection d’intensité maximale selon l’axe Z du volume 3D pour tous les niveaux de coupe inférieurs ou égaux au niveau de coupe considéré, afin d’ajouter la variabilité des coupes inférieurs selon les plans petit-axe et donc d’augmenter la robustesse de la méthode. Notre variation de la méthode proposée par Cocosco et al. [196], a été vérifiée visuellement sur les 48 patients des 3 bases de données. Les deux paramètres de la méthode, ’A’ et ’C’, sont ceux déterminés originellement en [196] : A = 10 mm/R et C = 15 mm/R, avec R la taille d’un pixel en mm. Comme soulignés par les auteurs, ces valeurs se sont avérées appropriées pour des cœurs adultes de dimension classique. Il en résulte une spécificité faible, la région d’intérêt pouvant être plus ou moins éloignée des frontières des ventricules, mais surtout une sensibilité forte, caractéristique nécessaire à notre application : aucun faux négatif n’est à déplorer sur l’ensemble des bases, le myocarde est toujours inclus dans la région d’intérêt. La définition d’une région d’intérêt dépendant du niveau de coupe permet d’obtenir des résultats plus cohérents à l’apex du cœur par rapport à la méthode originale, comme le montre la figure IV.1. 90IV.4 - 2 Résultats expérimentaux Notre méthode Méthode originale [196] Figure IV.1 – Région d’intérêt obtenue pour le patient 14 de la base d’apprentissage en fin de diastole ED (de la base à l’apex). En haut : notre méthode, en bas : la méthode originale de Cocosco et al. [196]. 4 - 2.2 Base d’atlas et sélection La base d’atlas est formée à partir de l’intégralité de la base d’apprentissage, soit 16 patients (243 images), 16 volumes ED (134 images) et 16 volumes ES (109 images). Pour des raisons évidentes de coûts de calcul, il n’est pas possible de recaler l’intégralité de la base des 91Chapitre IV. Segmentation par GC multi-labels intégrant des a priori de forme atlas sur l’image à segmenter. Ainsi, avant l’étape de recalage rigide, une première sélection est réalisée. Pour chaque volume des atlas, les 3 coupes les plus proches de la coupe à segmenter sont choisies : coupe inférieure, équivalente et supérieure selon l’axe Z. Cette valeur de 3 est justifiée par la distance entre chaque coupe (8.4 mm) et les fortes variations induites entre deux coupes successives. L’étape de recalage rigide étant très rapide, ce maximum de 48 atlas à recaler ne pose aucune difficulté. Au contraire, le recalage non-rigide de 48 atlas serait beaucoup trop coûteux pour pouvoir être envisagé. Ainsi, une deuxième sélection est réalisée en sortie du recalage rigide, en ne conservant que les N atlas donnant l’énergie minimum à l’équation IV.2. De plus, sachant que les coupes à l’apex du cœur sont plus difficiles à segmenter que celles à la base du cœur, il peut être intéressant d’utiliser le résultat de la coupe précédente pour guider la segmentation de la coupe courante. Notre algorithme automatique débute par la segmentation de la coupe la plus basale du cœur. Les coupes suivantes jusqu’à l’apex sont alors traitées automatiquement par notre algorithme en utilisant la coupe précédemment segmentée (après recalage sur l’image courante). 4 - 2.3 Paramétrisation et implémentation de la méthode Les différents paramètres de notre méthode ont été définis empiriquement à partir de la base d’apprentissage selon une stratégie leave-one-out. Concernant le recalage non-rigide, le critère de similarité le plus adapté à cette application a été sélectionné en comparant trois critères : la somme des différences absolues des intensités (SAD) [137, 138], la somme des différences des intensités au carré (SSD), et un critère que nous proposons basé sur une combinaison du SAD et de la différence absolue du gradient. Le critère d’information mutuelle n’a pas été testée pour deux raisons : (i) l’information mutuelle est un critère global sur l’image, alors que nous avons besoin d’une estimation locale pour créer le graphe. Les travaux de So et Chung [139] permettent d’estimer l’information mutuelle locale, mais nécessite cependant le réglage de plusieurs paramètres supplémentaires ; (ii) le coût de calcul de l’information mutuelle est trop important pour notre application. Nous avons vérifié empiriquement que les meilleurs recalages étaient obtenus pour le critère combinant SAD et différence absolue de gradient. La Figure IV.2 présente un exemple d’amélioration de ce critère. On remarque que sur l’image I se trouve une zone extérieure au ventricule droit ayant des intensités similaires à l’objet. Cette zone n’existe pas sur l’atlas présenté sur la Figure. Avec le critère SAD, on remarque qu’une partie de cette zone est incorporée au ventricule droit. A l’inverse, grâce à la pénalisation par le gradient, cette zone est totalement séparée du ventricule. 92IV.4 - 2 Résultats expérimentaux I A′ Ii AD∗ Ii (avec gradient) AD∗ Ii (SAD) Figure IV.2 – Comparaison du recalage non-rigide pour deux critères de similarité. De gauche à droite : l’image à segmenter I, l’atlas recalé rigidement, l’atlas recalé non rigidement par notre critère de similarité prenant en compte le gradient, l’atlas recalé non rigidement par le critère SAD. L’amélioration du recalage en utilisant le gradient au critère de similarité est illustrée dans la zone rouge. Le tableau IV.1 présente les valeurs obtenues empiriquement pour les différents paramètres de la méthode. Afin de tenir compte des spécificités de segmentation à la base et à l’apex du cœur, ainsi qu’en ED et ES, des paramètres différents ont été étudiés pour chacun des cas dans la phase de segmentation. Leurs choix ont été déterminés lors de cette étude. La majorité des paramètres présente des plages de réglage assez larges n’entrainant que peu de variations dans les résultats. Ainsi, dans le cas de la segmentation par exemple, il est possible d’augmenter l’influence de l’a priori de forme γs en augmentant la régularisation λs (et inversement). Les couples de paramètres présentant les meilleurs résultats sur la base d’apprentissage ont été sélectionnés, et on remarque en ED la nécessité d’une régularisation plus faible à l’apex permettant un poids plus important à l’a priori de forme. Deux paramètres 93Chapitre IV. Segmentation par GC multi-labels intégrant des a priori de forme Tableau IV.1 – Paramétrisation empirique de la méthode à partir de la base d’apprentissage. La segmentation des coupes basales est notée .s1 , la segmentation des coupes apicales .s2 Etape Notation Type Valeur Recalage non-rigide ws Taille fenêtre discrète 8 Equation IV.4 N Nombre d’atlas sélectionnés 3 λr Pondération de la régularisation 20 Création du modèle ∆x Voisinage considéré ±4 Equation IV.6 σi Distribution gaussienne 65 Segmentation ED λs1 Régularisation 0.5 Equation IV.9 λs2 0.2 γs Pondération de l’a priori 0.1 Segmentation ES λs1 Régularisation 0.04 Equation IV.9 λs2 0.06 γs Pondération de l’a priori 0.01 peuvent être considérés comme critique, et concerne le recalage : la taille de la fenêtre discrète ws (autrement dit les degrés de liberté du recalage non rigide) et le nombre d’atlas à sélectionner N. En effet, ils influent fortement sur le résultat de fusion et de segmentation finale (en particulier N), mais également sur le temps de calcul (en particulier ws). La figure IV.3 illustre les résultats de fusion obtenus en fonction de ws et de N (indice Dice, voir équation (III.10)). Bien qu’une augmentation du nombre d’atlas permet d’améliorer la qualité de la fusion, il augmente le temps de calcul en conséquence. Comme le montre cette figure, le choix de N = 3 et ws = ±8 représentent un bon compromis entre rapidité et performances. 4 - 2.4 Résultats Nous allons voir dans cette partie les résultats obtenus aux différents niveaux de notre mé- thode, en les comparant, lorsque cela est possible, aux travaux de la littérature. Nos résultats n’ont bénéficié d’aucun post-traitement permettant d’affiner les contours. Recalage : Le recalage rigide est illustré à la Figure IV.4, présentant les trois meilleurs atlas retenus pour une coupe d’un patient. Le recalage non-rigide obtenu sur cette même coupe est illustré à la figure IV.5. Nous avons vérifié empiriquement que le critère de similarité sélectionné (SAD et gradient) permettait d’obtenir de meilleurs résultats que les critères SAD ou SSD seuls. La Table IV.2 présente une comparaison des recalages non-rigides obtenus en fonction des critères de similarités. Les résultats obtenus par notre méthode combinant différence absolue d’intensité et de gradient sont globalement supérieurs à ceux obtenus par le critère 94IV.4 - 2 Résultats expérimentaux Figure IV.3 – Résultats de fusion (indice dice) et temps de calcul en fonction de la taille de fenêtre de déplacement ws (en haut) et du nombre d’atlas N (en bas) pour le recalage non rigide. SSD, et proches de ceux du SAD, bien que les écarts soient plus significatifs pour les cas de segmentation les plus difficiles : myocarde et ventricule droit en fin de systole (ES). Fusion des atlas : Dans notre méthodologie, l’étape de fusion des atlas permet de créer un modèle de forme pour l’étape suivante de segmentation. Il est néanmoins possible de quantifier les résultats de fusion à l’aide de l’équation IV.7. Le tableau IV.3 compare la vérité terrain aux résultats obtenus par fusion. Afin de déterminer l’influence du recalage sur la fusion, le résultat est également donné pour la méthode SAD. La fusion des atlas permet d’améliorer significativement tous les résultats pour chaque base (en comparaison avec le tableau IV.2). On peut remarquer sur ces résultats que la fusion est corrélée à la qualité du recalage, mais également à la distribution des erreurs de chaque atlas. Or, les résultats de fusion sont légère- 95Chapitre IV. Segmentation par GC multi-labels intégrant des a priori de forme Tableau IV.2 – Moyenne (± écart type) de Dice Metric (DM) entre la vérité terrain et les labels donnés par les atlas recalés pour Test1 et Test2. Première ligne : notre méthode combinant différence absolue d’intensité et de gradient, deuxième ligne : différence absolue d’intensité (SAD), troisième ligne : différence d’intensité au carré (SSD). ED ES Test1 Test2 Test1 Test2 SAD + VD 0.75 ± 0.22 0.81 ± 0.19 0.56 ± 0.28 0.63 ± 0.28 Gradient VG 0.91 ± 0.07 0.93 ± 0.07 0.71 ± 0.32 0.79 ± 0.23 Myo 0.70 ± 0.12 0.79 ± 0.10 0.63 ± 0.29 0.76 ± 0.17 SAD VD 0.74 ± 0.22 0.80 ± 0.19 0.55 ± 0.29 0.61 ± 0.28 VG 0.91 ± 0.07 0.93 ± 0.07 0.70 ± 0.32 0.78 ± 0.23 Myo 0.70 ± 0.12 0.78 ± 0.10 0.61 ± 0.28 0.74 ± 0.17 SSD VD 0.74 ± 0.22 0.80 ± 0.17 0.55 ± 0.27 0.59 ± 0.29 VG 0.89 ± 0.07 0.92 ± 0.07 0.74 ± 0.26 0.74 ± 0.26 Myo 0.65 ± 0.13 0.74 ± 0.10 0.62 ± 0.24 0.72 ± 0.18 Les valeurs en gras indiquent les meilleurs résultats entre les méthodes. Tableau IV.3 – Moyenne (± écart type) de Dice Metric (DM) entre la vérité terrain et les labels donnés par la fusion pour notre méthode (première ligne) et le critère SAD (seconde ligne). ED ES Test1 Test2 Test1 Test2 SAD + VD 0.84 ± 0.19 0.88 ± 0.16 0.63 ± 0.33 0.70 ± 0.31 Gradient VG 0.93 ± 0.06 0.95 ± 0.07 0.75 ± 0.33 0.83 ± 0.23 Myo 0.77 ± 0.13 0.85 ± 0.09 0.68 ± 0.30 0.82 ± 0.17 SAD VD 0.83 ± 0.19 0.87 ± 0.16 0.62 ± 0.32 0.68 ± 0.31 VG 0.93 ± 0.07 0.95 ± 0.07 0.74 ± 0.33 0.81 ± 0.23 Myo 0.77 ± 0.13 0.85 ± 0.09 0.67 ± 0.30 0.80 ± 0.18 Les valeurs en gras indiquent les meilleurs résultats entre les méthodes. ment meilleurs avec notre critère de similarité, notamment pour les cas difficiles (ES), ce qui justifie une nouvelle fois l’apport du gradient au critère de similarité. La figure IV.6-(a) illustre la fusion pour l’exemple précédemment donné. On peut constater que les résultats présentent des régions parasites, des manques et des irrégularités. Nous verrons dans la prochaine partie que l’utilisation de la fusion comme a priori de forme dans une étape de segmentation plutôt que comme résultat final permet d’améliorer ces résultats. 96IV.4 - 2 Résultats expérimentaux I AIi I et AIi A′ Ii I et A′ Ii Figure IV.4 – Illustration des 3 atlas (un par ligne) après le recalage rigide. De gauche à droite : l’image à segmenter I, l’atlas original AIi , la superposition de I et de AIi , l’atlas recalé rigidement A′ Ii , la superposition de I et de A′ Ii . Pour la superposition des dernières figures : le vert est utilisé pour I, le rose pour les atlas (Patient 21, coupe 1, Test1 en fin de diastole ED). I A′ Ii I et A′ Ii AD∗ Ii I et AD∗ Ii Figure IV.5 – Illustration des 3 atlas (un par ligne) après le recalage non-rigide. De gauche à droite : l’image à segmenter I, l’atlas recalé rigidement A′ Ii , la superposition de I et de A′ Ii , l’atlas recalé non rigidement AD∗ Ii , la superposition de I et de AD∗ Ii . Superposition : vert pour I, rose pour les atlas (Patient 21, coupe 1, Test1 en fin de diastole ED). 97Chapitre IV. Segmentation par GC multi-labels intégrant des a priori de forme Tableau IV.4 – Moyenne (± écart type) de Dice Metric (DM) en pourcentage entre la vérité terrain et le résultat de la segmentation pour notre méthode (première ligne) et le critère SAD (seconde ligne). ED ES Test1 Test2 Test1 Test2 Notre VD 0.86 ± 0.17 0.89 ± 0.13 0.74 ± 0.27 0.73 ± 0.28 Méthode VG 0.94 ± 0.06 0.96 ± 0.06 0.75 ± 0.34 0.82 ± 0.26 Myo 0.78 ± 0.14 0.85 ± 0.08 0.69 ± 0.29 0.82 ± 0.14 SAD VD 0.86 ± 0.15 0.88 ± 0.14 0.74 ± 0.25 0.72 ± 0.29 VG 0.93 ± 0.07 0.95 ± 0.07 0.74 ± 0.34 0.82 ± 0.26 Myo 0.78 ± 0.14 0.84 ± 0.09 0.68 ± 0.29 0.81 ± 0.15 Les valeurs en gras indiquent les meilleurs résultats entre les méthodes. Segmentation : L’étape de segmentation utilise le résultat de la fusion en tant qu’a priori de forme afin d’améliorer les résultats. Cette étape est négligeable en temps de calcul par rapport au recalage. Le Tableau IV.4 présente les résultats de segmentation selon le critère de similarité que nous avons choisi (SAD + gradient) et le critère SAD. En comparant les résultats donnés par notre méthode et ceux donnés par un recalage avec le critère SAD, on observe un écart moyen absolu (resp. signé par rapport à notre méthode) de l’indice dice de 0.01 (+0.01) pour la fusion ainsi que pour la segmentation. Notre étape de segmentation multi-labels est ainsi robuste au terme d’a priori de forme qui lui est injecté. Le tableau IV.4 permet plusieurs constatations : tout d’abord, en comparant les résultats avec le tableau IV.3 relatif à la fusion, on observe une amélioration moyenne de l’indice Dice en ED (resp. ES) de : +0.02 (+0.07) pour le VD, +0.01 (0.00) pour le VG et +0.01 (+0.01) pour le myocarde. Les améliorations pour le VD sont plus importantes que celles pour le VG et le myocarde. De plus, sans surprise, les résultats de segmentation sont meilleurs pour les images ED que pour celles en ES : les images ED sont les plus faciles à traiter, puisque le cœur y est le plus dilaté. Les résultats sont également meilleurs pour les coupes basales et mi-ventriculaires que pour les coupes apicales. La figure IV.6 illustre bien les améliorations de la segmentation : la suppression des faux positifs et les contours des objets lissés. Un autre exemple de segmentation est donné à la figure IV.7, présentant un résultat complet pour un patient. On peut remarquer quelques irrégularités sur les contours du myocarde pour les coupes ES. Ce type d’erreur pourrait être corrigé par des post-traitements. 98IV.4 - 2 Résultats expérimentaux (a) Résultats de fusion (b) Résultats de segmentation Figure IV.6 – Illustration de (a) la fusion et (b) la segmentation obtenue pour toutes les coupes d’un patient. De gauche à droite, haut en bas : les coupes de la base à l’apex du cœur. Rouge : ventricule droit, vert et bleu respectivement l’endocarde et l’épicarde du ventricule gauche (Patient 21, Test1, en fin de diastole ED). 99Chapitre IV. Segmentation par GC multi-labels intégrant des a priori de forme ED ES Figure IV.7 – Segmentation obtenue pour toutes les coupes d’un patient en ED et ES. De gauche à droite, haut en bas : les coupes de la base à l’apex du cœur. Rouge : ventricule droit, vert et bleu respectivement l’endocarde et l’épicarde du ventricule gauche (Patient 45, Test2). 100IV.4 - 3 Conclusion 4 - 3 Conclusion Dans le chapitre précédent, nous avons proposé une méthode semi-automatique de segmentation du VD sur IRM cardiaques basée sur la méthode des GC binaires. Cette méthode permet d’obtenir des résultats efficaces sur le VD. Cependant, les IRM cardiaques en coupe petit axe permettant une vue simultanée du VD et du VG, l’utilisation d’une méthode multi-labels permet leur segmentation conjointe. Nous avons ainsi proposé dans ce chapitre une méthode automatique reposant sur 3 étapes : (i) le recalage non-rigide d’un ensemble d’atlas sur l’image à segmenter, réalisé à l’aide de la méthode des GC. Le recalage par GC est une problématique récente et peu de travaux ont été proposés dans la littérature afin d’évaluer le recalage par GC ; (ii) la création d’un modèle de forme par fusion des atlas recalés ; (iii) la segmentation multi-labels par GC, intégrant un a priori de forme. L’intégration d’un a priori à la méthode des GC multi-labels n’a été que peu étudiée, et nous avons montré qu’elle permet d’obtenir de bons résultats de segmentation. De plus, les résultats obtenus sont comparables à la première méthode que nous avons proposé. Afin de déterminer l’efficacité de ces deux méthodes, une comparaison entre nos contributions et des méthodes de segmentation de la littérature permettrait de déterminer quelle méthodologie permet d’obtenir les meilleurs résultats pour cette application difficile. Le dernier chapitre de cette thèse va ainsi s’intéresser à cette comparaison à travers le challenge de segmentation du VD MICCAI 2012, que nous avons organisé. 101Chapitre IV. Segmentation par GC multi-labels intégrant des a priori de forme 102Chapitre V Comparaison des méthodes : challenge MICCAI 2012 Nous avons présenté deux méthodes de segmentation dans les chapitres précédents : au chapitre III, nous avons proposé une méthode semi-automatique de segmentation du VD basée sur la méthode des GC binaires intégrant un a priori de forme obtenu à partir d’une ACP. Cette méthode sera nommée GCAF dans la suite de ce chapitre. Au chapitre IV, nous avons proposé une méthode automatique de segmentation conjointe du VD et du VG basée sur la méthode des GC multi-labels intégrant un a priori de forme obtenu à partir de la fusion d’un ensemble d’atlas recalés. Cette méthode sera nommée GCAF-multi dans la suite de ce chapitre. Dans cette dernière partie, notre objectif est de comparer nos méthodes GCAF et GCAF-multi à d’autres méthodes de segmentation dédiées aux IRM cardiaques. Cependant, bien que des bases publiques incorporant les segmentations du VG aient été mises à la disposition de la communauté scientifique à travers deux challenges de segmentation 1 , il n’existe pas de bases publiques pour le VD. C’est pourquoi nous avons créé une base de données conséquente et organisé un challenge de segmentation du VD lors de la conférence MICCAI 2012. Son but est de permettre l’évaluation commune de méthodes de segmentation sur cette problématique à travers une base de données d’IRM cardiaques possédant une réfé- rence de segmentation manuelle et des mesures standards d’évaluation. Nous présenterons dans une première partie (Section 5 - 1 ) les données ainsi que les mesures d’évaluation utilisées lors de ce challenge. La seconde partie (Section 5 - 2 ) présentera le déroulement du challenge ainsi que les différentes méthodes participantes. Enfin, la Section 5 1. Le challenge de segmentation du VG en IRM cardiaques MICCAI’09 : http://smial.sri.utoronto.ca/ LV_Challenge/ et le challenge STACOM MICCAI’11 : http://cilab2.upf.edu/stacom_cesc11. 103Chapitre V. Comparaison des méthodes : challenge MICCAI 2012 - 3 va comparer nos deux méthodes de segmentations, GCAF et GCAF-multi, aux différentes méthodes participantes. 5 - 1 Données et mesures d’évaluation du challenge 5 - 1.1 Base segmentée d’IRM cardiaques Choix des patients : La collecte des données a été réalisée au Centre Hospitalier Universitaire de Rouen dans le cadre d’une étude clinique de juin 2008 à août 2008. Les patients nécessitaient un examen par IRM cardiaque et ont donné leur consentement écrit quant à la participation à cette étude. Les critères d’exclusion à cette étude sont les suivants : un âge infé- rieur à 18 ans, une contre-indication à l’utilisation de l’IRM, de l’arythmie pendant l’examen, ou une non-nécessité de l’analyse de la fonction ventriculaire lors de leur examen (par exemple en cas d’angiographie des veines pulmonaires ou de l’aorte thoracique). 59 patients ont ainsi été intégrés à l’étude, dont l’âge moyen est de 53.5 ± 17.5 ans. 70% des patients (soit 42) sont des hommes. Les principales pathologies cardiaques sont représentées dans ce panel : myocardite, cardiomyopathie ischémique, suspicion de dysplasie arrhythmogénique du VD, cardiomyopathie dilatée, cardiomyopathie hypertrophiée, sténose aortique [198]. Protocole expérimental : Les examens d’IRM cardiaques ont été réalisés à 1.5T (Symphony Tim®, Siemens Medical Systems, Erlanger, Allemagne). Une bobine cardiaque dédiée à balayage électronique à 8 éléments a été utilisée. Une synchronisation rétrospective avec une sé- quence en précession libre en régime permanent équilibré (bSSFP) a été réalisée pour l’analyse ciné, avec une répétition d’apnées de 10-15 secondes. Tous les plans conventionnels (vues 2-, 3- et 4-chambres) ont été acquis et un total de 8-12 coupes continues petit axe ont été réalisées de la base à l’apex des ventricules. Les paramètres de séquence sont les suivants : T R = 50 ms, T E = 1.7 ms, l’angle de bascule est de 55˚, l’épaisseur de coupe de 7 mm, la taille de la matrice de 256×216, le champ de vision de 360−420 mm et 20 images sont collectées par cycle cardiaque. Sélection des données : Les images cardiaques ont été zoomées et recadrées dans une région d’intérêt de taille 256 × 216 pixels (ou 216 × 256). 48 patients ont été sélectionnés pour créer la base finale, laissant le ventricule gauche visible sur chaque image afin de permettre une segmentation conjointe des deux ventricules. Chaque séquence d’IRM cardiaques pour un patient est composée d’un ensemble de 200 à 280 images. La résolution spatiale dépend du patient considéré, et vaut en moyenne 0.75 mm/pixel. Les données ont été séparées en trois ensembles : 104V.5 - 1 Données et mesures d’évaluation du challenge Figure V.1 – Illustration de coupes segmentées de la base de données MICCAI’12, pour le patient 35 en ED. L’endocarde du VD est superposé à l’image en rouge, l’épicarde en vert. l’ensemble d’apprentissage (16 patients), l’ensemble Test1 (16 patients) et l’ensemble Test2 (16 patients). Les données ont été anonymisées, formattées et nommées suivant la convention du challenge de segmentation du VG MICCAI’09. Segmentation manuelle du VD : Elle est sujette à la variabilité inter-expert [198], notamment sur la sélection des coupes basales et apicales extrêmes en petit-axe à partir de la détermination des plans des valves tricuspide et pulmonaire, bien que certaines conventions existent afin de guider le tracé manuel de l’expert. Pour ce challenge de segmentation, une première convention concerne la définition des coupes ED et ES : la fin de diastole ED est définie comme étant la première image temporelle de chaque niveau de coupe, alors que la fin de systole ES est définie par l’image avec la plus petite cavité ventriculaire à partir d’une coupe mi-ventriculaire petit-axe. La définition des coupes basales ED et ES est déduite de la position de l’anneau tricuspidien définie sur la vue 4-cavités en ED et ES. La coupe apicale est définie par la dernière coupe présentant une cavité ventriculaire détectable. Enfin, le tracé manuel de l’endocarde et de l’épicarde du VD a été réalisé par un expert sur les coupes ED et ES. Les trabéculations et muscles papillaires ont été inclus à la cavité ventriculaire. Le septum interventriculaire n’a pas été inclus à la masse du VD. La Figure V.1 illustre quelques coupes segmentées de la base de données pour un patient en ED. La segmentation de l’ensemble des coupes pour un patient est réalisée manuellement en 15 minutes environ. 5 - 1.2 Méthodologie d’évaluation De nombreuses mesures d’évaluation existent et permettent d’analyser les performances d’une méthode. Dans le cadre du challenge, les performances techniques, i.e. la précision de la segmentation par rapport au tracé manuel, sont déterminées à partir de deux indices standards : 105Chapitre V. Comparaison des méthodes : challenge MICCAI 2012 une mesure globale de recouvrement, l’indice Dice (DM), et une mesure locale, la distance de Hausdorff (HD). Le score de recouvrement Dice a été défini précédemment à l’équation III.10. Cet indice permet une appréciation globale de la précision de la segmentation donnée par une méthode par rapport à la vérité terrain. Le deuxième indice, la distance de Hausdorff [199] est une mesure symétrique de distance entre le contour manuel Cm composé des points p i m et le contour automatique Ca composé de points p j a . Elle est définie par : HD(Cm, Ca) = max  max i  min j d  p i m, p j a  , max j  min i d  p i m, p j a  (V.1) où d(., .) est la distance euclidienne. La distance de Hausdorff est calculée en mm en utilisant la résolution spatiale de l’image considérée. Cet indice est sensible aux valeurs aberrantes et permet une appréciation locale de la précision de la segmentation donnée par une méthode par rapport à la vérité terrain. En plus des performances techniques, les performances des paramètres cliniques sont déterminées à partir du calcul des indices de la fonction contractile cardiaque. Les volumes endocardiques en ED, V ED endo, et ES, V ES endo, peuvent être déterminés en sommant les aires de chaque coupe multipliées par la distance entre les différentes coupes. La fraction d’éjection peut alors être calculée à l’aide de l’équation I.1 (voir chapitre I). Dans le cas où le contour épicardique est recherché, il est possible de calculer la masse ventriculaire (g) : vm = densité ∗ (V ED epi − V ED endo) (V.2) avec densité = 1.05 g/cm3 [200]. Les paramètres cliniques étant obtenus pour les contours automatiques et manuels, ils peuvent être comparés afin de déterminer la corrélation ou un biais fixe, afin de déterminer si une méthode sous-estime ou sur-estime systématiquement un paramètre clinique donné. Cela est réalisé en calculant le coefficient de corrélation R, la régression linéaire et l’analyse de Bland-Altman. 5 - 2 Challenge et méthodes participantes 5 - 2.1 Préparation des données Le challenge de segmentation du VD (RVSC) a été organisé par Caroline Petitjean, Su Ruan, Jean-Nicolas Dacher, Jérôme Caudron et moi-même, et a débuté en mars 2012 par l’invitation 106V.5 - 2 Challenge et méthodes participantes électronique des chercheurs du domaine et l’annonce de la création du challenge. Différentes étapes définies ci-après ont donné lieu à une compétition finale sur place organisée lors d’un atelier à la 15ème Conférence Internationale Medical Image Computing and Computer Assisted Intervention (MICCAI) le 1er octobre 2012 à Nice, France. Sur 47 équipes initialement enregistrées au challenge, 7 ont soumis leurs résultats et ont participé à la compétition finale. Ces 7 méthodes seront détaillées dans la section suivante. La première étape (apprentissage) a commencé en mars 2012 avec la mise à disposition de l’ensemble d’apprentissage de 16 patients, incluant toutes les images DICOM, la liste des images à segmenter (correspondant aux phases ED et ES) ainsi que les contours manuels de ré- férence pour chaque image. De plus, un code d’évaluation implémenté sous Matlab a été fourni aux participants afin de pouvoir évaluer la performance de leur méthode. Il fournit les mesures de DM et HD pour chaque image, leur moyenne et écart type (par patient, phase et global) ainsi que le coefficient de corrélation, la régression linéaire et les erreurs relatives concernant les performances des paramètres cliniques. Ce même code a été utilisé par les organisateurs pour évaluer les résultats de segmentation lors des étapes suivantes du challenge. La seconde étape (Test1) a commencé en juin 2012 avec la mise à disposition de l’ensemble Test1 composé de 16 patients, comprenant l’ensemble des images DICOM ainsi que la liste des images à segmenter. Les participants ont alors pu faire tourner leurs algorithmes afin de segmenter l’endocarde du VD (et optionnellement l’épicarde du VD), en utilisant peu ou pas d’interaction avec l’utilisateur. Afin d’obtenir les évaluations des méthodes, les participants devaient envoyer les contours de segmentation obtenus aux organisateurs du challenge, ces derniers leur fournissant à partir du code d’évaluation précédemment cité l’évaluation technique et des paramètres cliniques de la précision de segmentation. Les participants avaient alors jusqu’au 5 juillet pour fournir un article décrivant leur méthode ainsi que les résultats obtenus sur Test1. Ces différents articles sont disponibles à l’adresse suivante : http://www/litislab.eu/rvsc/. Enfin, la dernière étape du challenge (Test2) a eu lieu le jour de la compétition, le 1er octobre 2012, à MICCAI. Une nouvelle base de 16 patients, Test2, a été fournie aux participants, ceux-ci ayant 3 heures sur place afin de fournir la segmentation délivrée par leur méthode. Considérant le coût en terme de calculs et de mémoire du traitement de base de données importantes, les participants étaient autorisés à utiliser des serveurs de calcul distants. Les résultats ont été calculés et présentés par les organisateurs lors de la conférence. Il est à noter que les participants pouvaient améliorer leur algorithme entre la soumission des résultats de Test1 et 107Chapitre V. Comparaison des méthodes : challenge MICCAI 2012 le jour du challenge. 5 - 2.2 Méthodes participantes Sept équipes ont participé au challenge de segmentation, trois d’entre elles présentant des méthodes automatiques et quatre semi-automatiques, i.e. nécessitant une faible étape d’initialisation manuelle de l’algorithme. Le tableau V.1 présente un aperçu des différentes méthodes des participants détaillés dans la suite de cette partie, dénommées à partir du nom de l’équipe. Dans notre cas, la méthode du chapitre III, GCAF, a participé à la compétition sur site contrairement à celle du chapitre IV, GCAF-multi. Tableau V.1 – Liste des participants au challenge. Les équipes non présentes lors de la compétition sur site sont indiquées par ∗ . A/SA : Automatique/Semi-Automatique. Equipes Référence Principe de la méthode A/SA Contours CMIC, GB [201] Recalage multi-atlas 2D A Endo+épi NTUST, Taiwan [202] clustering et mouvement A Endo+épi SBIA∗ , USA [203] Recalage multi-atlas 3D A Endo+épi ICL, GB [204] Recalage multi-atlas 3D SA Endo+épi LITIS, France [205] GC binaire avec a priori SA Endo+épi BIT-UPM, Espagne [206] Watershed 4D SA Endo GEWU∗ , Canada [207] Correspondance de distributions SA Endo Méthodes automatiques CMIC [201] : Cette méthode automatique repose sur une stratégie d’affinements successifs de la segmentation à partir de la propagation d’un ensemble d’atlas. Trois étapes sont réalisées : d’abord la localisation du cœur, puis la segmentation grossière du VD et enfin, l’affinement de la segmentation de l’endocarde et de l’épicarde du VD. La segmentation obtenue à chaque étape est utilisée comme un masque à l’étape suivante, permettant d’améliorer graduellement l’initialisation du recalage d’atlas et sa précision. Cette méthode traitant chaque coupe 2D, une sélection d’atlas est nécessaire en considérant la grande variabilité des images cardiaques. Afin de choisir les atlas les plus adaptés à une image inconnue, un critère de classement multi-labels a été choisi [208], basé sur une corrélation croisée locale normalisée. La fusion est réalisée à partir des meilleurs atlas à chaque étape de l’algorithme. NTUST [202] : Cette méthode de segmentation automatique et non supervisée est basée principalement sur le mouvement cyclique du cœur. Elle combine des modèles de morphologie 108V.5 - 2 Challenge et méthodes participantes spatiale 2D et du mouvement cyclique des images cardiaques sur la dimension temporelle afin de déterminer le contour endocardique du VD sur les données 4D. Une détection grossière du VG est réalisée en recherchant les objets connectés dans une zone carrée, possédant un mouvement répété. Cette étape permet de filtrer les objets ayant un mouvement cardiaque cyclique. Cette détection du VG est d’abord appliquée aux images de la séquence médiane sur la dimension temporelle, où les cavités du VG et du VD sont les plus importantes en taille comparées aux autres séquences temporelles. La détection du VG sur les autres coupes est réalisée en utilisant cette première détection : les objets connectés possédant un fort mouvement et un fort recouvrement avec le VG des séquences voisines sont sélectionnés. La détection du VD est réalisée d’une façon similaire, sur la séquence médiane temporelle, en excluant le VG précédemment détecté. A partir de cette détection et en utilisant des contraintes géométriques selon l’axe Z, le VD est détecté en cherchant les objets de fort mouvement sur la dimension temporelle, avec un faible recouvrement avec le VG et un fort recouvrement avec le VD des images voisines de la séquence. SBIA [203] : Cette équipe a proposé un cadre de segmentation automatique et itératif basé sur le recalage d’un ensemble d’atlas et la fusion des labels. Les atlas sont recalés sur les images cibles par un outil publique de recalage appelé DRAMMS. La fusion des labels est réalisée à partir d’une stratégie de vote à la majorité, pondéré selon la similarité locale entre l’atlas et l’image cible. Dans un cadre itératif, la segmentation initiale est utilisée pour restreindre la zone de recherche aux alentours du VD et pour sélectionner un sous-ensemble des atlas les plus similaires à l’image cible dans cette zone restreinte, avant une seconde étape de recalage. De cette façon, la grande variabilité des images cardiaques est partiellement réduite. La méthode converge vers un masque final du VD après deux itérations. Méthodes semi-automatiques ICL [204] : La méthode de segmentation repose sur le recalage d’un ensemble d’atlas 3D dont les labels de la cavité du VD (endocarde) et de sa paroi (épicarde) sont obtenus par la fusion des opinions de l’ensemble des atlas. La méthode est semi-automatique mais ne requiert que quelques points de correspondances sur les images. Chaque atlas est alors aligné en utilisant un recalage affine basé sur les points de correspondance, suivi par un recalage non rigide basé sur les B-splines. Afin d’estimer le label pour un voxel x, les labels des atlas sont combinés en 109Chapitre V. Comparaison des méthodes : challenge MICCAI 2012 utilisant une fusion locale pondérée des labels : L˜(x) = arg max l X N n=1 X ∆x∈S P(I(x)|In(x + ∆x)).P(L(x) = l|Ln(x + ∆x)) (V.3) où N est le nombre d’atlas, S est une zone volumique de recherche centrée en x. Le premier terme de pondération P(I(x)|In(x+∆x)) est déterminé par la similarité de l’intensité en x entre l’image cible et l’atlas, le second terme P(L(x) = l|Ln(x + ∆x)) est déterminé par la distance entre le voxel cible de l’image et le voxel considéré de l’atlas. Ainsi, le voxel d’un atlas ayant une intensité similaire au voxel cible et proche de ce dernier à une influence plus importante dans la détermination du label final qu’un voxel de l’atlas plus distant ou moins similaire. Finalement, le label ayant le poids final sommé le plus important est attribué au voxel cible. BIT-UPM [206] : Cette équipe a proposé une méthode de segmentation 4D basée sur la technique de montée des eaux et la fusion des régions résultantes par GC 4D. Cette méthode semi-automatique nécessite le tracé manuel de la cavité du VD sur 4 à 5 coupes 2D de la première phase ED. Ces tracés sont utilisés afin de déterminer la zone de recherche, et sont propagés dans la dimension temporelle des images en utilisant la symétrie du cycle cardiaque. Le volume 4D est ensuite pré-segmenté en petites régions à partir de le technique de montée de eaux. Enfin, ces régions sont fusionnées à partir de la méthode des GC 4D dont le terme contour est basé sur l’intensité. Cette approche est basée sur les travaux de [209] et [210], mais étendue en 4D. Considérant l’écart important entre les coupes et la nécessité de cohérence entre les coupes successives pour la méthode des GC, une interpolation de coupes manquantes est réalisée. Une seule passe de l’algorithme est alors nécessaire à la segmentation 4D du VD. GEWU [207] : La méthode de segmentation 3D repose sur la relaxation convexe et la correspondance de distributions. L’algorithme requiert un unique patient pour l’apprentissage et une interaction avec l’utilisateur, un unique clic aux alentours du centre du VG sur une seule coupe pour un patient. La solution finale est obtenue par l’optimisation d’une fonctionnelle d’énergie basée sur des a priori de forme et d’intensité. A partir d’une mesure globale de similarité entre les distributions, l’a priori de forme est invariant à la translation. Les auteurs ont également introduit une variable concernant le facteur d’échelle afin de définir une équation à point-fixe, permettant une invariance à l’échelle à partir de quelques calculs rapides. La méthode permet ainsi de s’affranchir d’une étape coûteuse d’alignement ou de recalage, et de la nécessité d’une base manuellement labellisée. De plus, elle peut être parallélisée : l’implémentation sur 110V.5 - 3 Résultats et comparaisons GPU permet un temps de calcul de l’ordre de 5 secondes pour la segmentation d’un volume cardiaque. Les auteurs démontrent que la performance de l’algorithme n’est pas affectée par le choix d’un patient en particulier de la base d’apprentissage et que la description des formes est similaire quelque soit le patient considéré. L’apprentissage de l’algorithme par un seul patient est ainsi supposé comme suffisant. 5 - 3 Résultats et comparaisons Dans cette partie, nous allons évaluer et comparer nos deux méthodes de segmentation GCAF et GCAF-multi en utilisant les données du challenge. Nous rappelons que la méthode GCAF-multi n’était pas participante au challenge de segmentation du VD MICCAI’12 (contrairement à la méthode GCAF), mais les mêmes conditions d’évaluation ont été respectées. Nous nous intéresserons aux performances techniques et des paramètres cliniques en ne considérant que la segmentation de l’endocarde du VD, afin de comparer les différentes mé- thodes et déterminer les méthodologies adaptées à la résolution de ce problème de segmentation difficile. Les performances ont été déterminées sur la base Test1 de 16 patients (248 images) et sur la base Test2 de 16 patients (252 images). 5 - 3.1 Performances techniques Le tableau V.2 présente la précision moyenne de la segmentation de l’endocarde pour chaque méthode. Les valeurs du coefficient Dice varient entre 0.55 et 0.81 et la distance de Hausdorff de 7 mm à 23 mm. Nos deux méthodes GCAF et GCAF-multi présentent parmi les meilleurs résultats avec respectivement un DM de 0.76 et 0.79 (Test1), 0.81 et 0.81 (Test2) et une distance de Hausdorff de 9.97 et 12.54 (Test1), 7.28 et 9.69 (Test2). On peut remarquer qu’en moyenne, les méthodes semi-automatiques permettent d’obtenir des segmentations plus précises que les méthodes automatiques. Cependant, deux méthodes automatiques 2D, CMIC et GCAF-multi, permettent d’obtenir des résultats similaires aux meilleurs méthodes semi-automatiques, ICL, GCAF et BIT-UPM. On peut noter que nos méthodes GCAF et GCAF-multi obtiennent les meilleurs résultats sur Test2. Enfin, les résultats de ce tableau présentent des écarts-types importants : les performances des méthodes sont ainsi variables selon les patients. GCAF et GCAF-multi sont parmi les méthodes de plus faibles écarts types, ce qui montre leur performance face à la variabilité des patients. 111Chapitre V. Comparaison des méthodes : challenge MICCAI 2012 Tableau V.2 – Valeurs moyennes (± écart type) du coefficient Dice (DM) et de la distance de Hausdorff (HD). Ces valeurs sont moyennés sur ED et ES. A/SA : Automatique/Semi-Automatique. Test1 Test2 DM HD (mm) DM HD (mm) CMIC A 0.78 ± 0.23 10.51 ± 9.17 0.73 ± 0.27 12.50 ± 10.95 NTUST A 0.57 ± 0.33 28.44 ± 23.57 0.61 ± 0.34 22.20 ± 21.74 SBIA A 0.55 ± 0.32 23.16 ± 19.86 0.61 ± 0.29 15.08 ± 8.91 GCAF-multi A 0.79 ± 0.22 12.54 ± 10.74 0.81 ± 0.21 9.69 ± 7.71 ICL SA 0.78 ± 0.20 9.26 ± 4.93 0.76 ± 0.23 9.77 ± 5.59 GCAF SA 0.76 ± 0.20 9.97 ± 5.49 0.81 ± 0.16 7.28 ± 3.58 BIT-UPM SA 0.80 ± 0.19 11.15 ± 6.62 0.77 ± 0.24 9.79 ± 5.38 GEWU SA 0.59 ± 0.24 20.21 ± 9.72 0.56 ± 0.24 22.21 ± 9.69 Les valeurs en gras indiquent les meilleurs résultats entre les méthodes. Si on considère l’analyse des images ED et ES séparément (voir Figure V.2), on peut remarquer que quelque soit la méthode, les résultats sont supérieurs pour les phases ED que pour les phases ES. En effet, les images ED sont plus faciles à segmenter, la cavité ventriculaire y étant la plus dilatée. De plus, les images ES sont plus floues du fait de l’effet de volume partiel. Selon la méthode considérée, les écarts de performance entre les segmentations ED et ES varient entre 5 et 17%. On peut remarquer que pour certaines méthodes (BIT-UPM, GCAF, ICL), la distribution est resserrée autour de la médiane, ce qui indique un comportement stable de ces méthodes. Il est à noter que ces trois méthodes sont semi-automatiques. Notre méthode automatique GCAF-multi présente également une distribution relativement resserrée autour de la médiane, elle a donc un comportement stable. Il est également possible d’analyser les résultats obtenus en fonction des niveaux de coupe, afin de déterminer la distribution des erreurs pour chaque méthode. Sachant que chaque volume possède un nombre différent de coupes (entre 6 et 12, avec une valeur moyenne de 8.94 ± 1.53 pour les volumes ED), il est nécessaire d’interpoler les valeurs du coefficient Dice sur un nombre fixe de coupe, que nous avons fixé à 12. La Figure V.3 présente la moyenne du coefficient Dice selon le plan longitudinal du VD en fonction du niveau de coupes. Sans surprise, les erreurs sont plus importantes pour les coupes apicales, pour toutes les méthodes. De la base à l’apex du cœur, le coefficient Dice décroît d’environ 1/3 : les coupes les plus basales ont en moyenne un score de 0.91 (moyenne sur les trois meilleures méthodes CMIC, ICL, GCAF), alors que les coupes les plus apicales ont un score de 0.62. Cela montre que les améliorations dans la précision de la segmentation doit reposer essentiellement sur les coupes apicales. Il est à noter que pour certaines méthodes, la segmentation des premières coupes basales peut également poser 112V.5 - 3 Résultats et comparaisons Figure V.2 – Médiane du coefficient Dice sur les segmentations obtenues sur les patients de Test1 et de Test2. La médiane est illustrée par une barre rouge. La boîte indique le premier quartile (25% des valeurs sont inférieures ou égales à sa valeur) et le troisième quartile (75% des valeurs sont inférieures ou égales à sa valeur). problème. Nos deux méthodes GCAF et GCAF-multi présentent des amplitudes du coefficient Dice les plus faibles parmi toutes les méthodes, prouvant leur efficacité sur les coupes apicales. Des résultats de segmentation typiques pour toutes les coupes d’un patient sont présentés à la Figure V.4 pour les coupes les plus basales ED, à la Figure V.5 pour les coupes les plus apicales ED et à la Figure V.6 pour le volume ES. Les contours de 4 méthodes sont proposés dans ces figures : CMIC, GCAF-multi, ICL et GCAF. Bien que la plupart des coupes présentent une bonne précision de segmentation, on peut remarquer que la méthode ICL présente une sousestimation des contours, en particulier pour la coupe la plus basale en ED et ES, au contraire de la méthode CMIC qui sur-estime certains contours. Dans une moindre mesure, une légère surestimation peut également apparaître sur certaines coupes avec notre méthode GCAF-multi, mais nos méthodes proposent les résultats de segmentation les plus proches de la vérité terrain en ED et en ES. 113Chapitre V. Comparaison des méthodes : challenge MICCAI 2012 Figure V.3 – Distribution spatiale des erreurs sur les images ED de Test1 et Test2 selon les méthodes utilisées. 5 - 3.2 Performances cliniques Les volumes endocardiques en ED et ES sont calculés comme étant la somme de toutes les aires endocardiques déterminées par les contours, multipliées par la distance entre les coupes. La Figure V.7 présente l’analyse de la corrélation entre les volumes automatiques et manuels. Même si nous avons vu que les segmentations sur les coupes apicales étaient d’une précision inférieure (quelle que soit la méthode), la corrélation entre les volumes automatiques et manuels est plutôt bonne. En effet, les erreurs sur les coupes apicales n’ont que peu d’influence sur le calcul du volume total, même si d’autres champs de recherche, telle que l’étude de la structure des fibres, nécessitent une bonne précision de sa segmentation. Pour les méthodes semi-automatiques, le coefficient de corrélation calculée à partir d’une régression linéaire atteint un maximum de 0.99 en ED et 0.98 en ES, et 0.96 en ED et 0.96 en ES pour les méthodes automatiques. Notre méthode GCAF-multi permet d’obtenir des résultats meilleurs ou comparables aux méthodes semi-automatiques, ces dernières présentant en moyenne les meilleurs coefficients de corrélation. A partir de ces volumes, il est possible de déterminer la fraction d’éjection. Les Figures V.9 et V.8 présente la régression linéaire et une analyse Bland-Altman entre les fractions d’éjection déterminées manuellement et automatiquement. Pour les méthodes automatiques, le coefficient 114V.5 - 3 Résultats et comparaisons de corrélation est mitigé, avec une tendance globale à la surestimation de la fraction d’éjection (surévaluation de la santé du cœur), comme le montre la courbe de Bland-Altman : la différence moyenne (ligne rouge) montre en moyenne des valeurs positives et par ce fait un biais fixe. Les mêmes remarques peuvent être faites concernant les méthodes semi-automatiques, exceptées que la fraction d’éjection est soit surestimée, soit sous-estimée. Concernant nos méthodes, on peut remarquer que GCAF est la méthode semi-automatique ayant la différence moyenne la plus proche de 0, et n’a pas de biais fixe. Notre méthode automatique GCAF-multi est la seule à avoir une différence moyenne proche de 0, avec un fort regroupement des erreurs autour de cette moyenne. On peut toutefois remarquer que les méthodes présentent des performances sur les paramètres cliniques relativement proches, contrairement aux performances techniques qui étaient plus différentes. 5 - 3.3 Comparaisons Nous avons proposé dans cette thèse deux méthodes différentes, une semi-automatique et une automatique, basées sur des a priori de forme. La comparaison de nos méthodes avec celles du challenge permet de répondre à certaines questions : est-il plus judicieux d’utiliser une mé- thode automatique ou semi-automatique ? Quel est l’apport d’un a priori de forme ? Est-ce que le choix d’une méthodologie 2D que nous avons proposé est le plus approprié ? Et enfin, quelle méthode permet d’obtenir les meilleurs résultats sur cette application ? Si on compare les méthodes semi-automatiques et automatiques du challenge, on peut remarquer en moyenne de meilleurs résultats de segmentation pour les méthodes semi-automatiques. Cependant, la méthode CMIC et notre méthode GCAF-multi prouvent qu’il est possible d’obtenir automatiquement des résultats comparables aux méthodes nécessitant une interaction avec l’utilisateur. Cependant, l’automatisation des méthodes a un coût, comme le montre le Tableau V.3. Les bonnes performances de CMIC et GCAF-multi sont obtenues sans aucune interaction de l’utilisateur mais avec un coût de calcul beaucoup plus important que les autres méthodes. Bien que pour cette application le temps réel ne soit pas requis, le temps de calcul pour un patient doit se limiter à quelques minutes. Si on considère les 3 meilleures méthodes semi-automatiques (ICL, GCAF et BIT-UPM), notre méthode est la plus rapide pour une interaction utilisateur plus faible que BIT-UPM, et une interaction plus forte que ICL. Cependant, la méthode ICL est la plus longue bien que la méthode soit parallélisée sur 32 processeurs. Concernant les méthodes automatiques, notre méthode GCAF-multi permet d’obtenir les meilleurs résultats (comparables aux meilleurs résultats globaux) au coût d’un temps de 115Chapitre V. Comparaison des méthodes : challenge MICCAI 2012 Tableau V.3 – Temps de calcul moyen par patient (volumes ED et ES) et type d’interaction utilisateur nécessaire pour les méthodes semi-automatiques. A/SA : Automatique/Semi-Automatique. Equipe Contours Temps de calcul Interaction CMIC A Endo+Epi 12 min sur PC avec processeur - quad-core à 2.13 GHz NTUST A Endo+Epi 90.3 sec sur PC avec processeur - dual-core à 3.1 GHz SBIA A Endo+Epi 2-3 min sur linux avec processeur - dual-core à 2.8 GHz LITIS-multi A Endo (VD) 30 min sur PC avec processeur - Endo+Epi (VG) dual-core à 2.8 GHz ICL SA Endo+Epi 5 min avec calcul parallélisé 5 landmarks sur un serveur 32-core par volume LITIS SA Endo+Epi 45 sec sur PC avec processeur 2 landmarks dual-core à 2.8 GHz par image BIT-UPM SA Endo 2.25 min sur PC avec processeur Contourage manuel de 4 à 5 quad-core à 2.13 GHz coupes sur la phase ED GEWU SA Endo 10 sec sur PC avec programmation 1 landmark parallélisée sur GPU par patient Les valeurs en gras indiquent les meilleurs résultats entre les méthodes. calcul encore plus important que la méthode CMIC. Ce coût de calcul peut également provenir de la programmation Matlab, mais il est à noter que notre méthode permet la segmentation conjointe du VD, du VG et du myocarde. Les méthodes 3D sont aujourd’hui la norme dans de nombreux domaines de segmentation. Quatre méthodes 3D ont ainsi été proposées au challenge, une automatique par SBIA, et trois semi-automatiques par ICL, BIT-UPM et GEWU. Or l’écart entre les coupes de 8.4 mm ainsi que l’épaisseur de coupe de 7 mm dans nos données cardiaques par IRM sont bien supérieurs à la résolution spatiale de l’image, inférieure à 1 mm par pixel. Ces données sont dans la norme, sachant que la plupart des centres d’imagerie acquiert les données cardiaques avec une épaisseur de coupe de 8 à 10 mm. Nos données ne peuvent donc pas être considérées comme réellement 3D. C’est pourquoi nous avons défini une méthodologie 2D pour nos deux méthodes. La cohérence de ce choix est vérifiée empiriquement par les résultats obtenus sur la base du challenge : les mé- thodes 2D permettent d’obtenir des résultats parmi les meilleurs (CMIC, GCAF-multi, GCAF). Enfin, la dernière question que l’on peut se poser : quelle méthodologie permet d’obtenir les meilleurs résultats ? Bien que cette question soit ouverte et difficile à répondre, on peut considérer que ce challenge présente les méthodologies principales et que des éléments de réponse peuvent y être déterminés. Tout d’abord, la majorité de ces méthodes (6) inclut des connais- 116V.5 - 4 Conclusion sances a priori, lorsque les deux autres sont spécialement dédiées à la segmentation du VD et se basent sur les intensités de l’image et le mouvement cardiaque. On peut également remarquer le fort intérêt des méthodes basées sur les atlas pour cette problématique. Du point de vue des performances techniques et cliniques, notre méthode automatique GCAF-multi permet d’obtenir les meilleurs résultats et permet de segmenter le VD, le VG et le myocarde simultanément. Le coût de calcul est important, mais il est possible de le diminuer fortement en améliorant l’implémentation. 5 - 4 Conclusion Les différentes comparaisons réalisées à partir de la base de données du challenge MICCAI montrent que nos deux méthodes de segmentation permettent d’obtenir de très bons résultats sur l’application cardiaque. Nos méthodes permettent d’atteindre un score de recouvrement de l’ordre de 80% pour une distance de Hausdorff d’environ 8 mm pour notre méthode semiautomatique et 11 mm pour notre méthode automatique. Les performances cliniques montrent que nos méthodes n’ont pas de biais fixe et qu’elles permettent d’obtenir des paramètres proches de ceux déterminés manuellement. De plus, l’analyse de Bland-Altman montre que la méthode GCAF-multi permet d’obtenir des fractions d’éjection proches de la vérité terrain lorsque les autres méthodes surestiment ce paramètre, au coût d’un temps de calcul plus important qui pourrait être réduit en optimisant l’implémentation. Ces différents résultats sur la base publique de ce challenge permettent également une future comparaison des travaux de la littérature avec nos méthodes. Le challenge de segmentation étant récent, peu de publications extérieures au challenge ont présenté des résultats sur cette base [211, 212] (la méthode présentée par [213] ne doit pas être considérée puisqu’elle ne respecte pas les conditions d’évaluation). Nous espérons que dans le futur, cette base de données deviendra une référence permettant une comparaison honnête des méthodes sur cette application difficile. 117Chapitre V. Comparaison des méthodes : challenge MICCAI 2012 CMIC GCAF-multi ICL GCAF Figure V.4 – Contours automatiques et manuels ED du VD sur le patient 47 de Test2 pour différentes méthodes du challenge. De haut en bas : les méthodes CMIC, GCAF-multi, ICL et GCAF. De gauche à droite : de la coupe la plus basale à la coupe mi-ventriculaire. Les coupes apicales sont illustrées à la Figure V.5. Contours manuels : vert ; contours automatiques : rouge. 118V.5 - 4 Conclusion CMIC GCAF-multi ICL GCAF Figure V.5 – Contours automatiques et manuels ED du VD sur le patient 47 de Test2 pour différentes méthodes du challenge. De haut en bas : les méthodes CMIC, GCAF-multi, ICL et GCAF. De gauche à droite : de la coupe mi-ventriculaire à la coupe à la plus apicale. Les coupes basales sont illustrées à la Figure V.4. Contours manuels : vert ; contours automatiques : rouge. 119Chapitre V. Comparaison des méthodes : challenge MICCAI 2012 CMIC LITIS-multi ICL LITIS Figure V.6 – Contours automatiques et manuels ES du VD sur le patient 33 de Test2 pour différentes méthodes du challenge. De haut en bas : les méthodes CMIC, LITIS-multi, ICL et LITIS. De gauche à droite : de la coupe la plus basale à la coupe la plus apicale. Contours manuels : vert ; contours automatiques : rouge. 120V.5 - 4 Conclusion Figure V.7 – Paramètres de la régression linéaire y = ax + b et R le coefficient de corrélation entre les volumes automatiques et manuels ED et ES du VD (ml). 121Chapitre V. Comparaison des méthodes : challenge MICCAI 2012 Figure V.8 – Fraction d’éjection : régression linéaire, coefficient de corrélation (R) et analyse de BlandAltman sur la fraction d’éjection pour les méthodes automatiques de Test1 et Test2. La ligne pointillée noire est la fonction identité. 122V.5 - 4 Conclusion Figure V.9 – Fraction d’éjection : régression linéaire, coefficient de corrélation (R) et analyse de BlandAltman sur la fraction d’éjection pour les méthodes semi-automatiques de Test1 et Test2. La ligne pointillée noire est la fonction identité. 123Chapitre V. Comparaison des méthodes : challenge MICCAI 2012 124Conclusion générale et perspectives La détermination de la fonction contractile cardiaque est d’une grande importance dans la détection et le traitement de la plupart des troubles cardiaques. Afin d’y accéder, la segmentation des cavités ventriculaires est une tâche nécessaire. Nous avons montré que cette tâche est difficile, en particulier pour le VD. Diverses méthodes ont été proposées dans la littérature concernant la segmentation du VG, reposant sur des techniques basées sur les intensités des images, sur les ASM et AAM, les modèles déformables ou encore le recalage multi-atlas. Cependant, peu de solutions se sont montrées efficaces pour le traitement du VD. L’étude de l’état de l’art nous montre la nécessité de l’intégration d’un a priori fort à la méthode afin de guider le processus de segmentation. De plus, afin d’être utilisable en routine clinique, une méthode de segmentation des IRM cardiaques se doit d’être relativement rapide, de l’ordre de quelques minutes. Or la méthode des coupes de graphe permet d’optimiser des fonctions de coût de manière globale et d’obtenir une convergence rapide en 2D. Son avantage est sa capacité à donner efficacement une solution optimale pour l’utilisation conjointe de différentes informations sur l’image, permettant ainsi l’intégration d’informations a priori. Ainsi, des contraintes ou des modèles concernant l’objet à segmenter peuvent être introduits à travers un terme supplémentaire dans la formulation de la fonctionnelle d’énergie. La manière d’incorporer ces informations a priori dépend des informations disponibles : soit les contraintes sont faibles et sont de simples hypothèses sur la forme générale de l’objet (convexe par exemple), soit les contraintes sont fortes et concernent une forme précise à retrouver dans l’image. Cependant, bien que la méthode gé- nérale ait donné lieu à de nombreux développements théoriques et applicatifs, les travaux de segmentation par coupe de graphe prenant en compte des formes a priori sont encore peu nombreux dans la littérature. Deux problèmes se posent en effet : la modélisation de la forme de l’objet à segmenter et son intégration dans l’algorithme des coupes de graphe. 125Conclusion générale et perspectives La première contribution de cette thèse concerne l’intégration à la méthode des coupes de graphe d’un modèle de forme robuste représentant les variations de l’ensemble d’apprentissage. La modélisation des formes de la base d’apprentissage est réalisée à partir d’une représentation par la fonction distance signée, et l’étude de leurs variations à partir d’une analyse en composantes principales. Nous avons montré que l’utilisation de la fonction distance permettait de représenter correctement les variabilités des formes en la comparant à un modèle de distribution de points. L’avantage de cette représentation réside dans le fait qu’elle ne nécessite ni la mise en place de points de correspondances, sujets à la variabilité, ni leurs alignements. De plus, elle est plus robuste que le PDM à un désalignement initial des formes. Afin de pouvoir intégrer cette modélisation au graphe, une carte d’a priori est déduite des données de l’ACP et recalée sur l’image à partir d’une interaction faible avec l’utilisateur (deux points anatomiques à positionner sur la cloison interventriculaire). Nous avons proposé que l’a priori de forme contribue à pondérer à la fois les t-links et les n-links à travers un terme original d’a priori dans la fonctionnelle d’énergie. Les résultats obtenus sur la segmentation du VD en IRM cardiaques montrent l’efficacité de notre méthode, même si des améliorations sont possibles pour les coupes apicales. Notre deuxième contribution est une deuxième méthode segmentation qui permet : (i) la segmentation conjointe de plusieurs objets, (ii) l’amélioration de la précision du modèle, en particulier pour les coupes difficiles, (iii) l’automatisation de la méthode. Nous avons ainsi proposé une méthode de segmentation multi-objets automatique et non-itérative basée sur les GC multi-labels et intégrant un a priori de forme basé sur des atlas. Notre première étape est basée sur le recalage non-rigide des atlas par GC multi-labels sur l’image à segmenter, une technique récente qui n’a pas encore été très étudiée dans la littérature, et qui permet d’automatiser la méthode. La fusion des atlas a alors permis de créer une carte d’a priori de formes pour chaque label. L’intégration d’a priori dans un graphe multi-objets à des fins de segmentation n’a pas encore été étudiée dans la littérature. Notre contribution porte ainsi sur l’intégration d’un terme d’a priori de forme aux t-links et l’ajout d’une contrainte aux n-links empêchant un objet inclus dans un autre d’avoir une frontière commune avec tout autre objet. Cette méthode automatique permet d’obtenir de bons résultats de segmentation, comparables à la première méthode que nous avons proposée, avec comme avantage la possibilité de segmenter plusieurs objets, et l’automaticité totale. Enfin, nous avons comparé nos méthodes à celles de la littérature à partir du challenge de segmentation du VD MICCAI’12 que nous avons organisé. Nos méthodes permettent d’at- 126Conclusion générale et perspectives teindre un score de Dice de l’ordre de 80% pour une distance de Hausdorff d’environ 8 mm pour notre méthode semi-automatique et 11 mm pour notre méthode automatique, et se comparent favorablement aux autre méthodes de la littérature. De plus, les performances concernant les paramètres cliniques montrent que nos méthodes n’ont pas de biais fixe et que notre méthode automatique permet d’obtenir des fractions d’éjection proches de la vérité terrain lorsque les autres méthodes surestiment ce paramètre (surestimant de fait la santé d’un patient). Cependant, un temps de calcul plus important est nécessaire à notre méthode, qui pourrait être fortement réduit en optimisant l’implémentation. Ainsi, ce travail de recherche ouvre des perspectives multiples d’un point de vue méthodologique mais également médical : (i) Une question fondamentale concerne le choix des atlas dans la détermination de l’a priori de forme. Nous avons validé et comparé notre méthode automatique à partir de la base du challenge MICCAI’12, dont la base d’apprentissage est composé de 16 patients. Or ces 16 patients sont de genres différents, et ont des caractéristiques telles que le poids, la taille ou l’âge également différentes. Il serait intéressant d’étudier les résultats de segmentation obtenus en cas d’ajout de critères de sélection des atlas en fonction du patient considéré, en particulier pour le genre (le cœur est de plus petite taille chez la femme) et la corpulence. Dans une moindre mesure, cette remarque est également vraie pour notre méthode semi-automatique lors de la création des variations des formes par ACP. (ii) Pour la segmentation par GC multi-objets, nous avons ajouté une unique contrainte d’inclusion aux n-links. Or, de nombreuses contraintes pourraient avoir des effets bénéfiques sur les résultats de segmentation : par exemple la courbure des contours, la compacité des formes ou même encore l’attractivité entre deux formes. Cependant, la contrainte de sous-modularité induite par la méthode des GC rend difficile l’ajout de contraintes supplémentaires. Cette même contrainte a d’ailleurs limité la force maximale de notre contrainte d’inclusion. Cependant, une publication relativement récente [214] propose une nouvelle méthode d’approximation de la minimisation de l’énergie du graphe, appelé Alpha-Expansion Beta-Shrink Moves, et ne nécessitant aucune contrainte sur la fonctionnelle d’énergie. Cette minimisation ouvre ainsi de nouvelles perspectives concernant l’ajout d’a priori au terme des n-links. 127Conclusion générale et perspectives (iii) Il est envisageable d’étendre nos méthodes en 3D. En effet, l’ajout d’une dimension aux données ne change pas le cadre général de nos méthodologies. Pour notre première mé- thode, l’ACP peut être réalisée sur la matrice de covariance 3D des distances aux contours des volumes et le graphe défini en 3D. Pour la seconde méthode, il s’agirait de réaliser le recalage et la segmentation en 3D, en définissant des graphes 3D. L’étude des résultats obtenus en 3D permettrait de définir si le compromis entre la précision de segmentation et le temps de calcul est avantageux par rapport à la segmentation en 2D. L’ajout de cette troisième dimension est bien sûr corrélé à l’utilisation de données 3D : notre base d’IRM cardiaques n’était pas adaptée à ce type de traitement du fait du fort écart entre les coupes et de leur épaisseur, il faudrait utiliser une base de données "réellement" 3D. (iv) De manière plus générale, les travaux récents sur l’espace de représentation des formes par manifold learning ainsi que les approches patch-based permettant l’intégration d’a priori de forme sans la nécessité de phase de recalage sont des pistes intéressantes, afin de modéliser les variations des formes et permettre leurs intégrations à une méthode de segmentation sans une étape coûteuse de recalage. (v) Les perspectives médicales concernent tout d’abord la poursuite de la validation clinique des méthodes sur un large corpus, afin de pouvoir les utiliser comme outils en routine clinique. Il est également envisageable d’étendre la méthode à la segmentation de toutes les images du cycle cardiaque, en prenant en compte par exemple l’information temporelle dans un terme énergétique supplémentaire. De plus, nos méthodes ont été validées sur l’application d’imagerie cardiaque, mais le caractère générique de celles-ci permet de les transposer à d’autres contextes de segmentation, comme par exemple la prostate (IRM et scanner) ou le foie (scanner). 128Liste des publications Journaux internationaux Grosgeorge, D., Petitjean, C., Dacher, J. N., et Ruan, S. (2013). Graph cut segmentation with a statistical shape model in cardiac MRI. Computer Vision and Image Understanding, 117(9), 1027-1035. Grosgeorge, D., Petitjean, C., Dubray, B., et Ruan, S. (2013). Esophagus Segmentation from 3D CT Data Using Skeleton Prior-Based Graph Cut. Computational and Mathematical Methods in Medicine. Grosgeorge, D., Petitjean, C., Caudron, J., Fares, J., et Dacher, J. N. (2011). Automatic cardiac ventricle segmentation in MR images : a validation study. International Journal of Computer Assisted Radiology and Surgery, 6(5), 573-581. Conférences internationales Grosgeorge, D., Petitjean, C., et Ruan, S. (2014). Joint Segmentation of Right and Left Cardiac Ventricles Using Multi-Label Graph Cut. IEEE International Symposium on Biomedical Imaging, Beijing : Chine. Grosgeorge, D., Petitjean, C., Ruan, S., Caudron, J., et Dacher, J. N. (2012). Right ventricle segmentation by graph cut with shape prior. 3D Cardiovascular Imaging : a MICCAI Segmentation Challenge, Nice : France. 129Conclusion générale et perspectives Participation à l’organisation du challenge de segmentation MICCAI ’12 : Petitjean, C., Ruan, S., Grosgeorge, D., Caudron, J., et Dacher, J. N. (2012). Right ventricle segmentation in cardiac MRI : a MICCAI’12 challenge. 3D Cardiovascular Imaging : a MICCAI Segmentation Challenge, Nice : France. Conférences nationales Grosgeorge, D., Petitjean, C., et Ruan, S. (2014). Segmentation par coupes de graphe multilabels avec a priori de forme. Accepté à Reconnaissance des Formes et Intelligence Artificielle 2014. Grosgeorge, D., Petitjean, C., et Ruan, S. (2012). Segmentation d’images par coupe de graphe avec a priori de forme. In Actes de la conférence Reconnaissance des Formes et Intelligence Artificielle 2012. Petitjean, C., Ruan, S., Grosgeorge, D., Caudron, J., et Dacher, J. N. (2012). Segmentation Semi-Automatique du Ventricule Droit en IRM Cardiaque. Journées Françaises de Radiologie (JFR’2012), Paris, France, 23 octobre. Article soumis Petitjean, C., Zuluaga, M., Dacher, J. N., Grosgeorge, D., Caudron, J., Bai, W., Ben Ayed, I., Cardoso, J., Chen, H.C., Jimenez-Carretero, D., Ledesma-Carbayo, M., Davatzikos, C., Doshi, J., Erus, G., Maier, O., Nambakhsh, C., Ou, Y., Ourselin, S., Peng, C.W., Peters, N., Peters, T., Rajchl, M., Rueckert, D., Santos, A., Shi, W., Wang, C.W., Wang, H., Yuan, J. et Ruan, S. (2014). Right Ventricle Segmentation From Cardiac MRI : A Collation Study. Soumis à Medical Image Analysis. 130Annexe A.1 Volumétrie du VG : compléments A.1.1 Appréciation semi-quantitative du VG Une nomenclature standardisée permet une appréciation semi-quantitative de la contraction du VG, présentée à la Figure A.1. L’appréciation qualitative de la contraction segmentaire est fortement utilisée en routine clinique par sa simplicité, bien que des outils de quantification précis existent, comme expliqués dans les parties 1 - 2.2 et 1 - 2.3 . A.1.2 Méthode planaire 2D grand-axe Deux principes de quantification peuvent être utilisés sur les coupes grand-axe, la méthode ’surface-longueur’ et la méthode Simpson (voir Figure A.2). Pour la méthode ’surface-longueur’ ou ALEF (Area-Length Ejection Fraction), le VG est modélisé par une ellipsoïde de révolution et son volume est calculé par la formule suivante : VV G = 8.SA.SB 3.π.L (1) avec SA (respectivement SB) l’ellipse de la cavité du VG sur la coupe verticale grand axe (respectivement coupe grand-axe 4-cavités) dont l’endocarde doit être tracé manuellement (voir Figure A.3, L la longueur du grand axe. Si un seul plan de coupe a été réalisé, on peut considérer SB = SA, la technique est alors appelée monoplan. Cette méthode est très rapide, et ne nécessite que deux tracés, un en diastole et un en systole, pour calculer la fraction d’éjection de la façon suivante : F EV G = VV Gdiastole − VV Gsystole VV Gdiastole (2) 131Annexe Figure A.1 – Appréciation semi-quantitative du VG. En haut : la classification en 17 segments de l’ASE du VG, représenté en carte polaire ; en bas : illustrations du calcul d’un indice global de dysfonction à partir de score qualitatif de chaque segment (d’après [15]). La fraction d’éjection du VG doit être supérieure à 55-60%. Cependant, cette méthode est très approximative bien que très rapide, et ne permet pas l’accès à une bonne quantification en cas de déformation anévrysmale ou anomalie de la contraction segmentaire (méthode non-adaptée aux cardiopathies ischémiques). Une alternative un peu plus précise est proposée par la méthode des disques de simpson (Figure A.2), qui ne repose non plus sur une ellipse dans son grand axe, mais au tracé d’un ensemble de disques sur l’incidence grand-axe. Le modèle peut être appliqué en biplan (modélisation de disques par des ellipses) ou en monoplan (modélisation circulaire). Cependant, cette méthode reste tout de même moins précise que la méthode 3D puisqu’elle repose sur une modélisation du ventricule. 132A.1 Volumétrie du VG : compléments Figure A.2 – Illustration de la méthode de quantification du volume du VG ’surface-longueur’ (à gauche) et méthode de Simpson (à droite) (d’après [15]). Figure A.3 – Exemple de tracé manuel de la cavité du VG, avec la convention que les piliers sont exclus du contour, ils sont donc inclus dans la cavité ventriculaire gauche (d’après [15]). 133Annexe 134Références bibliographiques [1] V. Roger, A. Go, D. Lloyd-Jones, E. Benjamin, J. Berry, W. Borden, D. Bravata, S. Dai, E. Ford, C. Fox, et al. Heart disease and stroke statistics- 2012 update a report from the american heart association. Circulation 125(1), e2–e220 (2012). 1, 11 [2] F. Haddad, S. Hunt, D. Rosenthal, and D. Murphy. Right ventricular function in cardiovascular disease, part i anatomy, physiology, aging, and functional assessment of the right ventricle. Circulation 117(11), 1436–1448 (2008). 1, 11, 38 [3] A. Attili, A. Schuster, E. Nagel, J. Reiber, and R. van der Geest. Quanti- fication in cardiac mri : advances in image acquisition and processing. The international journal of cardiovascular imaging 26(1), 27–40 (2010). 1, 11, 38 [4] Y. Boykov and M-P Jolly. Interactive graph cuts for optimal boundary & region segmentation of objects in nd images. , 1, pages 105–112 (2001). 1, 43, 47, 49, 50, 75, 76, 79 [5] T. Cootes, C. Taylor, D. Cooper, and J. Graham. Active shape models-their training and application. Computer vision and image understanding 61(1), 38–59 (1995). 2, 34, 35, 61 [6] FH Netter. Coarctation of the aorta. Heart. The CIBA collection of medical illustrations 5 (1969). 6 [7] C. Petitjean. Recalage non rigide d’images par approches variationnelles statistiquesApplication à l’analyse et à la modélisation de la fonction myocardique en IRM. Thèse de Doctorat, Université René Descartes-Paris V (2003). 7, 10, 11, 12 [8] J. Declerck. Etude de la dynamique cardiaque par analyse d’images tridimensionnelles. Thèse de Doctorat, Université de Nice Sophia-Antipolis (1997). 8 135Références bibliographiques [9] M. Cerqueira, N. Weissman, V. Dilsizian, A. Jacobs, S. Kaul, W. Laskey, D. Pennell, J. Rumberger, T. Ryan, M. Verani, et al. Standardized myocardial segmentation and nomenclature for tomographic imaging of the heart a statement for healthcare professionals from the cardiac imaging committee of the council on clinical cardiology of the american heart association. Circulation 105(4), 539–542 (2002). 9 [10] C. Henuzet and P. Franken. Apports de l’echocardiographie a l’etude de la fonction ventriculaire gauche. Ann Cardiol Angeiol (Paris) 28(1), 53–60 (1979). 9 [11] O. Vignaux et al. Imagerie cardiaque : scanner et IRM. Masson (2005). 10, 11 [12] A. Duerinckx and N. Kumar. One-stop mr evaluates function and perfusion-mri approach to cardiac imaging provides noninvasive diagnostic information about ischemic disease. Diagnostic Imaging-Cardiovascular Imaging Supplement (2000). 11 [13] S. Allender, P. Scarborough, V. Peto, M. Rayner, J. Leal, R. LuengoFernandez, and A. Gray. European cardiovascular disease statistics. European Heart Network 3, 11–35 (2008). 11 [14] J. Caudron, J. Fares, F. Bauer, and J-N Dacher. Evaluation of left ventricular diastolic function with cardiac mr imaging. Radiographics 31(1), 239–259 (2011). 11 [15] Ph Germain, A. Koenig, G. Rochoux, Ch Jahn, PM Coulbois, B. Frenzel, and MY Jeung. Recueil d’IRM cardiaque - Principes, sémiologie & collection d’observations cliniques. Cardiologie - Radiologie, équipe de Strasbourg. www.irmcardiaque.com. 12, 14, 15, 17, 18, 19, 20, 21, 22, 26, 132, 133 [16] J. Vogel-Claussen, J. Finn, A. Gomes, G. Hundley, M. Jerosch-Herold, G. Pearson, S. Sinha, J. Lima, and D. Bluemke. Left ventricular papillary muscle mass : relationship to left ventricular mass and volumes by magnetic resonance imaging. Journal of computer assisted tomography 30(3), 426–432 (2006). 16 [17] S. Petersen, L. Hudsmith, M. Robson, H. Doll, J. Francis, F. Wiesmann, B. Jung, J. Hennig, H. Watkins, and S. Neubauer. Sex-specific characteristics of cardiac function, geometry, and mass in young adult elite athletes. Journal of Magnetic Resonance Imaging 24(2), 297–303 (2006). 16, 17 [18] J. Scharhag, G. Schneider, A. Urhausen, V. Rochette, B. Kramann, and W. Kindermann. Athlete’s heartright and left ventricular mass and function in male endurance athletes and untrained individuals determined by magnetic resonance imaging. Journal of the American College of Cardiology 40(10), 1856–1863 (2002). 16 [19] S. Natori, S. Lai, J. Finn, A. Gomes, W. Hundley, M. Jerosch-Herold, G. Pearson, S. Sinha, A. Arai, J. Lima, et al. Cardiovascular function in multiethnic study of atherosclerosis : normal values by age, sex, and ethnicity. American Journal of Roentgenology 186(6_supplement_2), S357–S365 (2006). 17 136Références bibliographiques [20] S. Clay, K. Alfakih, A. Radjenovic, T. Jones, and J. Ridgway. Normal range of human left ventricular volumes and mass using steady state free precession mri in the radial long axis orientation. Magnetic Resonance Materials in Physics, Biology and Medicine 19(1), 41–45 (2006). 17 [21] P. Bottini, A. Carr, L. Prisant, F. Flickinger, J. Allison, and J. Gottdiener. Magnetic resonance imaging compared to echocardiography to assess left ventricular mass in the hypertensive patient. American journal of hypertension 8(3), 221–228 (1995). 17 [22] K. Alfakih, T. Bloomer, S. Bainbridge, G. Bainbridge, J. Ridgway, G. Williams, and M. Sivananthan. A comparison of left ventricular mass between two-dimensional echocardiography, using fundamental and tissue harmonic imaging, and cardiac mri in patients with hypertension. European journal of radiology 52(2), 103–109 (2004). 17 [23] K. Alfakih, S. Plein, H. Thiele, T. Jones, J. Ridgway, and M. Sivananthan. Normal human left and right ventricular dimensions for mri as assessed by turbo gradient echo and steady-state free precession imaging sequences. Journal of Magnetic Resonance Imaging 17(3), 323–329 (2003). 21 [24] D. Robbers-Visser, E. Boersma, and W. Helbing. Normal biventricular function, volumes, and mass in children aged 8 to 17 years. Journal of Magnetic Resonance Imaging 29(3), 552–559 (2009). 21 [25] C. Higgins and MD Albert de Roos. MRI and CT of the cardiovascular system. Wolters Kluwer Health (2006). 24 [26] B. Kastler, A. Livolsi, D. Vetter, C. Clair, P. Germain, and L. Donato. IRM des malformations cardiovasculaires. Elsevier (2001). 26 [27] RJ Van der Geest, E Jansen, VGM Buller, and JHC Reiber. Automated detection of left ventricular epi-and endocardial contours in short-axis mr images. In Computers in Cardiology 1994, pages 33–36. IEEE (1994). 26, 30 [28] T. O’Donnell, G. Funka-Lea, H. Tek, M-P Jolly, M. Rasch, and R. Setser. Comprehensive cardiovascular image analysis using mr and ct at siemens corporate research. International journal of computer vision 70(2), 165–178 (2006). 27 [29] R. van Geuns, T. Baks, E. Gronenschild, J-P Aben, P. Wielopolski, F. Cademartiri, and P. de Feyter. Automatic quantitative left ventricular analysis of cine mr images by using three-dimensional information for contour detection1. Radiology 240(1), 215–221 (2006). 27 [30] C. Petitjean and J-N Dacher. A review of segmentation methods in short axis cardiac mr images. Medical Image Analysis 15(2), 169–184 (2011). 27, 29 137Références bibliographiques [31] A. Goshtasby and D. Turner. Segmentation of cardiac cine mr images for extraction of right and left ventricular chambers. Medical Imaging, IEEE Transactions on 14(1), 56–64 (1995). 30 [32] J. Weng, A. Singh, and MY Chiu. Learning-based ventricle detection from cardiac mr and ct images. Medical Imaging, IEEE Transactions on 16(4), 378–391 (1997). [33] E. Nachtomy, R. Cooperstein, M. Vaturi, E. Bosak, Z. Vered, and S. Akselrod. Automatic assessment of cardiac function from short-axis mri : procedure and clinical evaluation. Magnetic resonance imaging 16(4), 365–376 (1998). 30, 31 [34] A. Katouzian, A. Prakash, and E. Konofagou. A new automated technique for left-and right-ventricular segmentation in magnetic resonance imaging. In Engineering in Medicine and Biology Society, 2006. EMBS’06. 28th Annual International Conference of the IEEE, pages 3074–3077 (2006). 30 [35] A. Gupta, L. Von Kurowski, A. Singh, D. Geiger, C-C Liang, M-Y Chiu, LP Adler, M. Haacke, and DL Wilson. Cardiac mr image segmentation using deformable models. In Computers in Cardiology 1993, Proceedings., pages 747–750. IEEE (1993). 30, 33 [36] D. Geiger, A. Gupta, L. Costa, and J. Vlontzos. Dynamic programming for detecting, tracking, and matching deformable contours. Pattern Analysis and Machine Intelligence, IEEE Transactions on 17(3), 294–302 (1995). 33 [37] M. Üzümcü, R. van der Geest, C. Swingen, J. Reiber, and B. Lelieveldt. Time continuous tracking and segmentation of cardiovascular magnetic resonance images using multidimensional dynamic programming. Investigative radiology 41(1), 52–62 (2006). 30, 31, 41 [38] N. Liu, S. Crozier, S. Wilson, F. Liu, B. Appleton, A. Trakic, Q. Wei, W. Strugnell, R. Slaughter, and R. Riley. Right ventricle extraction by low level and model-based algorithm. In Engineering in Medicine and Biology Society, 2005. IEEE-EMBS 2005. 27th Annual International Conference of the, pages 1607–1610 (2006). 30 [39] A. Lalande, L. Legrand, P. Walker, F. Guy, Y. Cottin, S. Roy, and F. Brunotte. Automatic detection of left ventricular contours from cardiac cine magnetic resonance imaging using fuzzy logic. Investigative radiology 34(3), 211–217 (1999). 30 [40] JC Fu, JW Chai, and S. Wong. Wavelet-based enhancement for detection of left ventricular myocardial boundaries in magnetic resonance images. Magnetic resonance imaging 18(9), 1135–1141 (2000). 30 [41] J-Y Yeh, JC Fu, CC Wu, HM Lin, and JW Chai. Myocardial border detection by branch-and-bound dynamic programming in magnetic resonance images. Computer methods and programs in biomedicine 79(1), 19–29 (2005). 30 138Références bibliographiques [42] J Cousty, L. Najman, M. Couprie, S. Clément-Guinaudeau, T. Goissen, and J. Garot. Segmentation of 4d cardiac mri : Automated method based on spatio-temporal watershed cuts. Image and Vision Computing 28(8), 1229–1243 (2010). 30, 41 [43] M-P Jolly, H. Xue, L. Grady, and J. Guehring. Combining registration and minimum surfaces for the segmentation of the left ventricle in cardiac cine mr images. In Medical Image Computing and Computer-Assisted Intervention–MICCAI 2009, pages 910–918. (2009). 30, 40, 41 [44] X. Lin, B. Cowan, and A. Young. Automated detection of left ventricle in 4d mr images : experience from a large study. In Medical Image Computing and ComputerAssisted Intervention–MICCAI 2006, pages 728–735. (2006). 30, 40 [45] G. Waiter, F. McKiddie, T. Redpath, S. Semple, and R. Trent. Determination of normal regional left ventricular function from cine-mr images using a semi-automated edge detection method. Magnetic resonance imaging 17(1), 99–107 (1999). 30 [46] C. Cassen, JP Domenger, JP Braquelaire, and JL Barat. Left ventricular segmentation in mri images. In Image and Signal Processing and Analysis, 2001. ISPA 2001. Proceedings of the 2nd International Symposium on, pages 244–249. IEEE (2001). 30 [47] N. Noble, D. Hill, M. Breeuwer, J. Schnabel, D. Hawkes, F. Gerritsen, and R. Razavi. Myocardial delineation via registration in a polar coordinate system. In Medical Image Computing and Computer-Assisted Intervention-MICCAI 2002, pages 651–658. (2002). 30, 39 [48] G. Stalidis, N. Maglaveras, S. Efstratiadis, A. Dimitriadis, and C. Pappas. Model-based processing scheme for quantitative 4-d cardiac mri analysis. Information Technology in Biomedicine, IEEE Transactions on 6(1), 59–72 (2002). 31 [49] G. Kedenburg, C. Cocosco, U. Köthe, W. Niessen, E. Vonken, and M. Viergever. Automatic cardiac mri myocardium segmentation using graphcut. In Medical Imaging, pages 61440A–61440A. International Society for Optics and Photonics (2006). 31 [50] M. Hadhoud, M. Eladawy, A. Farag, F. Montevecchi, and U. Morbiducci. Left ventricle segmentation in cardiac mri images. American Journal of Biomedical Engineering 2(3), 131–135 (2012). 31 [51] J. Margeta, E. Geremia, A. Criminisi, and N. Ayache. Layered spatio-temporal forests for left ventricle segmentation from 4d cardiac mri data. In Statistical Atlases and Computational Models of the Heart. Imaging and Modelling Challenges, pages 109–119. (2012). 31 139Références bibliographiques [52] A. Dempster, N. Laird, and D. Rubin. Maximum likelihood from incomplete data via the em algorithm. Journal of the Royal Statistical Society. Series B (Methodological) pages 1–38 (1977). 32 [53] A. Pednekar, U. Kurkure, R. Muthupillai, S. Flamm, and I. Kakadiaris. Automated left ventricular segmentation in cardiac mri. Biomedical Engineering, IEEE Transactions on 53(7), 1425–1428 (2006). 32, 39 [54] J. Senegas, C. Cocosco, and T. Netsch. Model-based segmentation of cardiac mri cine sequences : a bayesian formulation. In Medical Imaging 2004, pages 432–443. International Society for Optics and Photonics (2004). 32, 35, 41 [55] D. Gering. Automatic segmentation of cardiac mri. In Medical Image Computing and Computer-Assisted Intervention-MICCAI 2003, pages 524–532. (2003). 32 [56] M. Lynch, O. Ghita, and P. Whelan. Automatic segmentation of the left ventricle cavity and myocardium in mri data. Computers in Biology and Medicine 36(4), 389–407 (2006). 32, 39, 41 [57] A. Boudraa. Automated detection of the left ventricular region in magnetic resonance images by fuzzy c-means model. The International Journal of Cardiac Imaging 13(4), 347–355 (1997). 32 [58] M. Kass, A. Witkin, and D. Terzopoulos. Snakes : Active contour models. International journal of computer vision 1(4), 321–331 (1988). 32 [59] S. Osher and J. Sethian. Fronts propagating with curvature-dependent speed : algorithms based on hamilton-jacobi formulations. Journal of computational physics 79(1), 12–49 (1988). 32 [60] S. Ranganath. Contour extraction from cardiac mri studies using snakes. Medical Imaging, IEEE Transactions on 14(2), 328–338 (1995). 33 [61] N. Paragios. A variational approach for the segmentation of the left ventricle in mr cardiac images. In Variational and Level Set Methods in Computer Vision, 2001. Proceedings. IEEE Workshop on, pages 153–160 (2001). 33 [62] C. Pluempitiwiriyawej, J. Moura, YJ Wu, and C. Ho. Stacs : New active contour scheme for cardiac mr image segmentation. Medical Imaging, IEEE Transactions on 24(5), 593–603 (2005). [63] A. Chakraborty, L. Staib, and J. Duncan. Deformable boundary finding in medical images by integrating gradient and region information. Medical Imaging, IEEE Transactions on 15(6), 859–870 (1996). 33 [64] X. Wang, Q. Hu, and P. Heng. Left ventricle segmentation with mixture of gaussian active contours. In Biomedical Imaging (ISBI), 2012 9th IEEE International Symposium on, pages 230–233 (2012). 33 140Références bibliographiques [65] C. Xu and J. Prince. Snakes, shapes, and gradient vector flow. Image Processing, IEEE Transactions on 7(3), 359–369 (1998). 33 [66] QC Pham, FCPCP Vincent, P. Clarysse, P. Croisille, and IE Magnin. A fem-based deformable model for the 3d segmentation and tracking of the heart in cardiac mri. In Image and Signal Processing and Analysis, ISPA 2001. Proceedings of the 2nd International Symposium on, pages 250–254. IEEE (2001). 33, 39 [67] MF Santarelli, V. Positano, C. Michelassi, M. Lombardi, and L. Landini. Automated cardiac mr image segmentation : theory and measurement evaluation. Medical engineering & physics 25(2), 149–159 (2003). [68] Y. Wang and Y. Jia. Segmentation of the left ventricle from cardiac mr images based on degenerated minimal surface diffusion and shape priors. , 4, pages 671–674. IEEE (2006). [69] R. El Berbari, I. Bloch, A. Redheuil, E. Angelini, E. Mousseaux, F. Frouin, and A. Herment. An automated myocardial segmentation in cardiac mri. In Engineering in Medicine and Biology Society, 2007. EMBS 2007. 29th Annual International Conference of the IEEE, pages 4508–4511 (2007). 41 [70] N. Paragios. A variational approach for the segmentation of the left ventricle in cardiac image analysis. International Journal of Computer Vision 50(3), 345–362 (2002). 33 [71] I. Ben Ayed, S. Li, and I. Ross. Embedding overlap priors in variational left ventricle tracking. Medical Imaging, IEEE Transactions on 28(12), 1902–1913 (2009). 33, 39 [72] L. Staib and J. Duncan. Boundary finding with parametrically deformable models. IEEE transactions on pattern analysis and machine intelligence 14(11), 1061 (1992). 33 [73] P. Gotardo, K. Boyer, J. Saltz, and S. Raman. A new deformable model for boundary tracking in cardiac mri and its application to the detection of intra-ventricular dyssynchrony. , 1, pages 736–743 (2006). 33, 39 [74] L. Zhukov, Z. Bao, I. Guskov, J. Wood, and D. Breen. Dynamic deformable models for 3d mri heart segmentation. , 4684, page 1398 (2002). 33 [75] J. Montagnat and H. Delingette. 4d deformable models with temporal constraints : application to 4d cardiac image segmentation. Medical Image Analysis 9(1), 87–100 (2005). 33 [76] E. Heiberg, L. Wigstrom, M. Carlsson, AF Bolger, and M. Karlsson. Time resolved three-dimensional automated segmentation of the left ventricle. In Computers in Cardiology, 2005, pages 599–602. IEEE (2005). 33 [77] M. Lynch, O. Ghita, and P. Whelan. Segmentation of the left ventricle of the heart in 3-d+ t mri data using an optimized nonrigid temporal model. Medical Imaging, IEEE Transactions on 27(2), 195–203 (2008). 33 141Références bibliographiques [78] N. Paragios, M. Rousson, and V. Ramesh. Knowledge-based registration & segmentation of the left ventricle : a level set approach. In Applications of Computer Vision, 2002.(WACV 2002). Proceedings. Sixth IEEE Workshop on, pages 37–42 (2002). 33, 35, 39 [79] X. Papademetris, A. Sinusas, D. Dione, R. Constable, and J. Duncan. Estimation of 3-d left ventricular deformation from medical images using biomechanical models. Medical Imaging, IEEE Transactions on 21(7), 786–800 (2002). 33 [80] M. Sermesant, P. Moireau, O. Camara, J. Sainte-Marie, R. Andriantsimiavona, R. Cimrman, D. Hill, D. Chapelle, and R. Razavi. Cardiac function estimation from mri using a heart model and data assimilation : advances and difficulties. Medical Image Analysis 10(4), 642–656 (2006). [81] P. Yan, A. Sinusas, and J. Duncan. Boundary element method-based regularization for recovering of lv deformation. Medical image analysis 11(6), 540–554 (2007). [82] F. Billet, M. Sermesant, H. Delingette, and N. Ayache. Cardiac motion recovery and boundary conditions estimation by coupling an electromechanical model and cine-mri data. In Functional Imaging and Modeling of the Heart, pages 376–385. (2009). [83] C. Casta, P. Clarysse, J. Schaerer, and J. Pousin. Evaluation of the dynamic deformable elastic template model for the segmentation of the heart in mri sequences. The MIDAS Journal, Cardiac MR Left Ventricle Segmentation Challenge, London, UK (2009). 33, 40, 41 [84] D. Cremers, M. Rousson, and R. Deriche. A review of statistical approaches to level set segmentation : integrating color, texture, motion and shape. International journal of computer vision 72(2), 195–215 (2007). 34, 61 [85] A. Tsai, A. Yezzi Jr, W. Wells, C. Tempany, D. Tucker, A. Fan, W. Grimson, and A. Willsky. A shape-based approach to the segmentation of medical imagery using level sets. Medical Imaging, IEEE Transactions on 22(2), 137–154 (2003). 34, 35, 64, 65, 66, 70 [86] G. Christensen. Consistent linear-elastic transformations for image matching. In Information processing in medical imaging, pages 224–237 (1999). [87] B. Frey and N. Jojic. Estimating mixture models of images and inferring spatial transformations using the em algorithm. , 1 (1999). [88] E. Miller, N. Matsakis, and P. Viola. Learning from one example through shared densities on transforms. , 1, pages 464–471 (2000). 142Références bibliographiques [89] T. Vetter, M. Jones, and T. Poggio. A bootstrapping algorithm for learning linear models of object classes. In Computer Vision and Pattern Recognition, 1997. Proceedings., 1997 IEEE Computer Society Conference on, pages 40–46 (1997). 34 [90] M. Leventon, W. Grimson, and O. Faugeras. Statistical shape influence in geodesic active contours. , 1, pages 316–323 (2000). 34, 61, 62, 63, 64, 68 [91] T. Heimann and H-P Meinzer. Statistical shape models for 3d medical image segmentation : A review. Medical image analysis 13(4), 543–563 (2009). 35 [92] T. Rohlfing, R. Brandt, R. Menzel, D. Russakoff, and C. Maurer Jr. Quo vadis, atlas-based segmentation ? In Handbook of Biomedical Image Analysis, pages 435– 486. (2005). 35 [93] M. Lynch, O. Ghita, and P. Whelan. Left-ventricle myocardium segmentation using a coupled level-set with a priori knowledge. Computerized Medical Imaging and Graphics 30(4), 255–262 (2006). 35, 41 [94] X. Lin, B. Cowan, and A. Young. Model-based graph cut method for segmentation of the left ventricle. In Engineering in Medicine and Biology Society, 2005. IEEE-EMBS 2005. 27th Annual International Conference of the, pages 3059–3062 (2006). 35 [95] M. Kaus, J. Berg, J. Weese, W. Niessen, and V. Pekar. Automated segmentation of the left ventricle in cardiac mri. Medical Image Analysis 8(3), 245–254 (2004). 35, 41 [96] W. Sun, M. Çetin, R. Chan, V. Reddy, G. Holmvang, V. Chandar, and A. Willsky. Segmenting and tracking the left ventricle by learning the dynamics in cardiac images. In Information Processing in Medical Imaging, pages 553–565 (2005). 35 [97] T. Cootes, C. Beeston, G. Edwards, and C. Taylor. A unified framework for atlas matching using active appearance models. In Information Processing in Medical Imaging, pages 322–333 (1999). 36, 62 [98] S. Mitchell, B. Lelieveldt, R. van der Geest, J. Schaap, J. Reiber, and M. Sonka. Segmentation of cardiac mr images : An active appearance model approach. In Medical Imaging 2000, pages 224–234. International Society for Optics and Photonics (2000). 36 [99] M. Stegmann, J. Nilsson, and B. Grønning. Automated segmentation of cardiac magnetic resonance images. (2001). 36 [100] S. Mitchell, B. Lelieveldt, R. van der Geest, H. Bosch, JHC Reiver, and M. Sonka. Multistage hybrid active appearance model matching : segmentation of left and right ventricles in cardiac mr images. Medical Imaging, IEEE Transactions on 20(5), 415–423 (2001). 36, 37, 41 143Références bibliographiques [101] S. Zambal, J. Hladuvka, and K. Bühler. Improving segmentation of the left ventricle using a two-component statistical model. In Medical Image Computing and Computer-Assisted Intervention–MICCAI 2006, pages 151–158. (2006). 36 [102] H. Zhang, A. Wahle, R. Johnson, T. Scholz, and M. Sonka. 4-d cardiac mr image analysis : left and right ventricular morphology and function. Medical Imaging, IEEE Transactions on 29(2), 350–364 (2010). 36, 38, 41 [103] M. Üzümcü, A. Frangi, M. Sonka, J. Reiber, and B. Lelieveldt. Ica vs. pca active appearance models : Application to cardiac mr segmentation. In Medical Image Computing and Computer-Assisted Intervention-MICCAI 2003, pages 451–458. (2003). 36 [104] S. Ordas, L. Boisrobert, M. Huguet, and AF Frangi. Active shape models with invariant optimal features (iof-asm) application to cardiac mri segmentation. In Computers in Cardiology, 2003, pages 633–636. IEEE (2003). 36, 41 [105] J. Abi-Nahed, M-P Jolly, and G-Z Yang. Robust active shape models : A robust, generic and simple automatic segmentation tool. In Medical Image Computing and Computer-Assisted Intervention–MICCAI 2006, pages 1–8. (2006). 36, 41 [106] C. Nambakhsh, T. Peters, A. Islam, and I. Ayed. Right ventricle segmentation with probability product kernel constraints. In Medical Image Computing and ComputerAssisted Intervention–MICCAI 2013, pages 509–517. (2013). 36, 41 [107] M. ElBaz and A. Fahmy. Active shape model with inter-profile modeling paradigm for cardiac right ventricle segmentation. In Medical Image Computing and Computer-Assisted Intervention–MICCAI 2012, pages 691–698. (2012). 36 [108] B. Lelieveldt, R. van der Geest, J. Reiber, J. Bosch, S. Mitchell, and M. Sonka. Time-continuous segmentation of cardiac image sequences using active appearance motion models. In Information Processing in Medical Imaging, pages 446–452 (2001). 36, 41 [109] S. Mitchell, J. Bosch, B. Lelieveldt, R. van der Geest, J. Reiber, and M. Sonka. 3-d active appearance models : segmentation of cardiac mr and ultrasound images. Medical Imaging, IEEE Transactions on 21(9), 1167–1178 (2002). 36, 41 [110] M. Stegmann and D. Pedersen. Bi-temporal 3d active appearance models with applications to unsupervised ejection fraction estimation. In Medical imaging, pages 336– 350. International Society for Optics and Photonics (2005). [111] H. Van Assen, M. Danilouchkine, A. Frangi, S. Ordás, J. Westenberg, J. Reiber, and B. Lelieveldt. Spasm : a 3d-asm for segmentation of sparse and arbitrarily oriented cardiac mri data. Medical Image Analysis 10(2), 286–303 (2006). 36 144Références bibliographiques [112] D. Collins, C. Holmes, T. Peters, and A. Evans. Automatic 3-d model-based neuroanatomical segmentation. Human Brain Mapping 3(3), 190–208 (1995). 37 [113] M. Lorenzo-Valdés, G. Sanchez-Ortiz, R. Mohiaddin, and D. Rueckert. Atlas-based segmentation and tracking of 3d cardiac mr images using non-rigid registration. In Medical Image Computing and Computer-Assisted Intervention ?MICCAI 2002, pages 642–650. (2002). 37, 38, 39 [114] M. Lorenzo-Valdés, G. Sanchez-Ortiz, A. Elkington, R. Mohiaddin, and D. Rueckert. Segmentation of 4d cardiac mr images using a probabilistic atlas and the em algorithm. Medical Image Analysis 8(3), 255–265 (2004). 37, 41 [115] J. Lötjönen, S. Kivistö, J. Koikkalainen, D. Smutek, and K. Lauerma. Statistical shape model of atria, ventricles and epicardium from short-and long-axis mr images. Medical image analysis 8(3), 371–386 (2004). 37, 40, 41, 62, 76 [116] X. Zhuang, DJ Hawkes, WR Crum, R. Boubertakh, S. Uribe, D. Atkinson, P. Batchelor, T. Schaeffter, R. Razavi, and DLG Hill. Robust registration between cardiac mri images and atlas for segmentation propagation. In Medical Imaging, pages 691408–691408. International Society for Optics and Photonics (2008). 37, 38, 39 [117] C. Studholme, D. Hill, and D. Hawkes. An overlap invariant entropy measure of 3d medical image alignment. Pattern recognition 32(1), 71–86 (1999). 37 [118] G. Hautvast, S. Lobregt, M. Breeuwer, and F. Gerritsen. Automatic contour propagation in cine cardiac magnetic resonance images. Medical Imaging, IEEE Transactions on 25(11), 1472–1482 (2006). 39, 41 [119] S. Huang, J. Liu, L. Lee, S. Venkatesh, L. Teo, C. Au, and W. Nowinski. Segmentation of the left ventricle from cine mr images using a comprehensive approach. In Proceedings of the 5th International Conference on Functional Imaging and Modeling of the Heart, pages 339–347 (2009). 40, 41 [120] Y. Lu, P. Radau, K. Connelly, A. Dick, and G. Wright. Automatic imagedriven segmentation of left ventricle in cardiac cine mri. The MIDAS Journal 49 (2009). 40, 41 [121] S. O’Brien, O. Ghita, and P Whelan. Segmenting the left ventricle in 3d using a coupled asm and a learned non-rigid spatial model. The MIDAS Journal 49 (2009). 40, 41 [122] J. Wijnhout, D. Hendriksen, HV Assen, and RV der Geest. Lv challenge lkeb contribution : Fully automated myocardial contour detection. The MIDAS Journal 43 (2009). 40, 41 145Références bibliographiques [123] C. Constantinides, Y. Chenoune, N. Kachenoura, E. Roullot, E. Mousseaux, A. Herment, and F. Frouin. Semi-automated cardiac segmentation on cine magnetic resonance images using gvf-snake deformable models. The MIDAS JournalCardiac MR Left Ventricle Segmentation Challenge (2009). 40, 41 [124] L. Marak, J. Cousty, L. Najman, H. Talbot, et al. 4d morphological segmentation and the miccai lv-segmentation grand challenge. In MICCAI 2009 Workshop on Cardiac MR Left Ventricle Segmentation Challenge, number 1, pages 1–8 (2009). 40, 41 [125] MP Jolly. Fully automatic left ventricle segmentation in cardiac cine mr images using registration and minimum surfaces. In MICCAI 2009 Workshop on Cardiac MR Left Ventricle Segmentation Challenge. MIDAS Journal (2009). 40, 41 [126] S. Ordas, H. Van Assen, L. Boisrobert, M. Laucelli, J. Puente, B. Lelieveldt, and A. Frangi. Statistical modeling and segmentation in cardiac mri using a grid computing approach. In Advances in Grid Computing-EGC 2005, pages 6–15. (2005). 40 [127] H. Van Assen, M. Danilouchkine, A. Frangi, S. Ordás, J. Westenberg, J. Reiber, and B. Lelieveldt. Spasm : a 3d-asm for segmentation of sparse and arbitrarily oriented cardiac mri data. Medical Image Analysis 10(2), 286–303 (2006). 40, 41 [128] D. Grosgeorge, C. Petitjean, J. Caudron, J. Fares, and J-N Dacher. Automatic cardiac ventricle segmentation in mr images : a validation study. International journal of computer assisted radiology and surgery 6(5), 573–581 (2011). 40, 42 [129] V-T Ta, O. Lézoray, A. Elmoataz, and S. Schüpp. Graph-based tools for microscopic cellular image segmentation. Pattern Recognition 42(6), 1113–1125 (2009). 43 [130] Y. Boykov, O. Veksler, and R. Zabih. Markov random fields with efficient approximations. In Computer vision and pattern recognition, 1998. Proceedings. 1998 IEEE computer society conference on, pages 648–655 (1998). 43, 46 [131] S. Li. Markov random field modeling in image analysis. Springer (2009). 45 [132] Y. Boykov and G. Funka-Lea. Graph cuts and efficient nd image segmentation. International Journal of Computer Vision 70(2), 109–131 (2006). 47, 49 [133] C. Zitnick and S. Kang. Stereo for image-based rendering using image oversegmentation. International Journal of Computer Vision 75(1), 49–65 (2007). 50 [134] N. Papadakis and V. Caselles. Multi-label depth estimation for graph cuts stereo problems. Journal of Mathematical Imaging and Vision 38(1), 70–82 (2010). 50 [135] C-W Chou, J-J Tsai, H-M Hang, and H-C Lin. A fast graph cut algorithm for disparity estimation. In Picture Coding Symposium (PCS), 2010, pages 326–329. IEEE (2010). 50 146Références bibliographiques [136] L. Ladicky, P. Sturgess, K. Alahari, C. Russell, and P. Torr ` . What, where and how many ? combining object detectors and crfs. In Computer Vision–ECCV 2010, pages 424–437. (2010). 50 [137] T. Tang and A. Chung. Non-rigid image registration using graph-cuts. In Medical Image Computing and Computer-Assisted Intervention–MICCAI 2007, pages 916–924. (2007). 50, 82, 83, 84, 92 [138] R. So and A. Chung. Multi-level non-rigid image registration using graph-cuts. In Acoustics, Speech and Signal Processing, 2009. ICASSP 2009. IEEE International Conference on, pages 397–400 (2009). 92 [139] R. So and A. Chung. Non-rigid image registration by using graph-cuts with mutual information. In Image Processing (ICIP), 2010 17th IEEE International Conference on, pages 4429–4432 (2010). 82, 92 [140] R. So, T. Tang, and A. Chung. Non-rigid image registration of brain magnetic resonance images using graph-cuts. Pattern Recognition 44(10), 2450–2467 (2011). [141] A. Chowdhury, R. Roy, S. Bose, F. Khalifa, A. Elnakib, and A. El-Baz. Non-rigid biomedical image registration using graph cuts with a novel data term. In Biomedical Imaging (ISBI), 2012 9th IEEE International Symposium on, pages 446–449 (2012). 50, 82 [142] N. Papadakis and A. Bugeau. Tracking with occlusions via graph cuts. Pattern Analysis and Machine Intelligence, IEEE Transactions on 33(1), 144–157 (2011). 50 [143] M. Wu, X. Peng, Q. Zhang, and R. Zhao. Segmenting and tracking multiple objects under occlusion using multi-label graph cut. Computers & Electrical Engineering 36(5), 927–934 (2010). 50 [144] D. Miyazaki, Y. Matsushita, and K. Ikeuchi. Interactive shadow removal from a single image using hierarchical graph cut. In Computer Vision–ACCV 2009, pages 234–245. (2010). 50 [145] H. Lombaert and F. Cheriet. Simultaneous image de-noising and registration using graph cuts : Application to corrupted medical images. In Information Science, Signal Processing and their Applications (ISSPA), 2012 11th International Conference on, pages 264–268. IEEE (2012). 50 [146] Y. Boykov, O. Veksler, and R. Zabih. Fast approximate energy minimization via graph cuts. Pattern Analysis and Machine Intelligence, IEEE Transactions on 23(11), 1222–1239 (2001). 51, 54, 84, 85 [147] V. Kolmogorov and R. Zabin. What energy functions can be minimized via graph cuts ? Pattern Analysis and Machine Intelligence, IEEE Transactions on 26(2), 147–159 (2004). 51, 52, 53, 84, 86, 88 147Références bibliographiques [148] R. Szeliski, R. Zabih, D. Scharstein, O. Veksler, V. Kolmogorov, A. Agarwala, M. Tappen, and C. Rother. A comparative study of energy minimization methods for markov random fields. In Computer Vision–ECCV 2006, pages 16–29. (2006). 51 [149] W. Cook, W. Cunningham, W. Pulleyblank, and A. Schrijver. , 33. Wiley. com (2011). 54 [150] L. Ford and DR Fulkerson. Flow in networks. Princeton University Press (1962). 54 [151] H. Huang, H. Wang, and X. Wang. Max-Flow Min-Cut, 2006, online. York University. http://www.cse.yorku.ca/~aaw/Wang/MaxFlowStart.htm/. 55, 56 [152] Y. Boykov and V. Kolmogorov. An experimental comparison of min-cut/max-flow algorithms for energy minimization in vision. Pattern Analysis and Machine Intelligence, IEEE Transactions on 26(9), 1124–1137 (2004). 55, 74 [153] V. Kolmogorov and Y. Boykov. What metrics can be approximated by geo-cuts, or global optimization of length/area and flux. , 1, pages 564–571 (2005). 56 [154] Y. Boykov and M-P Jolly. Interactive organ segmentation using graph cuts. In Medical Image Computing and Computer-Assisted Intervention–MICCAI 2000, pages 276–286 (2000). 56 [155] S. Pundlik, D. Woodard, and S. Birchfield. Iris segmentation in non-ideal images using graph cuts. Image and Vision Computing 28(12), 1671–1681 (2010). [156] M. Aslan, A. Ali, H. Rara, B. Arnold, A. Farag, R. Fahmi, and P. Xiang. A novel 3d segmentation of vertebral bones from volumetric ct images using graph cuts. In Advances in Visual Computing, pages 519–528. (2009). [157] N. Birkbeck, D. Cobzas, M. Jagersand, A. Murtha, and T. Kesztyues. An interactive graph cut method for brain tumor segmentation. In Applications of Computer Vision (WACV), 2009 Workshop on, pages 1–7. IEEE (2009). [158] D. García-Lorenzo, J. Lecoeur, D. Arnold, D. Collins, and C. Barillot. Multiple sclerosis lesion segmentation using an automatic multimodal graph cuts. In Medical Image Computing and Computer-Assisted Intervention–MICCAI 2009, pages 584–591. (2009). 56 [159] P. Das, O. Veksler, V. Zavadsky, and Y. Boykov. Semiautomatic segmentation with compact shape prior. Image and Vision Computing 27(1), 206–219 (2009). 56 [160] O. Veksler. Star shape prior for graph-cut image segmentation. In Computer Vision– ECCV 2008, pages 454–467. (2008). 57 148Références bibliographiques [161] G. Funka-Lea, Y. Boykov, C. Florin, M-P Jolly, R. Moreau-Gobard, R. Ramaraj, and D. Rinck. Automatic heart isolation for ct coronary visualization using graph-cuts. In Biomedical Imaging : Nano to Macro, 2006. 3rd IEEE International Symposium on, pages 614–617 (2006). 57 [162] X. Albà, F. Ventura, M. Rosa, K. Lekadir, C. Tobon-Gomez, C. Hoogendoorn, and A. Frangi. Automatic cardiac lv segmentation in mri using modified graph cuts with smoothness and interslice constraints. Magnetic Resonance in Medicine (2013). 57 [163] G. Slabaugh and G. Unal. Graph cuts segmentation using an elliptical shape prior. , 2, pages II–1222 (2005). 58 [164] Z. Song, N. Tustison, B. Avants, and J. Gee. Adaptive graph cuts with tissue priors for brain mri segmentation. In Biomedical Imaging : Nano to Macro, 2006. 3rd IEEE International Symposium on, pages 762–765 (2006). 58, 71 [165] J. Malcolm, Y. Rathi, and A. Tannenbaum. Graph cut segmentation with nonlinear shape priors. , 4, pages IV–365 (2007). 58, 71 [166] J. Zhu-Jacquot and R. Zabih. Graph cuts segmentation with statistical shape priors for medical images. In Signal-Image Technologies and Internet-Based System, 2007. SITIS’07. Third International IEEE Conference on, pages 631–635 (2007). 58 [167] J. Zhu-Jacquot and R. Zabih. Segmentation of the left ventricle in cardiac mr images using graph cuts with parametric shape priors. In Acoustics, Speech and Signal Processing, 2008. ICASSP 2008. IEEE International Conference on, pages 521–524 (2008). [168] N. Vu and BS Manjunath. Shape prior segmentation of multiple objects with graph cuts. In Computer Vision and Pattern Recognition, 2008. CVPR 2008. IEEE Conference on, pages 1–8 (2008). 58, 81 [169] D. Freedman and T. Zhang. Interactive graph cut based segmentation with shape priors. , 1, pages 755–762 (2005). 58, 71, 75, 76, 79 [170] R. Kéchichian, S. Valette, M. Desvignes, and R. Prost. Efficient multi-object segmentation of 3d medical images using clustering and graph cuts. In Image Processing (ICIP), 2011 18th IEEE International Conference on, pages 2149–2152. IEEE (2011). 59 [171] G. Zeng and L. Van Gool. Multi-label image segmentation via point-wise repetition. In Computer Vision and Pattern Recognition, 2008. CVPR 2008. IEEE Conference on, pages 1–8 (2008). 59 [172] M. Bleyer, C. Rhemann, and M. Gelautz. Segmentation-based motion with occlusions using graph-cut optimization. In Pattern Recognition, pages 465–474. (2006). 59 149Références bibliographiques [173] X. Chen and U. Bagci. 3d automatic anatomy segmentation based on iterative graphcut-asm. Medical physics 38, 4610 (2011). 59 [174] A. Delong, L. Gorelick, F. Schmidt, O. Veksler, and Y. Boykov. Interactive segmentation with super-labels. In Energy Minimization Methods in Computer Vision and Pattern Recognition, pages 147–162 (2011). 59 [175] Y. Gao, B. Corn, D. Schifter, and A. Tannenbaum. Multiscale 3d shape representation and segmentation with applications to hippocampal/caudate extraction from brain mri. Medical Image Analysis 16(2), 374–385 (2012). 61 [176] G. Charpiat, O. Faugeras, and R. Keriven. Shape statistics for image segmentation with prior. In Computer Vision and Pattern Recognition, 2007. CVPR’07. IEEE Conference on, pages 1–6 (2007). [177] K. Pohl, S. Warfield, R. Kikinis, W. Grimson, and W. Wells. Coupling statistical segmentation and pca shape modeling. In Medical Image Computing and ComputerAssisted Intervention–MICCAI 2004, pages 151–159. (2004). [178] T. Shen, H. Li, and X. Huang. Active volume models for medical image segmentation. Medical Imaging, IEEE Transactions on 30(3), 774–791 (2011). [179] S. Zhang, Y. Zhan, M. Dewan, J. Huang, D. Metaxas, and X. Zhou. Towards robust and effective shape modeling : Sparse shape composition. Medical image analysis 16(1), 265–277 (2012). [180] W. Liu, Y. Shang, X. Yang, R. Deklerck, and J. Cornelis. A shape prior constraint for implicit active contours. Pattern Recognition Letters 32(15), 1937–1947 (2011). [181] R. Davies, C. Twining, T. Cootes, J. Waterton, and C. Taylor. A minimum description length approach to statistical shape modeling. Medical Imaging, IEEE Transactions on 21(5), 525–537 (2002). [182] K-K Shen, J. Fripp, F. Mériaudeau, G. Chételat, O. Salvado, and P. Bourgeat. Detecting global and local hippocampal shape changes in alzheimer’s disease using statistical shape models. Neuroimage 59(3), 2155–2166 (2012). 61 [183] Y. Wang and L. Staib. Boundary finding with correspondence using statistical shape models. In Computer Vision and Pattern Recognition, 1998. Proceedings. 1998 IEEE Computer Society Conference on, pages 338–345 (1998). 62 [184] D. Cremers, T. Kohlberger, and C. Schnörr. Nonlinear shape statistics in mumford-shah based segmentation. In Computer Vision - ECCV 2002, pages 93–108. (2002). 62 150Références bibliographiques [185] K. Pohl, J. Fisher, S. Bouix, M. Shenton, R. McCarley, W. Grimson, R. Kikinis, and W. Wells. Using the logarithm of odds to define a vector space on probabilistic atlases. Medical Image Analysis 11(5), 465–477 (2007). 62 [186] M. Rousson and N. Paragios. Shape priors for level set representations. In Computer Vision-ECCV 2002, pages 78–92. (2002). 63 [187] M. Turk and A. Pentland. Eigenfaces for recognition. Journal of cognitive neuroscience 3(1), 71–86 (1991). 64 [188] A. Shimizu, K. Nakagomi, T. Narihira, H. Kobatake, S. Nawano, K. Shinozaki, K. Ishizu, and K. Togashi. Automated segmentation of 3d ct images based on statistical atlas and graph cuts. In Medical Computer Vision. Recognition Techniques and Applications in Medical Imaging, pages 214–223. (2011). 81 [189] D. Rueckert, L. Sonoda, C. Hayes, D. Hill, M. Leach, and D. Hawkes. Nonrigid registration using free-form deformations : application to breast mr images. Medical Imaging, IEEE Transactions on 18(8), 712–721 (1999). 82, 84 [190] J-P Thirion. Image matching as a diffusion process : an analogy with maxwell’s demons. Medical image analysis 2(3), 243–260 (1998). 84 [191] J. Mitra, Z. Kato, R. Martí, A. Oliver, X. Lladó, D. Sidibé, S. Ghose, J. Vilanova, J. Comet, and F. Meriaudeau. A spline-based non-linear diffeomorphism for multimodal prostate registration. Medical Image Analysis 16(6), 1259–1279 (2012). 82 [192] X. Artaechevarria, A. Munoz-Barrutia, and C. Ortiz-de Solorzano. Combination strategies in multi-atlas image segmentation : Application to brain mr data. Medical Imaging, IEEE Transactions on 28(8), 1266–1277 (2009). 85 [193] I. Isgum, M. Staring, A. Rutten, M. Prokop, M. Viergever, and B. van Ginneken. Multi-atlas-based segmentation with local decision fusion - application to cardiac and aortic segmentation in ct scans. Medical Imaging, IEEE Transactions on 28(7), 1000–1010 (2009). [194] T. Langerak, U. van der Heide, A. Kotte, M. Viergever, M. van Vulpen, and J. Pluim. Label fusion in atlas-based segmentation using a selective and iterative method for performance level estimation (simple). Medical Imaging, IEEE Transactions on 29(12), 2000–2008 (2010). [195] M. Sabuncu, BT Yeo, K. Van Leemput, B. Fischl, and P. Golland. A generative model for image segmentation based on label fusion. Medical Imaging, IEEE Transactions on 29(10), 1714–1729 (2010). 85 151Références bibliographiques [196] C. Cocosco, T. Netsch, J. Sénégas, D. Bystrov, W. Niessen, and M. Viergever. Automatic cardiac region-of-interest computation in cine 3d structural mri. , 1268, pages 1126–1131 (2004). 89, 90, 91 [197] N. Otsu. A threshold selection method from gray-level histograms. Automatica 11(285- 296), 23–27 (1975). 89 [198] J. Caudron, J. Fares, V. Lefebvre, P-H Vivier, C. Petitjean, and J-N Dacher. Cardiac mri assessment of right ventricular function in acquired heart disease : Factors of variability. Academic Radiology 19(8), 991–1002 (2012). 104, 105 [199] D. Huttenlocher, G. Klanderman, and W. Rucklidge. Comparing images using the hausdorff distance. Pattern Analysis and Machine Intelligence, IEEE Transactions on 15(9), 850–863 (1993). 106 [200] J. Bogaert. Cardiac function. Clinical Cardiac MRI : With Interactive CD-ROM pages 99–141 (2005). 106 [201] M. Zuluaga, M. Cardoso, M. Modat, and S. Ourselin. Multi-atlas propagation whole heart segmentation from mri and cta using a local normalised correlation coefficient criterion. In Functional Imaging and Modeling of the Heart, pages 174–181. (2013). 108 [202] C-W Wang, C-W Peng, and H-C Chen. A simple and fully automatic right ventricle segmentation method for 4-dimensional cardiac mr images. In Proc. of 3D Cardiovascular Imaging : a MICCAI segmentation challenge. (2012). 108 [203] Y. Ou, A. Sotiras, N. Paragios, and C. Davatzikos. Dramms : Deformable registration via attribute matching and mutual-saliency weighting. Medical image analysis 15(4), 622–639 (2011). 108, 109 [204] W. Bai, W. Shi, D. O’Regan, T. Tong, H. Wang, S. Jamil-Copley, N. Peters, and D. Rueckert. A probabilistic patch-based label fusion model for multi-atlas segmentation with registration refinement : Application to cardiac mr images. Medical Imaging 32(7), 1302–1315 (2013). 108, 109 [205] D. Grosgeorge, C. Petitjean, J-N Dacher, and S. Ruan. Graph cut segmentation with a statistical shape model in cardiac mri. Computer Vision and Image Understanding 117(9), 1027–1035 (2013). 108 [206] O. Maier, D. Jiménez, A. Santos, and M. Ledesma-Carbayo. Segmentation of rv in 4d cardiac mr volumes using region-merging graph cuts. In Computing in Cardiology, pages 697–700 (2012). 108, 110 [207] C-M Nambakhsh, M. Rajchl, J. Yuan, T-M Peters, and I-B Ayed. Rapid automated 3d endocardium right ventricle segmentation in mri via convex relaxation and distribution matching. In Proc. of 3D Cardiovascular Imaging : a MICCAI segmentation challenge. (2012). 108, 110 152Références bibliographiques [208] M. Cardoso, K. Leung, M. Modat, S. Keihaninejad, D. Cash, J. Barnes, N. Fox, and S. Ourselin. Steps : Similarity and truth estimation for propagated segmentations and its application to hippocampal segmentation and brain parcelation. Medical image analysis (2013). 108 [209] Y. Li, J. Sun, C-K Tang, and H-Y Shum. Lazy snapping. ACM Transactions on Graphics (ToG) 23(3), 303–308 (2004). 110 [210] J. Stawiaski, E. Decenciere, and F. Bidault. Interactive liver tumor segmentation using graph-cuts and watershed. In Workshop on 3D Segmentation in the Clinic : A Grand Challenge II. Liver Tumor Segmentation Challenge. MICCAI, New York, USA (2008). 110 [211] A. Labrador, F. Martínez, and E. Castro. A novel right ventricle segmentation approach from local spatio-temporal mri information. In Progress in Pattern Recognition, Image Analysis, Computer Vision, and Applications, pages 206–213. (2013). 117 [212] J. Ringenberg, M. Deo, V. Devabhaktuni, O. Berenfeld, P. Boyers, and J. Gold. Fast, accurate, and fully automatic segmentation of the right ventricle in short-axis cardiac mri. Computerized Medical Imaging and Graphics (2014). 117 [213] D. Mahapatra. Cardiac image segmentation from cine cardiac mri using graph cuts and shape priors. Journal of Digital Imaging pages 1–10 (2013). 117 [214] M. Schmidt and K. Alahari. Generalized fast approximate energy minimization via graph cuts : Alpha-expansion beta-shrink moves. arXiv preprint arXiv :1108.5710 (2011). 127 153Le contourage des ventricules cardiaques sur IRM est nécessaire à la détermination de la fonction contractile du cœur. Cette tâche est difficile, en particulier pour le ventricule droit (VD), due au flou aux frontières des cavités, aux irrégularités des intensités et à sa forme complexe et variable. Peu de travaux ont cependant été réalisés afin de résoudre cette problématique de segmentation. Dans ce but, nous avons proposé et développé deux méthodes de segmentation basées sur la méthode des coupes de graphe (GC), à laquelle nous avons incorporé des a priori de forme. La première méthode, semi-automatique, repose sur une carte d’a priori statistique créée à base d’Analyses en Composantes Principales et intégrée à la méthode des GC binaires. La seconde, automatique, permet la segmentation d’un ensemble d’objets par GC multi-labels à partir d’un modèle de forme probabiliste basé sur le recalage et la fusion d’atlas. Ces méthodes ont été évaluées sur une base importante d’IRM cardiaques, composée de 48 patients. Une comparaison aux méthodes de l’état de l’art pour cette application à travers le challenge de segmentation du VD MICCAI’12, que nous avons organisé, montre l’efficacité de nos méthodes. Mots clés : Segmentation d’images, coupes de graphe, a priori de forme, IRM, ventricules cardiaques Segmenting the cardiac ventricles on MR Images is required for cardiac function assessment. This task is difficult, especially for the right ventricle (RV), due to the fuzziness of the boundaries of the cavities, intensity irregularities and its complex and variable shape. This is probably one of the reasons why RV functional assessment has long been considered secondary compared to that of the left ventricle (LV), leaving the problem of RV segmentation wide open. For this purpose, we proposed and developed two segmentation methods based on graphcuts (GC), in which we have incorporated a shape prior. The first method, semi-automatic, is based on a statistical prior map build from a Principal Component Analysis, integrated in the GC. The second, automatic, enables multiobject segmentation from a probabilistic shape model based on the registration and the fusion of atlases. These methods have been evaluated on a large database of cardiac MRI, consisting of 48 patients. We have compared our methods with the state of the art methods for this application through the RV segmentation challenge MICCAI’12 we organized and have shown the effectiveness of our methods. Keywords : Image segmentation, graph-cut, shape prior, MRI, cardiac ventricles Mod´elisation d’un r´eseau de r´egulation d’ARN pour pr´edire des fonctions de g`enes impliqu´es dans le mode de reproduction du puceron du pois Valentin Wucher To cite this version: Valentin Wucher. Mod´elisation d’un r´eseau de r´egulation d’ARN pour pr´edire des fonctions de g`enes impliqu´es dans le mode de reproduction du puceron du pois. Bioinformatics. Universite Rennes 1, 2014. French. HAL Id: tel-01095967 https://hal.archives-ouvertes.fr/tel-01095967 Submitted on 16 Dec 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.❆◆◆➱❊ ✷✵✶✹ THÈSE / UNIVERSITÉ DE RENNES 1 sous le sceau de l’Université Européenne de Bretagne pour le grade de DOCTEUR DE L’UNIVERSITÉ DE RENNES 1 Mention : Biologie École doctorale Vie-Agro-Santé présentée par Valentin WUCHER préparée à l’unité mixte de recherche UMR1349 – IGEPP et UMR6074 – IRISA Institut de Génétique, Environnement et Protection des Plantes et Institut de Recherche en Informatique et Système Aléatoires Composante Universitaire SVE Modélisation d’un ré- seau de régulation d’ARN pour prédire des fonctions de gènes impliqués dans le mode de reproduction du puceron du pois Thèse soutenue à Rennes le 3 Novembre 2014 devant le jury composé de : Christian DIOT Directeur de recherche INRA / Président Roderic GUIGO Research director CRG Barcelone ✴ Rapporteur Emmanuelle JACQUIN-JOLY Directrice de recherche INRA ✴ Rapporteure Julien BOBE Directeur de recherche INRA ✴ Examinateur Hélène TOUZET Directrice de recherche CNRS ✴ Examinatrice Denis TAGU Directeur de recherche INRA ✴ Directeur de thèse❘❡♠❡r❝✐❡♠❡♥ts ❏❡ t✐❡♥s t♦✉t ❞✬❛❜♦r❞ à r❡♠❡r❝✐❡r ♠❡s ❞❡✉① ❞✐r❡❝t❡✉rs ✿ ❏❛❝q✉❡s ❡t ❉❡♥✐s✱ ♦✉ ❉❡♥✐s ❡t ❏❛❝q✉❡s ✭♣♦✉r ♥❡ ♣❛s ❢❛✐r❡ ❞❡ ❥❛❧♦✉①✮✳ ▼❡r❝✐ ❜❡❛✉❝♦✉♣ ❞❡ ♠✬❛✈♦✐r ❞♦♥♥é ❧❛ ♣♦ss✐❜✐❧✐té ❞❡ ❢❛✐r❡ ❝❡tt❡ t❤ès❡ ❛✈❡❝ ✈♦✉s✱ ❞✬❛✈♦✐r ♦✛❡rt s❛ ❝❤❛♥❝❡ ❛✉ ♣❡t✐t ❣❛rs ❞❡ ❧❛ ❝❛♣✐t❛❧❡✳ ▼❡r❝✐ ❞❡ ❧✬❛✐❞❡ q✉❡ ✈♦✉s ♠✬❛✈❡③ ❛♣♣♦rté❡ s✉r t♦✉s ❧❡s ❛s♣❡❝ts ♣r♦❢❡ss✐♦♥♥❡❧s ❞❡ ♠❛ ✈✐❡ ❞❡ t❤és❛r❞✱ ❞✬❛✈♦✐r ♣r✐s ❧❡ t❡♠♣s ❞❡ ♠❡ tr❛♥s♠❡ttr❡ ✈♦s ❝♦♥♥❛✐ss❛♥❝❡s ❡t ❞❡ ♠✬❛✈♦✐r ♠♦♥tré ❝❡ q✉✬ét❛✐t ❧❡ ♠ét✐❡r ❞❡ ❝❤❡r❝❤❡✉r✳ ➬❛ ❛ été ✉♥ ✈r❛✐ ♣❧❛✐s✐r ❞❡ ♣❛ss❡r ❝❡s tr♦✐s ❛♥♥é❡s s♦✉s ✈♦tr❡ ❞✐r❡❝t✐♦♥ à t♦✉s ❧❡s ❞❡✉①✳ ▼❡r❝✐✳ ▼❡r❝✐ à ❧✬❡♥s❡♠❜❧❡ ❞❡ ♠♦♥ ❥✉r② ❞❡ t❤ès❡ ✿ ❘♦❞❡r✐❝ ●✉✐❣♦✱ ❊♠♠❛♥✉❡❧❧❡ ❏❛❝q✉✐♥✲❏♦❧②✱ ❏✉❧✐❡♥ ❇♦❞❡✱ ❈❤r✐st✐❛♥ ❉✐♦t ❡t ❍é❧è♥❡ ❚♦✉③❡t ♣♦✉r ❛✈♦✐r ❛❝❝❡♣té ❞✬é✈❛❧✉❡r ♠♦♥ tr❛✈❛✐❧✳ ▼❡r❝✐ ❛✉ss✐ à ♠♦♥ ❝♦♠✐té ❞❡ t❤ès❡ ✿ ❨❛♥♥ ❆✉❞✐❝✱ ❍❡r✈é ❙❡✐t③✱ ❍é❧è♥❡ ❚♦✉③❡t✱ ❊♠✲ ♠❛♥✉❡❧❧❡ ❇❡❝❦❡r✱ ●❛ë❧ ▲❡ ❚r✐♦♥♥❛✐r❡✱ ❋❛❜r✐❝❡ ▲❡❣❡❛✐ ❡t ❆♥♥❡ ❙✐❡❣❡❧✳ ▼❡r❝✐ ♣♦✉r ❧❡s ❞✐s❝✉ss✐♦♥s ❡♥r✐❝❤✐ss❛♥t❡s q✉❡ ♥♦✉s ❛✈♦♥s ❡✉❡s ♣❡♥❞❛♥t ♠❡s ❞❡✉① ❝♦♠✐tés ❡t ♣♦✉r ✈♦s ❝♦♥s❡✐❧s✳ ❏❡ t✐❡♥s ❛✉ss✐ à r❡♠❡r❝✐❡r ❞❡✉① ♣❡rs♦♥♥❡s q✉✐ ♠✬♦♥t ❛✐❞é ♣❡♥❞❛♥t ♠♦♥ ♣❛r❝♦✉rs ❞✬ét✉❞✐❛♥t ✿ ❖♥♥✐❦ ❆❣❜✉❧✉t ❡t ❙té♣❤❛♥❡ ▲❡ ❈r♦♠✱ ❞❡✉① ❞❡ ♠❡s ❞✐r❡❝t❡✉rs ❞❡ st❛❣❡s ♣ré❝é❞❡♥ts✳ ▼❡r❝✐ à ✈♦✉s ❞❡✉① ♣♦✉r ✈♦s ❡♥❝♦✉r❛❣❡♠❡♥ts✱ ❥❡ ♥❡ s❡r❛✐ sûr❡♠❡♥t ♣❛s ❧à ❛✉❥♦✉r❞✬❤✉✐ s❛♥s ✈♦tr❡ ❛✐❞❡ ❡t ✈♦tr❡ s♦✉t✐❡♥✳ ▲❡ tr❛✈❛✐❧ s❡r❛✐t ❞✐✛ér❡♥t s❛♥s ❞❡ ❜♦♥s ❝♦❧❧è❣✉❡s ❞❡ ❜✉r❡❛✉ ✿ ♠❡r❝✐ ❈②r✐❧ ♣♦✉r ❧❡s ♠♦♠❡♥ts ❞❡ ❞ét❡♥t❡s ❡t ❧❡s ❢r❛♥❝❤❡s r✐❣♦❧❛❞❡s✳ ▼❡r❝✐ ❛✉ss✐ à ♠♦♥ ❛♥❝✐❡♥ ❝♦❧❧è❣✉❡ ❞❡ ❜✉r❡❛✉✱ ❚❤♦♠❛s✱ q✉✐ ❧❡ ♣r❡♠✐❡r ♠✬❛ ❢❛✐t ❞é❝♦✉✈r✐r ❝❡tt❡ ✈✐❧❧❡ ❞❡ ❘❡♥♥❡s✳ ❏❡ r❡♠❡r❝✐❡ ❛✉ss✐ t♦✉s ❧❡s ❛♠✐s ❡t ❝♦❧❧è❣✉❡s q✉❡ ❥✬❛✐ ♣✉ r❡♥❝♦♥tr❡r ♣❡♥❞❛♥t ❝❡s tr♦✐s ❛♥♥é❡s ❛✉ s❡✐♥ ❞❡ ♠❡s ❞❡✉① éq✉✐♣❡s✱ P✐❡rr❡ ✭❧❡s ❞❡✉①✮✱ ❈❧♦✈✐s✱ ◆✐❝♦❧❛s✱ ●✉✐❧❧❛✉♠❡✱ ❘❡♥❛✉❞✱ ❈❧❛✐r❡✱ ◆❛t❤❛❧✐❡✱ ❘❛❧✉❝❛✱ ❙②❧✈❛✐♥✱ ●❛ë❧✱ ▲✉❝✐❡ ❡t ❥✬❡♥ ♦✉❜❧✐❡ sûr❡♠❡♥t✳ ❯♥ r❡♠❡r❝✐❡♠❡♥t s♣é❝✐❛❧ ♣♦✉r ❆✉r♦r❡ ❛✈❡❝ q✉✐ ❥✬❛✐ ♣✉ ♣❛r❧❡r✱ s❛♥s t❛❜♦✉s✱ ❞✉ ♣✉❝❡r♦♥✳ ❉❡ ♠ê♠❡ ♣♦✉r ❋❛❜r✐❝❡✱ q✉❡ ❥✬❛✐ ❡♠❜êté ♠❛✐♥t❡s ❡t ♠❛✐♥t❡s ❢♦✐s✳ ❏❡ ✜♥✐s ❡♥ r❡♠❡r❝✐❛♥t t♦✉t❡s ❧❡s ♣❡rs♦♥♥❡s ❡①tér✐❡✉r❡s ❛✉ ♠♦♥❞❡ ❞❡ ❧❛ r❡❝❤❡r❝❤❡ q✉✐ ♠✬♦♥t s♦✉t❡♥✉ ❀ ❧❛ ❢❛♠✐❧❧❡ ✿ ♠ô♠✱ P❤✐❧✐♣♣❡✱ ❆❞r✐❡♥✱ ❈❧❛✐r❡✱ P❛tr✐❝❦✳ ❏❡ r❡♠❡r❝✐❡ ❛✉ss✐ ❝❡❧❧❡ q✉❡ ❥✬❛✐ r❡♥❝♦♥tré❡ à ❧❛ ✜♥ ❞❡ ♠❛ t❤ès❡ ❡t q✉✐ ♠✬❛ s✉♣♣♦rté ❥✉sq✉✬à s♦♥ ❛❜♦✉t✐ss❡♠❡♥t ✿ ❆❞r✐❛♥❛✳ ▼❡r❝✐ à t♦✉s ❧❡s ❛♠✐s ❞❡ P❛r✐s ✿ ❇❡♥❥❛♠✐♥✱ ❆①❡❧✱ ❘♦♠❛✐♥✱ ❩♦é✱ ❆♠❛♥❞✐♥❡✱ ❆♥♥❡✲❙♦♣❤✐❡✱ ❏❡❛♥✲❖❝t❛✈❡✱ ❖❧✐✈✐❡r✱ ❍é❧♦ïs❡✱ ◆❛❜✐❧✱ ❨♦❤❛♥ ❡t ❜✐❡♥ ❞✬❛✉tr❡s✳Pré❛♠❜✉❧❡ ❉❛♥s ❝❡ ♠❛♥✉s❝r✐t✱ s♦♥t ♣rés❡♥tés ❧❡s rés✉❧t❛ts ❡♥ ❢r❛♥ç❛✐s ❡t s②♥t❤ét✐sés ❞❡ ♠❡s tr❛✈❛✉① ❞❡ t❤ès❡✳ ❏✬❛✐ ♣❛rt✐❝✐♣é à ❧❛ ré❞❛❝t✐♦♥ ❞✬✉♥ ❛rt✐❝❧❡ ❞❡ s②♥t❤ès❡ s✉r ❧❛ ♣❧❛st✐❝✐té ❞✉ ♠♦❞❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❝❤❡③ ❧❡s ♣✉❝❡r♦♥s✳ ❏✬❛✐ é❣❛❧❡♠❡♥t ♣✉❜❧✐é ✉♥ ❛rt✐❝❧❡ s❝✐❡♥t✐✜q✉❡ s✉✐t❡ à ❧❛ sé❧❡❝t✐♦♥ ❞✬✉♥ rés✉♠é ♣♦✉r ✉♥❡ ❝♦♥❢ér❡♥❝❡ ❧♦rs ❞✉ ❝♦♥❣rès ❊✉r♦♣❡❛♥ ❈♦♥❢❡✲ r❡♥❝❡ ♦♥ ❉❛t❛ ❆♥❛❧②s✐s ✷✵✶✸✳ ❈❡s ❞❡✉① ❛rt✐❝❧❡s s♦♥t ♣rés❡♥tés ❡♥ ❆♥♥❡①❡✳ ❯♥ ❛rt✐❝❧❡ ❡st ❡♥ ❝♦✉rs ❞❡ ré❞❛❝t✐♦♥ s✉r ❧❡s ❆❘◆ ♥♦♥✲❝♦❞❛♥t ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ❡t ❧❡✉r ré❣✉❧❛t✐♦♥ ❧♦rs ❞✉ ❝❤❛♥❣❡♠❡♥t ❞❡ ♠♦❞❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ✿ ❲✉❝❤❡r ❱✳✱ ▲❡❣❡❛✐ ❋✳✱ ❏❛✉❜❡rt✲P♦ss❛♠❛✐ ❙✳✱ ❧❡ ❚r✐♦♥♥❛✐r❡ ●✳✱ ❍✉❞❛✈❡r✲ ❞✐❛♥ ❙✳✱ ◆✐❝♦❧❛s ❏✳✱ ❙❡✐t③ ❍✳✱ ❙✐❡❣❡❧ ❆✳✱ ❉❡rr✐❡♥ ❚✳✱ ●❛❧❧♦t ❆✳ ❛♥❞ ❚❛❣✉ ❉✳ ✿ ◆♦♥✲❝♦❞✐♥❣ ❘◆❆s ♣r♦✜❧✐♥❣ ✿ ♠♦❧❡❝✉❧❛r ♥❡t✇♦r❦ ✐♥✈♦❧✈❡❞ ✐♥ ♣❤❡♥♦t②♣✐❝ ♣❧❛st✐❝✐t② ♦❢ t❤❡ ♣❡❛ ❛♣❤✐❞✳ ■❧ ❛❣rè❣❡ ✉♥❡ ❣r❛♥❞❡ ♣❛rt✐❡ ❞❡ ♠❡s rés✉❧t❛ts s✉r ❧❡s ♠✐❝r♦❆❘◆ ❡t ❧❡s rés❡❛✉① ❞✬✐♥✲ t❡r❛❝t✐♦♥s ❛✐♥s✐ q✉❡ ❞✬❛✉tr❡s tr❛✈❛✉① s✉r ❧❡s ❆❘◆ ♣✐✇✐ ❡t ❧❡s ❧♦♥❣s ❆❘◆ ♥♦♥ ❝♦❞❛♥ts ❛✉①q✉❡❧s ❥✬❛✐ é❣❛❧❡♠❡♥t ♣❛rt✐❝✐♣é✳❚❛❜❧❡ ❞❡s ♠❛t✐èr❡s ✶ ■♥tr♦❞✉❝t✐♦♥ ✺ ✶✳✶ ■♥tr♦❞✉❝t✐♦♥ ❣é♥ér❛❧❡ ✿ ét✉❞✐❡r ✉♥ rés❡❛✉ ❞❡ ré❣✉❧❛t✐♦♥ ✐♠♣❧✐q✉é ❞❛♥s ❧❡ ♣♦❧②♣❤é♥✐s♠❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❝❤❡③ ❧❡ ♣✉❝❡r♦♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✻ ✶✳✶✳✶ ▲❡s rés❡❛✉① ✿ ✉♥❡ r❡♣rés❡♥t❛t✐♦♥ ❞❡s ❞✐✛ér❡♥t❡s ré❣✉❧❛t✐♦♥s ❜✐♦❧♦✲ ❣✐q✉❡s ❡t ✉♥ ♠♦②❡♥ ❞✬✐♥té❣r❡r ❞❡s ❞♦♥♥é❡s ❤étér♦❣è♥❡s ✳ ✳ ✳ ✳ ✳ ✳ ✻ ✶✳✶✳✷ ▲❛ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡ ✿ ✉♥ ❞❡s ♠♦❞❡s ❞✬❛❞❛♣t❛t✐♦♥ ❞❡s ❡s✲ ♣è❝❡s ❛✉① ❝❤❛♥❣❡♠❡♥ts ❞❡ ❧❡✉r ❡♥✈✐r♦♥♥❡♠❡♥t ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✼ ✶✳✷ ❘é❣✉❧❛t✐♦♥ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ♣❛r ❧❡s ♣❡t✐ts ❆❘◆ ♥♦♥ ❝♦❞❛♥t ✿ ❧❡ ❝❛s ❞❡s ♠✐❝r♦❆❘◆ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✾ ✶✳✷✳✶ ▲❡s ♠✐❝r♦❆❘◆ ✿ ❞é❝♦✉✈❡rt❡ ❡t ✐❞❡♥t✐✜❝❛t✐♦♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✾ ✶✳✷✳✷ ❉②♥❛♠✐q✉❡ é✈♦❧✉t✐✈❡ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ✿ ❛♣♣❛r✐t✐♦♥✱ ❞✉♣❧✐✲ ❝❛t✐♦♥ ❡t ❝♦♥s❡r✈❛t✐♦♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✶ ✶✳✷✳✸ ❱♦✐❡ ❞❡ ❜✐♦s②♥t❤ès❡ ❞❡s ♠✐❝r♦❆❘◆ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✷ ✶✳✷✳✹ ▼♦❞❡ ❞✬❛❝t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ✿ ❝♦♠♠❡♥t ❝✐❜❧❡♥t✲✐❧s ❡t ré❣✉❧❡♥t✲✐❧s ❧❡s ❆❘◆♠ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✸ ✶✳✷✳✺ Pré❞✐❝t✐♦♥ ❞❡s ❝✐❜❧❡s ❞❡s ♠✐❝r♦❆❘◆ ✿ ✐❞❡♥t✐✜❝❛t✐♦♥ ❞❡s ❝✐❜❧❡s ❡t ♣❛r❛❞♦①❡ ❡♥tr❡ ❧❡ ♥♦♠❜r❡ é❧❡✈é ❞❡ ♣ré❞✐❝t✐♦♥s ❡t ❧❡ ♥♦♠❜r❡ r❡s✲ tr❡✐♥t ❞✬✐♥t❡r❛❝t✐♦♥s ✐❞❡♥t✐✜é❡s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✺ ✶✳✷✳✻ ❉♦♥♥❡r ❞✉ s❡♥s ❜✐♦❧♦❣✐q✉❡ ❛✉① ♣ré❞✐❝t✐♦♥s ✿ ❧✬❛♥❛❧②s❡ ❞❡ ♠♦❞✉❧❡s ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✼ ✶✳✸ ▲❡s ♣✉❝❡r♦♥s ✿ ✉♥ ❡①❡♠♣❧❡ ❞❡ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✵ ✶✳✸✳✶ ❉❡s❝r✐♣t✐♦♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✵ ✶✳✸✳✷ ▲❡ ♣♦❧②♣❤é♥✐s♠❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❞✉ ♣✉❝❡r♦♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✶ ✶✳✸✳✸ ▲❡ ❣é♥♦♠❡ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ✿ ❛♥♥♦t❛t✐♦♥s ❡t ❞✉♣❧✐❝❛t✐♦♥s ✳ ✳ ✳ ✷✸ ✶✳✸✳✹ ▲❡s ❞✐✛ér❡♥ts ♠♦❞❡s ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❡t ❧❡s ♠✐❝r♦❆❘◆ ✳ ✳ ✳ ✳ ✳ ✳ ✷✹ ✶✳✹ ▲✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✺ ✶✳✹✳✶ ▲✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ✿ ♥♦t❛t✐♦♥ ❡t ❞é✜♥✐t✐♦♥s ✳ ✳ ✳ ✳ ✳ ✳ ✷✺ ✶✳✹✳✷ ▲❡ ❣r❛♣❤❡ ❞✬✐♥t❡r❛❝t✐♦♥s ❡♥tr❡ ♠✐❝r♦❆❘◆ ❡t ❆❘◆♠ ✿ ✉♥ ❣r❛♣❤❡ ❜✐♣❛rt✐ ♠♦❞é❧✐s❛❜❧❡ ❝♦♠♠❡ ✉♥ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✻ ✶✳✹✳✸ ▲✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❡♥ ❜✐♦✲✐♥❢♦r♠❛t✐q✉❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✼ ✶✳✺ ▲✬❆♥s✇❡r ❙❡t Pr♦❣r❛♠♠✐♥❣ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✷✾ ✶✳✻ ❊♥ rés✉♠é ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✸✶ ✷ ❈❛t❛❧♦❣✉❡s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❆❝②r✲ t❤♦s✐♣❤♦♥ ♣✐s✉♠ ✸✸ ✷✳✶ ❊①tr❛❝t✐♦♥✱ séq✉❡♥ç❛❣❡ ❡t ❛♥❛❧②s❡ ❞❡s ❧♦♥❣s ❡t ♣❡t✐ts ❆❘◆ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✸✹ ✶✷ ❚❛❜❧❡ ❞❡s ♠❛t✐èr❡s ✷✳✶✳✶ ❉❡s❝r✐♣t✐♦♥ ❞❡s ❆❘◆♠ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✸✹ ✷✳✶✳✷ ➱❧❡✈❛❣❡ ❞❡s ♣✉❝❡r♦♥s✱ ❡①tr❛❝t✐♦♥ ❡t séq✉❡♥ç❛❣❡ ❞❡s ❧♦♥❣s ❆❘◆ ❡t ❞❡s ♣❡t✐ts ❆❘◆ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✸✺ ✷✳✶✳✸ ▼ét❤♦❞❡s ❜✐♦✲✐♥❢♦r♠❛t✐q✉❡s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✸✼ ✷✳✶✳✹ ❇❛s❡s ❞❡ ❞♦♥♥é❡s ✉t✐❧✐sé❡s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✹✸ ✷✳✷ ❈❛t❛❧♦❣✉❡ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡s ❆❘◆♠✱ ❞❡s ♠✐❝r♦❆❘◆ ❡t ❞❡ ❧❡✉rs ✐♥t❡r✲ ❛❝t✐♦♥s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✹✺ ✷✳✷✳✶ ▲❡s ❆❘◆♠ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✹✺ ✷✳✷✳✷ ▲❡s ♠✐❝r♦❆❘◆ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✹✺ ✷✳✷✳✸ ▲❡s ✐♥t❡r❛❝t✐♦♥s ♣ré❞✐t❡s ❡♥tr❡ ♠✐❝r♦❆❘◆ ❡t ❆❘◆♠ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✺✾ ✷✳✸ ■❞❡♥t✐✜❝❛t✐♦♥ ❡t ❛♥❛❧②s❡ ❞✬✉♥ ♥♦✉✈❡❛✉ ❝❛t❛❧♦❣✉❡ ❞❡ ♠✐❝r♦❆❘◆ ❝❤❡③ ❆✳ ♣✐✲ s✉♠ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✻✸ ✸ ❆♥❛❧②s❡✱ ❝❧❛ss✐✜❝❛t✐♦♥ ❡t ❝♦♠♣❛r❛✐s♦♥ ❞❡s ❝✐♥ét✐q✉❡s ❞✬❡①♣r❡ss✐♦♥ ❞❡s ❆❘◆♠ ❡t ♠✐❝r♦❆❘◆ ❛✉ ❝♦✉rs ❞✉ ❞é✈❡❧♦♣♣❡♠❡♥t ❞❡s ❡♠❜r②♦♥s s❡①✉és ❡t ❛s❡①✉és ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ✻✺ ✸✳✶ ❉✐s❝rét✐s❛t✐♦♥ ❞❡s ❝✐♥ét✐q✉❡s ❡t ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡s tr❛♥s✐t✐♦♥s ❝✐♥ét✐q✉❡s ✳ ✻✻ ✸✳✶✳✶ ❉❡s❝r✐♣t✐♦♥ ❞✉ ♣❛q✉❡t ❘ ❡❞❣❡❘ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✻✻ ✸✳✶✳✷ ❉✐s❝rét✐s❛t✐♦♥ ❞❡s ❝✐♥ét✐q✉❡s ❞✬❡①♣r❡ss✐♦♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✻✻ ✸✳✶✳✸ ❈❧❛ss✐✜❝❛t✐♦♥ ❞❡s tr❛♥s✐t✐♦♥s ❝✐♥ét✐q✉❡s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✻✼ ✸✳✶✳✹ ➱t✉❞❡ ❞❡s ❆❘◆♠ ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ❡①♣r✐♠és ❡♥r✐❝❤✐s ❡♥ ❛♥♥♦t❛✲ t✐♦♥s ❢♦♥❝t✐♦♥♥❡❧❧❡s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✻✾ ✸✳✷ ❈♦♠♣❛r❛✐s♦♥ ❞❡s ❡①♣r❡ss✐♦♥s ❣é♥✐q✉❡s ❡♥tr❡ ❡♠❜r②♦♥s s❡①✉és ❡t ❛s❡①✉és ✼✸ ✸✳✷✳✶ ■❞❡♥t✐✜❝❛t✐♦♥ ❡t ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ♠❛✲ t✉r❡s ré❣✉❧és ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✼✹ ✸✳✷✳✷ ❘és❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥ ❡♥tr❡ ♠✐❝r♦❆❘◆ ❡t ❆❘◆♠ ré❣✉❧és ✳ ✳ ✳ ✳ ✳ ✽✵ ✸✳✸ ❘és✉♠é ❡t ❝♦♥❝❧✉s✐♦♥ ✿ ❞❡s ❡①♣r❡ss✐♦♥s ❞✬❆❘◆♠ ❡t ❞❡ ♠✐❝r♦❆❘◆ q✉✐ ❞✐✛èr❡♥t s❡❧♦♥ ❧❡ t②♣❡ ❞✬❡♠❜r②♦❣❡♥ès❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✽✻ ✹ ❆♣♣❧✐❝❛t✐♦♥ ❞❡ ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s à ✉♥ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ✽✾ ✹✳✶ ▼ét❤♦❞❡ ❞❡ ré♣❛r❛t✐♦♥ ❞❡ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ❜r✉✐té ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✾✵ ✹✳✶✳✶ ▲✬❡✛❡t ❞✉ ❜r✉✐t s✉r ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ✭❆❈❋✮ ✳ ✳ ✳ ✳ ✳ ✾✵ ✹✳✶✳✷ Pr♦❝❡ss✉s ❞❡ ré♣❛r❛t✐♦♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✾✹ ✹✳✶✳✸ ❊①♣ér✐♠❡♥t❛t✐♦♥ s✉r ❞❡s ❝♦♥t❡①t❡s ❜r✉✐tés s✐♠✉❧és ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✾✻ ✹✳✶✳✹ ❊①♣ér✐♠❡♥t❛t✐♦♥ s✉r ❞❡s ❞♦♥♥é❡s ❞❡ rés❡❛✉① ❜✐♦❧♦❣✐q✉❡s s✐♠✉❧és ✳ ✾✾ ✹✳✷ ❱✐s✉❛❧✐s❛t✐♦♥ ❞✉ rés❡❛✉ ♣❛r r❡❣r♦✉♣❡♠❡♥t ❞❡s ✐♥t❡r❛❝t✐♦♥s ❡♥ ❝❧✉st❡r ✳ ✳ ✶✵✹ ✹✳✷✳✶ ❉❡s❝r✐♣t✐♦♥ ❞❡ ❧❛ ♠ét❤♦❞❡ ❞❡ ❝♦♠♣r❡ss✐♦♥ ❡t ❞❡ ✈✐s✉❛❧✐s❛t✐♦♥ P♦✲ ✇❡r ●r❛♣❤ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✵✹ ✹✳✷✳✷ P❛r❛❧❧è❧❡ ❡♥tr❡ P♦✇❡r ●r❛♣❤ ❡t ❧✬❆❈❋ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✵✺ ✹✳✷✳✸ ❆♣♣❧✐❝❛t✐♦♥ ❛✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥ ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆❝②r✲ t❤♦s✐♣❤♦♥ ♣✐s✉♠ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✵✼ ✹✳✸ ❆♣♣❧✐❝❛t✐♦♥ ❞❡ ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s s✉r ❞❡s ❣r❛♣❤❡s ❜✐♦❧♦❣✐q✉❡s ❜✐♣❛rt✐s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✶✹❚❛❜❧❡ ❞❡s ♠❛t✐èr❡s ✸ ✺ ➱t✉❞❡ ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♣❛r ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ✶✶✺ ✺✳✶ ❉❡s❝r✐♣t✐♦♥ ❞❡ ❧✬❛❥♦✉t ❞✬✐♥❢♦r♠❛t✐♦♥s ❤étér♦❣è♥❡s à ✉♥ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ✳ ✶✶✻ ✺✳✷ ❆♣♣❧✐❝❛t✐♦♥ ❛✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆❝②rt❤♦s✐✲ ♣❤♦♥ ♣✐s✉♠ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✶✽ ✺✳✷✳✶ ❆ttr✐❜✉ts ❜✐♦❧♦❣✐q✉❡s ✉t✐❧✐sés ♣♦✉r ❧❡s ♠✐❝r♦❆❘◆ ❡t ❧❡s ❆❘◆♠ ✳ ✶✷✵ ✺✳✷✳✷ ❘és✉❧t❛t s✉r ❧❡ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥ ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆❝②r✲ t❤♦s✐♣❤♦♥ ♣✐s✉♠ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✷✷ ✺✳✸ ➱t✉❞❡ ❞❡ ♠♦❞✉❧❡s ❞✬✐♥t❡r❛❝t✐♦♥ ❞❡ ♠✐❝r♦❆❘◆✴❆❘◆♠ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✹✷ ✻ ❉✐s❝✉ss✐♦♥ ❡t ♣❡rs♣❡❝t✐✈❡s ✶✹✸ ✻✳✶ ❉✐s❝✉ss✐♦♥ ❣é♥ér❛❧❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✹✹ ✻✳✶✳✶ ❈ré❛t✐♦♥ ❞✉ rés❡❛✉ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✹✹ ✻✳✶✳✷ ❘é❞✉❝t✐♦♥ ❞✉ rés❡❛✉ à ❧❛ q✉❡st✐♦♥ ❜✐♦❧♦❣✐q✉❡ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✹✻ ✻✳✶✳✸ ❈❛r❛❝tér✐s❛t✐♦♥ ❞✉ rés❡❛✉ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✹✼ ✻✳✶✳✹ ▲✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❞❛♥s ❧❡ ❝♦♥t❡①t❡ ❞✬✉♥ ❣r❛♣❤❡ ❜✐♣❛rt✐ ✶✺✵ ✻✳✷ ❈♦♥❝❧✉s✐♦♥ ❡t P❡rs♣❡❝t✐✈❡s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✺✶ ✻✳✷✳✶ ❈♦♥❝❧✉s✐♦♥ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✺✶ ✻✳✷✳✷ P❡rs♣❡❝t✐✈❡s ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✳ ✶✺✶ ❇✐❜❧✐♦❣r❛♣❤✐❡ ✶✻✾✹ ❚❛❜❧❡ ❞❡s ♠❛t✐èr❡s❈❤❛♣✐tr❡ ✶ ■♥tr♦❞✉❝t✐♦♥ ✺✻ ■♥tr♦❞✉❝t✐♦♥ ✶✳✶ ■♥tr♦❞✉❝t✐♦♥ ❣é♥ér❛❧❡ ✿ ét✉❞✐❡r ✉♥ rés❡❛✉ ❞❡ ré❣✉❧❛t✐♦♥ ✐♠♣❧✐q✉é ❞❛♥s ❧❡ ♣♦❧②♣❤é♥✐s♠❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❝❤❡③ ❧❡ ♣✉❝❡r♦♥ ✶✳✶✳✶ ▲❡s rés❡❛✉① ✿ ✉♥❡ r❡♣rés❡♥t❛t✐♦♥ ❞❡s ❞✐✛ér❡♥t❡s ré❣✉❧❛t✐♦♥s ❜✐♦✲ ❧♦❣✐q✉❡s ❡t ✉♥ ♠♦②❡♥ ❞✬✐♥té❣r❡r ❞❡s ❞♦♥♥é❡s ❤étér♦❣è♥❡s ▲✬❛rr✐✈é❡ à ❧❛ ❢♦✐s ❞❡ ❧❛ ❣é♥ér❛t✐♦♥ ❞❡ ❞♦♥♥é❡s à ❤❛✉t ❞é❜✐t ❡♥ ❜✐♦❧♦❣✐❡ ❡t ❞❡ ❧❛ ❜✐♦✲ ✐♥❢♦r♠❛t✐q✉❡ ❛ ♣❡r♠✐s ❧✬é♠❡r❣❡♥❝❡ ❞✬✉♥❡ ♥♦✉✈❡❧❧❡ ❞✐s❝✐♣❧✐♥❡ ✿ ❧❛ ❜✐♦❧♦❣✐❡ ❞❡s s②stè♠❡s✳ ❈❡tt❡ ❞✐s❝✐♣❧✐♥❡ ❝♦♥s✐st❡ à ét✉❞✐❡r à ❣r❛♥❞❡ é❝❤❡❧❧❡ ❧❡s ❣é♥♦♠❡s✱ ❧❡s tr❛♥s❝r✐♣t♦♠❡s✱ ❧❡s ♣r♦té♦♠❡s ♦✉ ❡♥❝♦r❡ ❧❡s ♠ét❛❜♦❧♦♠❡s✱ ♣♦✉r ♥❡ ❝✐t❡r q✉✬❡✉①✱ ❡t à ✐♥té❣r❡r✱ ♠❡ttr❡ ❡♥ r❡❧❛t✐♦♥ ❝❡s ❞✐✛ér❡♥ts ♥✐✈❡❛✉① ❞✬✐♥❢♦r♠❛t✐♦♥ ❞✉ ❢♦♥❝t✐♦♥♥❡♠❡♥t ❞✉ ❣é♥♦♠❡✳ ❈❡❧❛ ❛ ♣❡r♠✐s ❞❡ ♠❡ttr❡ ❡♥ é✈✐❞❡♥❝❡ ❞❡s r❡❧❛t✐♦♥s ❡①✐st❛♥t❡s ❡♥tr❡ ❞✐✛ér❡♥t❡s ♠♦❧é❝✉❧❡s ❛✉ s❡✐♥ ❞✬✉♥❡ ♠ê♠❡ ❝❛té❣♦r✐❡ ❞❡ ♠♦❧é❝✉❧❡s ♠❛✐s ❛✉ss✐ ❡♥tr❡ ❝❡s ❞✐✛ér❡♥t❡s ❝❛té❣♦r✐❡s✳ ❈❡s ❛♣♣r♦❝❤❡s ✐♥té❣r❛t✐✈❡s à ❣r❛♥❞❡ é❝❤❡❧❧❡ ♣❡r♠❡tt❡♥t ❞✬❛✈♦✐r ✉♥❡ ✈✐s✐♦♥ s②sté♠✐q✉❡ ❞✬✉♥ ♣r♦❝❡ss✉s ❜✐♦❧♦❣✐q✉❡ ❛✈❡❝ ✉♥ ❡♥s❡♠❜❧❡ ❞✬❛❝t❡✉rs ❛❣✐ss❛♥t ❡♥ s②♥❡r❣✐❡ ♣❧✉tôt q✉❡ ❝♦♠♠❡ ❞✐✛ér❡♥ts ❛❝t❡✉rs ❛❣✐ss❛♥t ❞❡ ♠❛♥✐èr❡ ♣❧✉s ♦✉ ♠♦✐♥s ✐s♦❧é❡✳ ◆é❛♥♠♦✐♥s✱ ❞❡✈❛♥t ❧❡ ♥♦♠❜r❡ très é❧❡✈é ❞✬é❧é♠❡♥ts ❡t ❞❡ r❡❧❛t✐♦♥s✱ ❞❡s ♦✉t✐❧s s♣é❝✐✜q✉❡s ❞♦✐✈❡♥t êtr❡ ♠✐s ❛✉ ♣♦✐♥t ♣♦✉r ✈✐s✉❛❧✐s❡r✱ ✐♥t❡r♣rét❡r ❧❡s ❞✐✛ér❡♥t❡s r❡❧❛t✐♦♥s ❡①✐st❛♥t❡s ❛✐♥s✐ q✉✬❡♥ ❞é❞✉✐r❡ ❞❡ ♥♦✉✈❡❧❧❡s ❝♦♥♥❛✐ss❛♥❝❡s✳ ■❧ s✬❛❣✐t ♣❛r ❡①❡♠♣❧❡ ❞✬ét✉❞✐❡r ❧❡s r❡❧❛t✐♦♥s ❡♥tr❡ ❧❡s ✶✳✽✵✵ ❢❛❝t❡✉rs ❞❡ tr❛♥s❝r✐♣t✐♦♥ ❡t ❧❡s ✷✵✳✵✵✵ ❣è♥❡s ❤✉♠❛✐♥s ♦✉ ❡♥❝♦r❡ ❧❡s ✐♥t❡r❛❝t✐♦♥s ♣r♦té✐♥❡s✲♣r♦té✐♥❡s ♣♦ss✐❜❧❡s ❡♥tr❡ ❧❡s ✶✵✵✳✵✵✵ ♣r♦té✐♥❡s ❤✉♠❛✐♥❡s✳ ▲❛ ♠♦❞é❧✐s❛t✐♦♥ ♣❛r ❞❡s rés❡❛✉① ❞❡ ❝❡s r❡❧❛t✐♦♥s ❡t ❧❡✉r ét✉❞❡ ♣❡r♠❡t ❞❡ t❡♥❞r❡ ✈❡rs ❝❡ ❜✉t✳ ▲❡s rés❡❛✉①✱ q✉✐ s♦♥t ♠❛t❤é♠❛t✐q✉❡♠❡♥t ❞❡s ❣r❛♣❤❡s✱ s♦♥t ✉♥ ♠♦②❡♥ ❞❡ r❡♣rés❡♥✲ t❛t✐♦♥✱ ❞❡ ✈✐s✉❛❧✐s❛t✐♦♥ ❡t ❞✬❛♥❛❧②s❡ ❞❡ ❞♦♥♥é❡s très ✉t✐❧❡ ❞❛♥s t♦✉t❡s ❧❡s ❛♣♣❧✐❝❛t✐♦♥s ✐♥❢♦r♠❛t✐q✉❡s✳ ▲✬❛♥❛❧②s❡ ❞❡s rés❡❛✉① ♣❡r♠❡t ❞✬❡①tr❛✐r❡ ❞❡ ❧❛ ❝♦♥♥❛✐ss❛♥❝❡ ✐ss✉❡ ❞✬✐♥✲ t❡r❛❝t✐♦♥s ❝♦♠♣❧❡①❡s ❡♥tr❡ ♦❜❥❡ts ❡t ❡st ✉♥ ♦✉t✐❧ ❞✬❛✐❞❡ à ❧❛ ❞é❝✐s✐♦♥ ✿ ❧❛ ❧❡❝t✉r❡ ❡t ❧✬✐♥t❡r♣rét❛t✐♦♥ ❞❡s rés❡❛✉① ♣❡r♠❡tt❡♥t ❞❡ ♣♦s❡r ❞❡s ❤②♣♦t❤ès❡s ❞❡ tr❛✈❛✐❧ s✉r ❧❡ ♣r♦❝❡s✲ s✉s ét✉❞✐é✳ ❈❤❛q✉❡ é❧é♠❡♥t ❡st r❡♣rés❡♥té ♣❛r ✉♥ ♥÷✉❞ ❞❛♥s ❧❡ ❣r❛♣❤❡ ❡t ❝❤❛q✉❡ r❡❧❛t✐♦♥ ❡♥tr❡ ❞❡✉① é❧é♠❡♥ts ❡st r❡♣rés❡♥té❡ ♣❛r ✉♥❡ ❛rêt❡✱ ♦r✐❡♥té❡ ♦✉ ♥♦♥✱ ❡♥tr❡ ❞❡✉① ♥÷✉❞s✳ ❊♥ ❜✐♦❧♦❣✐❡ ♠♦❧é❝✉❧❛✐r❡✱ ♦♥ tr♦✉✈❡ ♥♦t❛♠♠❡♥t ❞❡s rés❡❛✉① ♠ét❛❜♦❧✐q✉❡s✱ ❞❡s rés❡❛✉① ❞✬✐♥t❡r❛❝t✐♦♥s ♣r♦té✐♥❡s✲♣r♦té✐♥❡s ♦✉ ❡♥❝♦r❡ ❞❡s rés❡❛✉① ❞❡ ré❣✉❧❛t✐♦♥ tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ♣❛r ❞❡s ❢❛❝t❡✉rs ❞❡ tr❛♥s❝r✐♣t✐♦♥s✳ ❆✈❡❝ ❧✬é♠❡r❣❡♥❝❡ ❡♥ ❜✐♦❧♦❣✐❡ ❞❡s r❡❧❛t✐♦♥s à ❣r❛♥❞❡ é❝❤❡❧❧❡ ❞é❝r✐t❡s ♣❧✉s ❤❛✉t✱ ❧✬❛♥❛✲ ❧②s❡ ❞❡s rés❡❛✉① ♣r❡♥❞ ✉♥❡ ✐♠♣♦rt❛♥❝❡ ❝r♦✐ss❛♥t❡✳ ❊♥ ❛♥❛❧②s❛♥t ❧❛ t♦♣♦❧♦❣✐❡ ❞❡ ❝❡s ❣r❛♣❤❡s✱ ❝✬❡st✲à✲❞✐r❡ ❧❛ ❢❛ç♦♥ ❞♦♥t s♦♥t ré♣❛rt✐s ❧❡s ♥÷✉❞s ❡t ❧❡s ❛rêt❡s✱ ♦♥ ♣❡✉t ♠❡ttr❡ ❡♥ é✈✐❞❡♥❝❡ ❞❡s ❣r♦✉♣❡s s♣é❝✐✜q✉❡s ❞❡ r❡❧❛t✐♦♥s ♦✉ ❞❡s é❧é♠❡♥ts ❝❧és ♣♦✉r ❢♦r♠✉❧❡r ❞❡ ♥♦✉✈❡❧❧❡s ❤②♣♦t❤ès❡s ❡t ❛✐❞❡r à sé❧❡❝t✐♦♥♥❡r ❞❡s ❡①♣ér✐♠❡♥t❛t✐♦♥s ❜✐♦❧♦❣✐q✉❡s ♣♦✉✈❛♥t ♣❡r♠❡ttr❡ ❞❡ ❢♦r♠✉❧❡r ❞❡ ♥♦✉✈❡❧❧❡s ❝♦♥❝❧✉s✐♦♥s s✉r ❧❡ ♣❤é♥♦♠è♥❡ ét✉❞✐é✳ P❛r ❡①❡♠♣❧❡✱ ❧❛ ❋✐❣✉r❡ ✶✳✶ ♠♦♥tr❡ ✉♥ rés❡❛✉ ❞❡ ❣è♥❡s ✐♠♣❧✐q✉és ❞❛♥s ❞❡s ♠❛❧❛❞✐❡s ♦ù ❝❤❛q✉❡ ♥÷✉❞ r❡♣rés❡♥t❡ ✉♥ ❣è♥❡ ❛✈❡❝ ✉♥❡ ❝♦✉❧❡✉r q✉✐ ✐♥❞✐q✉❡ ❧❛ t②♣❡ ❞❡ ♠❛❧❛❞✐❡ ❡t ✉♥❡ ❛rêt❡ s✐❣♥✐✜❡ q✉❡ ❧❡s ❞❡✉① ❣è♥❡s s♦♥t ✐♠♣❧✐q✉és ❞❛♥s ✉♥ ♠ê♠❡ ♠❛❧❛❞✐❡✳ ❈❡tt❡ ✈✐s✉❛❧✐s❛t✐♦♥ ♣❡r♠❡t ❞❡ ♠❡ttr❡ ❡♥ é✈✐❞❡♥❝❡ ❞❡s r❡❣r♦✉♣❡♠❡♥ts ❞❡ ❣è♥❡s s✉✐✈❛♥t ❧❡ ♥♦♠❜r❡ ❞✬❛rêt❡s q✉✬✐❧s ♦♥t ❡♥tr❡ ❡✉① ❡t q✉❡ ❝❡s r❡❣r♦✉♣❡♠❡♥ts ❝♦rr❡s♣♦♥❞❡♥t ❛✉① ❝♦✉❧❡✉rs✴♠❛❧❛❞✐❡s ❛ss♦❝✐é❡s ❛✉① ❣è♥❡s✳■♥tr♦❞✉❝t✐♦♥ ❣é♥ér❛❧❡ ✼ ❋✐❣✳ ✶✳✶ ✕ ❘és❡❛✉ ❞❡ ❣è♥❡s ✐♠♣❧✐q✉és ❞❛♥s ❞❡s ♣❛t❤♦❧♦❣✐❡s ❤✉♠❛✐♥❡s✳ ❈❤❛q✉❡ ♥÷✉❞ r❡♣rés❡♥t❡ ✉♥ ❣è♥❡ ❡t ✐❧ ❡①✐st❡ ✉♥❡ ❛rêt❡ ❡♥tr❡ ❞❡✉① ❣è♥❡s s✬✐❧s s♦♥t ✐♠♣❧✐q✉és ❞❛♥s ✉♥❡ ♠ê♠❡ ♠❛❧❛❞✐❡✳ ■♠❛❣❡ t✐ré❡ ❞❡ ●♦❤ ❡t ❛❧✳ ❬✶❪✳ ✶✳✶✳✷ ▲❛ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡ ✿ ✉♥ ❞❡s ♠♦❞❡s ❞✬❛❞❛♣t❛t✐♦♥ ❞❡s ❡s✲ ♣è❝❡s ❛✉① ❝❤❛♥❣❡♠❡♥ts ❞❡ ❧❡✉r ❡♥✈✐r♦♥♥❡♠❡♥t ❈❧❛ss✐q✉❡♠❡♥t ❡♥ ❜✐♦❧♦❣✐❡✱ ❧❡ ❞♦❣♠❡ ✈❡✉t q✉❡ ❧✬♦♥ ❛ss♦❝✐❡ à ✉♥ ❣é♥♦♠❡ ✉♥ ♣❤é♥♦✲ t②♣❡✳ ◆♦✉s ♣♦✉✈♦♥s ✈♦✐r ç❛ ❞❡ ❧❛ ❢❛ç♦♥ s✉✐✈❛♥t❡ ✿ à ✉♥ ❡♥s❡♠❜❧❡ ❞✬✐♥❢♦r♠❛t✐♦♥s ✭❧❡ ❣é♥♦♠❡ ❡t s♦♥ ❡♥s❡♠❜❧❡ ❞❡ ❣è♥❡s✮✱ ♦♥ ❛ss♦❝✐❡ ✉♥❡ ❧❡❝t✉r❡ ❞❡ ❝❡s ✐♥❢♦r♠❛t✐♦♥s✱ ❧❡ ♣❤é✲ ♥♦t②♣❡✳ ▲❛ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡ ❛✉ s❡♥s ❧❛r❣❡ ♣❡✉t✲êtr❡ ❞é✜♥✐❡ ❝♦♠♠❡ ❧❛ ❝❛♣❛❝✐té ❞✬✉♥ ♦r❣❛♥✐s♠❡ à ré♣♦♥❞r❡ à ✉♥ ❢❛❝t❡✉r ❡♥✈✐r♦♥♥❡♠❡♥t❛❧ ❡♥ ♠♦❞✐✜❛♥t s♦♥ ♣❤é♥♦t②♣❡ ❛✉ ♥✐✈❡❛✉ ♣❤②s✐♦❧♦❣✐q✉❡✱ ❜✐♦❝❤✐♠✐q✉❡ ♦✉ ❝♦♠♣♦rt❡♠❡♥t❛❧✳ P♦✉r r❡♣r❡♥❞r❡ ❧❛ ✈✐s✐♦♥ ♣ré✲ ❝é❞❡♥t❡✱ ❧❛ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡ ♣❡✉t êtr❡ ✈✉❡ ❝♦♠♠❡ ❧❛ ❝❛♣❛❝✐té ❞✬✉♥ ♦r❣❛♥✐s♠❡ à ❧✐r❡ ❧✬✐♥❢♦r♠❛t✐♦♥ ❝♦♥t❡♥✉❡ ❞❛♥s s♦♥ ❣é♥♦♠❡ ❞❡ ❢❛ç♦♥ ❞✐✛ér❡♥t❡ s❡❧♦♥ ❧❡ ❝♦♥t❡①t❡ ♦✉ ❧❡s ❞✐✛ér❡♥t❡s ❝♦♥❞✐t✐♦♥s ❡①♣ér✐♠❡♥t❛❧❡s✳ ▲❛ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡ ❡st ♣rés❡♥t❡ ❝❤❡③ ❞❡ ♥♦♠❜r❡✉① ♦r❣❛♥✐s♠❡s q✉❡ ❝❡ s♦✐t ❞❛♥s ❞❡s ❜❛❝tér✐❡s ❝♦♠♠❡ ❊s❝❤❡r✐❝❤✐❛ ❝♦❧✐ q✉✐ ré♣♦♥❞ ❞✐✛ér❡♠♠❡♥t à ❧❛ ♣rés❡♥❝❡ ❞❡ ❧❛❝t♦s❡ ❞❛♥s s♦♥ ❡♥✈✐r♦♥♥❡♠❡♥t ❬✷❪✱ ❝❤❡③ ❧❡s ♣❧❛♥t❡s ❛✈❡❝ ❧✬❛❝❛❝✐❛ ❆❝❛❝✐❛ ❞r❡♣❛♥♦❧♦❜✐✉♠ q✉✐ ré♣♦♥❞ à ❧✬❛tt❛q✉❡ ❞✬❤❡r❜✐✈♦r❡s ♣❛r ❧❛ ♣r♦❞✉❝t✐♦♥ ❞❡ t✐❣❡s ❛✈❡❝ ❞❡ ❣r♦ss❡s é♣✐♥❡s ❬✸❪ ♦✉ ❡♥❝♦r❡ ❝❤❡③ ❧❡s ✐♥s❡❝t❡s ❛✈❡❝ ❧❛ t❛✐❧❧❡ ❞❡s ❛✐❧❡s ❞❡ ❉r♦s♦♣❤✐❧❛ ♠❡❧❛♥♦❣❛st❡r q✉✐ ✈❛r✐❡ ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❛ t❡♠♣ér❛t✉r❡ ♦✉ ❧❛ ❝❤❡♥✐❧❧❡ ◆❡♠♦r✐❛ ❛r✐③♦♥❛r✐❛ q✉✐ ♠✐♠❡ s♦♥ ❤❛❜✐t❛t ❬✹❪ ✭❋✐❣✉r❡ ✶✳✷✮✳ P❛r♠✐ ❧❡s ❞✐✛ér❡♥ts ❝❛s ❞❡ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡✱ ♦♥ ♣❡✉t ❞✐st✐♥❣✉❡r ❞❡✉① ❝❧❛ss❡s ✿ ❝♦♥t✐♥✉❡ ❡t ❞✐s❝rèt❡ ❬✺❪✳ ▲❛ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡ ❝♦♥t✐♥✉❡ ❡st ❝❛r❛❝tér✐sé❡ ♣❛r ✉♥ ♥♦♠❜r❡ é❧❡✈é ❞❡ ♣❤é♥♦t②♣❡s q✉✐ é✈♦❧✉❡♥t ❞❡ ❢❛ç♦♥ ❣r❛❞✉❡❧❧❡ ❡♥tr❡ ❞❡✉① ♣❤é♥♦t②♣❡s ❡①trê♠❡s ❝♦♠♠❡ ❧❡ ❝❛s ❞❡s ❛✐❧❡s ❉✳ ♠❡❧❛♥♦❣❛st❡r ❞♦♥t ❧❛ t❛✐❧❧❡ ✈❛r✐❡ ❞❡ ❢❛ç♦♥ ❝♦♥t✐♥✉❡ ❡♥ ❢♦♥❝t✐♦♥ ❞✉ ♥♦♠❜r❡ ❞❡ ❝❡❧❧✉❧❡s q✉✐ ❧❡s ❝♦♥st✐t✉❡♥t ❡♥ ♣❛ss❛♥t ♣❛r t♦✉t❡s ❧❡s ✈❛❧❡✉rs ❞❡s ♣❧✉s ♣❡t✐t❡s ❛✉① ♣❧✉s ❣r❛♥❞❡s✳ ▲❛ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡ ❞✐s❝rèt❡✱ ❛♣♣❡❧é❡ ♣♦❧②♣❤é♥✐s♠❡✱ s❡ ❞✐t ♣♦✉r ✉♥ ♦r❣❛♥✐s♠❡ ❧♦rsq✉❡ q✉❡ ♣♦✉r s♦♥ ❣é♥♦♠❡✽ ■♥tr♦❞✉❝t✐♦♥ ❧❡s ♣❤é♥♦t②♣❡s ❛❧t❡r♥❛t✐❢s s♦♥t très ❞✐✛ér❡♥❝✐és ❡t s❛♥s ✐♥t❡r♠é❞✐❛✐r❡✳ ■❧ ❡①✐st❡ ❞✐✛ér❡♥ts t②♣❡s ❞❡ ♣♦❧②♣❤é♥✐s♠❡✳ ❖♥ ♣❡✉t ♥♦t❛♠♠❡♥t ❝✐t❡r ❝❤❡③ ❧❡s ✐♥s❡❝t❡s ❧❡ ♣♦❧②♣❤é♥✐s♠❡ ❞❡ ❝❛st❡ ♦ù ❧❡s ✐♥❞✐✈✐❞✉s ♥✬♦♥t ♣❛s ❧❛ ♠ê♠❡ ♣❤②s✐♦❧♦❣✐❡ ♥✐ ❧❡ ♠ê♠❡ rô❧❡ ❛✉ s❡✐♥ ❞❡ ❧❛ ❝♦♠♠✉♥❛✉té ❝♦♠♠❡ ❝❤❡③ ❧❡s ❢♦✉r♠✐s ♦✉ ❧❡s ❛❜❡✐❧❧❡s ❀ ❧❡ ♣♦❧②♣❤é♥✐s♠❡ ❞❡ ❞✐s♣❡rs✐♦♥ ❛✈❡❝ ❞❡s ✐♥❞✐✈✐❞✉s ❛✐❧és ♦✉ ♥♦♥ ❝♦♠♠❡ ❝❤❡③ ❧❡s ♣✉❝❡r♦♥s ❀ ❧❡ ♣♦❧②♣❤é♥✐s♠❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❛✈❡❝ ❞❡s ✐♥❞✐✈✐❞✉s ♣♦ssé❞❛♥t ❞✐✛ér❡♥ts ♠♦❞❡s ❞❡ r❡♣r♦❞✉❝t✐♦♥s✱ ♣rés❡♥t ❡♥❝♦r❡ ✉♥❡ ❢♦✐s ❝❤❡③ ❧❡s ♣✉❝❡r♦♥s✳ ▲❡ ♣♦❧②♣❤é♥✐s♠❡ ❝♦♥st✐t✉❡ ✉♥ tr❛✐t ❜✐♦❧♦❣✐q✉❡ très ♣❛rt✐❝✉❧✐❡r ♦ù ❧❡s ❢❛❝t❡✉rs ❡♥✈✐✲ r♦♥♥❡♠❡♥t❛✉① ✐♥✢✉❡♥❝❡♥t ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞❡s ✐♥❞✐✈✐❞✉s ❡♥ ♠♦❞✐✜❛♥t ♦✉ ré✲♦r✐❡♥t❛♥t ❞❡s ♣r♦❣r❛♠♠❡s ❣é♥ét✐q✉❡s ❡t ♣❛r ❝♦♥séq✉❡♥t ❧❡s ❞✐✛ér❡♥t❡s ré❣✉❧❛t✐♦♥s ♦♣ér❛♥t s✉r ❧❡ ❣é♥♦♠❡✱ ❧❡ tr❛♥s❝r✐♣t♦♠❡✱ ❧❡ ♣r♦té♦♠❡✱ ❡t❝✳ ❋✐❣✳ ✶✳✷ ✕ ■♠❛❣❡ ❞❡s ❞❡✉① ♣❤é♥♦t②♣❡s ❞❡ ❧❛ ❝❤❡♥✐❧❧❡ ◆❡♠♦r✐❛ ❛r✐③♦♥❛r✐❛✳ ➚ ❣❛✉❝❤❡ ✉♥❡ ❝❤❡♥✐❧❧❡ ♥♦✉rr✐❡ ❛✈❡❝ ❞❡s ✢❡✉rs ❞❡ ❝❤ê♥❡s✱ r❡ss❡♠❜❧❛♥t à ❝❡s ✢❡✉rs✳ ➚ ❞r♦✐t❡✱ ✉♥❡ ❝❤❡♥✐❧❧❡ ♥♦✉rr✐❡ ❛✈❡❝ ❞❡s ❢❡✉✐❧❧❡s ❞❡ ❝❤ê♥❡s✱ r❡ss❡♠❜❧❛♥t à ✉♥❡ ❜r✐♥❞✐❧❧❡✳ ■♠❛❣❡ t✐ré❡ ❞❡ ●r❡❡♥❡ ❬✹❪✳ P❧❛♥ ❞❡ ❧✬✐♥tr♦❞✉❝t✐♦♥ ▲❛ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡ ❞✉ ♠♦❞❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❡st ét✉❞✐é❡ ❞❛♥s ❧✬éq✉✐♣❡ ■◆❘❆ ❞❛♥s ❧❛q✉❡❧❧❡ ❥✬❛✐ tr❛✈❛✐❧❧é✳ ❆✜♥ ❞✬❛♣♣ré❤❡♥❞❡r ❧❛ ❝♦♠♣❧❡①✐té ❞❡s ♠é❝❛♥✐s♠❡s ♠✐s ❡♥ ÷✉✈r❡s✱ ❧✬éq✉✐♣❡ ❞é✈❡❧♦♣♣❡ ✉♥❡ ❛♣♣r♦❝❤❡ ✐♥té❣r❛t✐✈❡✱ ✈✐❛ ❞❡s rés❡❛✉① ❞❡ ❣è♥❡s ❬✻❪✳ ▲♦rs ❞❡ ❝❡tt❡ t❤ès❡✱ ❧❡ rés❡❛✉ ❞❡ ré❣✉❧❛t✐♦♥ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ❡♥tr❡ ♠✐❝r♦❆❘◆ ❡t ❆❘◆♠ ❛ été ét✉❞✐é ❞❛♥s ❧❡ ❝♦♥t❡①t❡ ❞❡ ❧❛ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠✱ ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✱ à ❧✬❛✐❞❡ ❞✬✉♥❡ ♠ét❤♦❞❡ ❞✬❛♥❛❧②s❡ ❞❡ r❡❧❛t✐♦♥s ❜✐♥❛✐r❡s✱ ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s✳ ❆✐♥s✐ ❧❡s ♣❛r❛❣r❛♣❤❡s s✉✐✈❛♥ts ❞é❝r✐✈❡♥t ✿ ✶✳ ▲❡s ♠✐❝r♦❆❘◆ ❀ ✷✳ ▲❡ ♣♦❧②♣❤é♥✐s♠❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❀ ✸✳ ▲✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s✳❘é❣✉❧❛t✐♦♥ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ♣❛r ❧❡s ♣❡t✐ts ❆❘◆ ♥♦♥ ❝♦❞❛♥t ✿ ❧❡ ❝❛s ❞❡s ♠✐❝r♦❆❘◆✾ ✶✳✷ ❘é❣✉❧❛t✐♦♥ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ♣❛r ❧❡s ♣❡t✐ts ❆❘◆ ♥♦♥ ❝♦❞❛♥t ✿ ❧❡ ❝❛s ❞❡s ♠✐❝r♦❆❘◆ P❡♥❞❛♥t ❧♦♥❣t❡♠♣s✱ ♦♥ ❛ ❝♦♥s✐❞éré q✉❡ ❧❡s ré❣✐♦♥s ❞✉ ❣é♥♦♠❡ q✉✐ ét❛✐❡♥t tr❛♥s❝r✐t❡s ♠❛✐s ♥♦♥ tr❛❞✉✐t❡s✱ ❝✬❡st✲à✲❞✐r❡ ❞❡s ré❣✐♦♥s q✉✐ ♥❡ ❝♦❞❡♥t ♣❛s ♣♦✉r ❞❡s ♣r♦té✐♥❡s✱ ét❛✐❡♥t ❞❡ ❧✬❆❉◆ ✐♥✉t✐❧❡ ❡t q✉❡ ❝❡s tr❛♥s❝r✐ts ét❛✐❡♥t ❞é❣r❛❞és ♣❛r ❧❛ ❝❡❧❧✉❧❡✳ ❈❡tt❡ ✐❞é❡ ❛ été r❡♠✐s❡ ❡♥ ❝❛✉s❡ ❛✈❡❝ ❧❛ ❞é❝♦✉✈❡rt❡ ❞❡ ♥♦✉✈❡❛✉① t②♣❡s ❞❡ ré❣✉❧❛t✐♦♥ ♣❛r ❞❡s ❆❘◆ ♥♦♥ ❝♦✲ ❞❛♥ts ✭❆❘◆♥❝✮✳ ❊♥ ❡✛❡t✱ ❝❡rt❛✐♥s ❆❘◆♥❝ ♦♥t été ✐❞❡♥t✐✜és ❝♦♠♠❡ ét❛♥t ✐♠♣❧✐q✉és ❞❛♥s ❞❡s ré❣✉❧❛t✐♦♥s é♣✐❣é♥ét✐q✉❡s✱ tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡s ♦✉ ❡♥❝♦r❡ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡s✳ ▲❛ ré❣✉❧❛t✐♦♥ ❞❡ ❧❛ st❛❜✐❧✐té ❡t ❞❡ ❧❛ tr❛❞✉❝t✐♦♥ ❞❡s ❆❘◆♠ ♣❛r ❧❡s ♠✐❝r♦❆❘◆ ❢❛✐t ♣❛rt✐❡ ❞❡ ❝❡s ré❣✉❧❛t✐♦♥s ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡s ♣❛r ❧❡s ❆❘◆♥❝✳ ✶✳✷✳✶ ▲❡s ♠✐❝r♦❆❘◆ ✿ ❞é❝♦✉✈❡rt❡ ❡t ✐❞❡♥t✐✜❝❛t✐♦♥ ❉é❝♦✉✈❡rt❡ ❞❡s ♠✐❝r♦❆❘◆ ❝❤❡③ ❧❡s ❛♥✐♠❛✉① ▲❛ ♣r❡♠✐èr❡ ❞❡s❝r✐♣t✐♦♥ ❞✬✉♥ ♠✐❝r♦❆❘◆ r❡♠♦♥t❡ à ✶✾✾✸ ❛✈❡❝ ❧❛ ❞é❝♦✉✈❡rt❡ ❝❤❡③ ❈❛❡♥♦r❤❛❜❞✐t✐s ❡❧❡❣❛♥s ❞✬✉♥ ♣❡t✐t ❆❘◆ ✐ss✉s ❞✉ ❣è♥❡ ❧✐♥✲✹ q✉✐ ❡st ❝♦♠♣❧é♠❡♥t❛✐r❡ ❞❡ séq✉❡♥❝❡s ré♣été❡s ❞❛♥s ❧❡ ✸✬❯❚❘ ❞❡ ❧✬❆❘◆♠ ❞✉ ❣è♥❡ ❧✐♥✲✶✹ ❬✼✱ ✽✱ ✾❪✳ ▲❡❡ ❡t ❛❧✳ ❡t ❲✐❣❤t♠❛♥ ❡t ❛❧✳ ♦❜s❡r✈❡♥t q✉❡ ❧✐♥✲✹ ❡st ♥é❝❡ss❛✐r❡ à ❧❛ tr❛♥s✐t✐♦♥ ❡♥tr❡ ❧❡s st❛❞❡s ▲✶ ❡t ▲✷ ❞✉ ❞é✈❡❧♦♣♣❡♠❡♥t ❧❛r✈❛✐r❡ ❬✼✱ ✽❪✳ ▲✬✐♥❛❝t✐✈❛t✐♦♥ ❞❡ ❧✐♥✲✶✹ ♣r♦❞✉✐t ✉♥ ♣❤é♥♦t②♣❡ ♦♣♣♦sé à ❧❛ ♣❡rt❡ ❞❡ ❧✐♥✲✹ ❀ ❧❡s ❛✉t❡✉rs ❡♥ ❞é❞✉✐s❡♥t q✉❡ ❧✐♥✲✹ ré❣✉❧❡ ♥é❣❛t✐✈❡♠❡♥t ❧✬❡①✲ ♣r❡ss✐♦♥ ❞❡ ❧✐♥✲✶✹ ❬✾❪✳ P❧✉s t❛r❞ ❡♥ ✷✵✵✵✱ ❘❡✐♥❤❛rt ❡t ❛❧✳ ♠♦♥tr❡♥t q✉✬✉♥ ❆❘◆ ❞❡ ✷✶ ♥✉❝❧é♦t✐❞❡s✱ ❧❡t✲✼✱ ré❣✉❧❡ ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❝❤❡③ ❈✳ ❡❧❡❣❛♥s ❬✶✵❪ ❞♦♥t ❧❛ séq✉❡♥❝❡ ❛ été tr♦✉✈é❡ ❝♦♠♠❡ ét❛♥t ❝♦♥s❡r✈é❡ ❝❤❡③ ♣❧✉s✐❡✉rs ❡s♣è❝❡s ♥♦t❛♠♠❡♥t ❝❤❡③ ❉r♦s♦♣❤✐❧❛ ♠❡✲ ❧❛♥♦❣❛st❡r ❡t ❧✬❤✉♠❛✐♥ ❬✶✶❪✳ ▲❛ ❞é♥♦♠✐♥❛t✐♦♥ ✓ ♠✐❝r♦❆❘◆ ✔ ❛ été ❞♦♥♥é❡ ❡♥ ✷✵✵✶ ❞❛♥s tr♦✐s ♣✉❜❧✐❝❛t✐♦♥s ♣❛r ▲❛❣♦s✲◗✉✐♥t❛♥❛ ❡t ❛❧✳✱ ▲❛✉ ❡t ❛❧✳ ❡t ▲❡❡ ❡t ❆♠❜r♦s ❬✶✷✱ ✶✸✱ ✶✹❪✳ ❆✉❥♦✉r❞✬❤✉✐✱ ♦♥ s❛✐t q✉✬✉♥ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ✭❢♦♥❝t✐♦♥♥❡❧✮ s❡ ♣rés❡♥t❡ ❣é♥ér❛❧❡♠❡♥t ❝♦♠♠❡ ✉♥ ❆❘◆ s✐♠♣❧❡✲❜r✐♥ ❞✬❡♥✈✐r♦♥ ✷✷ ♥✉❝❧é♦t✐❞❡s✳ ▲❛ ❝❤❛î♥❡ ❞❡ ré❛❝t✐♦♥ ♣❡r♠❡tt❛♥t ❞❡ ♣❛ss❡r ❞✬✉♥ ❣è♥❡ ❞❡ ♠✐❝r♦❆❘◆ à ✉♥ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❡st s❝❤é♠❛t✐sé❡ ❋✐❣✉r❡ ✶✳✸✳ ❈❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❡st ✐ss✉ ❞❡ ❧❛ tr❛♥s❝r✐♣t✐♦♥ ❞❡ s♦♥ ❣è♥❡ ❡♥ ✉♥ ♣r✐✲♠✐❝r♦❆❘◆✱ ❧♦♥❣ ❆❘◆✳ ❈❡ ♣r✐✲♠✐❝r♦❆❘◆ ♣♦ssè❞❡ ✉♥❡ ♦✉ ♣❧✉s✐❡✉rs str✉❝t✉r❡s ❡♥ t✐❣❡✲❜♦✉❝❧❡ q✉✐ s♦♥t ❡♥✲ s✉✐t❡ ❝❧✐✈é❡s ♣♦✉r ❢♦r♠❡r ❞❡s ♣ré✲♠✐❝r♦❆❘◆✳ ▲❛ ❜♦✉❝❧❡ ❞✬✉♥ ♣ré✲♠✐❝r♦❆❘◆ ❡st ❡♥s✉✐t❡ ❝❧✐✈é❡ ♣♦✉r ❢♦r♠❡r ✉♥ ❆❘◆ ❞♦✉❜❧❡✲❜r✐♥ à ♣❛rt✐r ❞✉q✉❡❧ ❧❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❡st ❧✐❜éré ❡t ✐♥té❣ré à ✉♥ ❝♦♠♣❧❡①❡ ♥✉❝❧é♦♣r♦té✐q✉❡ ❛♣♣❡❧é ❘■❙❈✳ ▲❛ str✉❝t✉r❡ ❡♥ t✐❣❡✲❜♦✉❝❧❡ ❞❡s ❞✐✛ér❡♥ts ♣ré❝✉rs❡✉rs ❡st très ❝♦♥s❡r✈é❡ ❝❛r ❡❧❧❡ ❡st ♥é❝❡ss❛✐r❡ à ❧❛ r❡❝♦♥♥❛✐ss❛♥❝❡ ❡t ❧❛ ♠❛t✉r❛t✐♦♥ ❞❡ ❝❡s ♣ré❝✉rs❡✉rs✳ ▲❛ ❜✐♦s②♥t❤ès❡ ❞❡s ♠✐❝r♦❆❘◆ ❡st ❞é❝r✐t❡ ♣❧✉s ❡♥ ❞ét❛✐❧ ❝✐✲❞❡ss♦✉s ♣❛rt✐❡ ✶✳✷✳✸✳ ▲❛ ❢♦♥❝t✐♦♥ ❞✬✐♥❤✐❜✐t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡st ♣r✐♥❝✐♣❛✲ ❧❡♠❡♥t ♣♦rté❡ ♣❛r ❝❡ q✉❡ ❧✬♦♥ ❛♣♣❡❧❧❡ ❧❛ ❣r❛✐♥❡ ❞✉ ♠✐❝r♦❆❘◆ ♠❛t✉r❡✱ ❝❧❛ss✐q✉❡♠❡♥t ❞é✜♥✐❡ ❝♦♠♠❡ ❧❡s s✐① ♥✉❝❧é♦t✐❞❡s s✐t✉és ❡♥tr❡ ❧❡s ♣♦s✐t✐♦♥s ✷ ❡t ✼ ✐♥❝❧✉s❡s✱ q✉✐ ❡st ❝♦♠♣❧é✲ ♠❡♥t❛✐r❡ ❞✬✉♥❡ ③♦♥❡ ❞❡ s♦♥✴s❡s ❆❘◆♠ ❝✐❜❧❡✭s✮✱ ♣ré❢ér❡♥t✐❡❧❧❡♠❡♥t s✐t✉é❡ à ❧✬❡①tré♠✐té ✸✬❯❚❘ ❞❡ ❧✬❆❘◆♠✳ ❈❡tt❡ r❡❝♦♥♥❛✐ss❛♥❝❡ ❛❜♦✉t✐t ❞❛♥s ❝❡rt❛✐♥s ❝❛s à ✉♥❡ ❞✐♠✐♥✉t✐♦♥ ♦✉ ✉♥ ❛rrêt ❞❡ ❧❛ tr❛❞✉❝t✐♦♥ ❞❡ ❧❛ ♣r♦té✐♥❡ ❞❡ ❧✬❆❘◆♠ r❡❝♦♥♥✉ ❡t à ✉♥❡ ❜❛✐ss❡ ❞❡ s❛ st❛❜✐❧✐té✳ ▲❡s ♠✐❝r♦❆❘◆ s♦♥t ❞♦♥❝ ❞❡s ré❣✉❧❛t❡✉rs ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧s ❞❡s ❣è♥❡s✳ ❊♥ ✷✵✵✾✱ ❞❛♥s s❛ r❡✈✉❡ s✉r ❧❡s ♠✐❝r♦❆❘◆ ❬✶✻❪✱ ❇❛rt❡❧ st✐♣✉❧❡ q✉✬✐❧ ♣❡✉t s✬❛✈ér❡r ❞✐❢✲ ✜❝✐❧❡ ❞❡ tr♦✉✈❡r ❞❡s ❢♦♥❝t✐♦♥s ❜✐♦❧♦❣✐q✉❡s q✉✐ ♥❡ s♦♥t ♣❛s ✐♥✢✉❡♥❝é❡s ♣❛r ❧❡s ♠✐❝r♦❆❘◆✳ ❉❡♣✉✐s ❝❡tt❡ ❞❛t❡✱ ❧✬✐♠♣❧✐❝❛t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ❝❤❡③ ❞❡ ♥♦♠❜r❡✉s❡s ❡s♣è❝❡s ❡t ❞❛♥s ❞❡✶✵ ■♥tr♦❞✉❝t✐♦♥ ❋✐❣✳ ✶✳✸ ✕ ❱♦✐❡ ❞❡ ❜✐♦s②♥t❤ès❡ ❞❡s ♠✐❝r♦❆❘◆✳ ❋✐❣✉r❡ ❛❞❛♣té❡ ❞❡ ■❆●❈ ❬✶✺❪✳ ♥♦♠❜r❡✉① ♣r♦❝❡ss✉s ❜✐♦❧♦❣✐q✉❡s ❛ été ♠✐s❡ ❡♥ é✈✐❞❡♥❝❡✳ ❈❤❡③ ❧❡s ✐♥s❡❝t❡s✱ ❞❡s ❢♦♥❝t✐♦♥s ❝♦♠♠❡ ❧❡ ✈✐❡✐❧❧✐ss❡♠❡♥t✱ ❧❛ ré❣✉❧❛t✐♦♥ ❞❡ ❧✬✐♥s✉❧✐♥❡✱ ❧❛ ❝r♦✐ss❛♥❝❡ ❝❡❧❧✉❧❛✐r❡ ♦✉ ❡♥❝♦r❡ ❧❛ r❡♣r♦❞✉❝t✐♦♥ s♦♥t s♦✉♠✐s ❛✉ ❝♦♥trô❧❡ ❞❡ ♠✐❝r♦❆❘◆ ❬✶✼❪✳ ▲❡s ♠✐❝r♦❆❘◆ ♦♥t ❛✉ss✐ ✉♥ rô❧❡ ❞❛♥s ❞❡ ♥♦♠❜r❡✉s❡s ♠❛❧❛❞✐❡s✳ ♠✐❘✷❉✐s❡❛s❡ ❡st ✉♥❡ ❜❛s❡ ❞❡ ❞♦♥♥é❡s q✉✐ r❡❣r♦✉♣❡ ✉♥ ❡♥s❡♠❜❧❡ ❞❡ ♠✐❝r♦❆❘◆ ✐♠♣❧✐q✉é ❞❛♥s ❞✐✛ér❡♥t❡s ♠❛❧❛❞✐❡s ❬✶✽❪✳ ■❞❡♥t✐✜❝❛t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ♣❛r ♠ét❤♦❞❡s ❤❛✉t ❞é❜✐t ❉❡♣✉✐s ❧❛ ❞é❝♦✉✈❡rt❡ ❞❡s ♣r❡♠✐❡rs ♠✐❝r♦❆❘◆ ❧✐♥✲✹ ❡t ❧❡t✲✼ ✭q✉✐ à ❝❡tt❡ é♣♦q✉❡ ♥✬ét❛✐❡♥t ♣❛s ❡♥❝♦r❡ ❛♣♣❡❧és ✓ ♠✐❝r♦❆❘◆ ✔✮✱ ❞❡ ♥♦♠❜r❡✉① ♠✐❝r♦❆❘◆ ♦♥t été ✐❞❡♥t✐✜és ❣râ❝❡ ❛✉ ❞é✈❡❧♦♣♣❡♠❡♥t ❞✉ séq✉❡♥ç❛❣❡ à ❤❛✉t ❞é❜✐t✳ ▲❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ♠✐❘❇❛s❡ ❬✶✾✱ ✷✵✱ ✷✶✱ ✷✷✱ ✷✸❪ r❡❣r♦✉♣❡ ❛❝t✉❡❧❧❡♠❡♥t ♣❧✉s ❞❡ ✷✽✳✵✵✵ ♠✐❝r♦❆❘◆ ♣♦✉r ✷✷✸ ❡s♣è❝❡s ❞✐✛ér❡♥t❡s ✭♣♦✉r ❧❛ ✈❡rs✐♦♥ ✷✶ ❞❡ ❥✉✐♥ ✷✵✶✹ ❞❡ ♠✐❘❇❛s❡✮✳ P❛r ❡①❡♠♣❧❡✱ ❧❡ ❣é♥♦♠❡ ❤✉♠❛✐♥ ❝♦♥t✐❡♥t ✷✳✺✽✽ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ✶✳✾✶✺ ♣♦✉r ❧❛ s♦✉r✐s✱ ✹✸✹ ♣♦✉r ❈✳ ❡❧❡❣❛♥s ♦✉ ❡♥❝♦r❡ ✹✷✼ ♣♦✉r ❆r❛❜✐❞♦♣s✐s t❤❛❧✐❛♥❛✳ ▲❛ ❋✐❣✉r❡ ✶✳✹ ♣rés❡♥t❡ ❧❡ ♥♦♠❜r❡ ❞❡ ♠✐❝r♦❆❘◆ ♣rés❡♥t ❞❛♥s ♠✐❘❇❛s❡ ❛✐♥s✐ q✉❡ ❧❡ ♥♦♠❜r❡ ❞❡ ♣✉❜❧✐❝❛t✐♦♥s ❝♦♥t❡♥❛♥t ❧❡ ♠♦t ✓ ♠✐❝r♦❘◆❆ ✔ ❞❛♥s P✉❜▼❡❞✳ ▲❡s ♠✐❝r♦❆❘◆ ét❛♥t ❝♦❞és ♣❛r ❧❡s ❣é♥♦♠❡s✱ ♣❧✉s✐❡✉rs ♠ét❤♦❞❡s ❡①✐st❡♥t ♣♦✉r ❧❛ ♣ré❞✐❝t✐♦♥ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆✱ s♦✐t ✐♥ s✐❧✐❝♦ ❡♥ ✉t✐❧✐s❛♥t ❧❡ ❣é♥♦♠❡✱ s♦✐t ❡♥ ❝♦✉♣❧❛♥t ❝❡s ♣ré❞✐❝t✐♦♥s ❛✈❡❝ ❞❡s ❞♦♥♥é❡s ❞❡ séq✉❡♥ç❛❣❡ ❞❡ ♣❡t✐ts ❆❘◆✳ P❛r♠✐ ❧❡s ❝r✐tèr❡s ✉t✐❧✐sés❘é❣✉❧❛t✐♦♥ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ♣❛r ❧❡s ♣❡t✐ts ❆❘◆ ♥♦♥ ❝♦❞❛♥t ✿ ❧❡ ❝❛s ❞❡s ♠✐❝r♦❆❘◆✶✶ ♣❛r ❝❡s ♠ét❤♦❞❡s ♦♥ ♣❡✉t ❝✐t❡r ❧❛ st❛❜✐❧✐té ❡t ❧❛ t❛✐❧❧❡ ❞❡ ❧❛ str✉❝t✉r❡ ❡♥ t✐❣❡✲❜♦✉❝❧❡ ❝♦rr❡s♣♦♥❞❛♥t ❛✉ ♣ré✲♠✐❝r♦❆❘◆ ♦✉ ❧❛ ❝♦♥s❡r✈❛t✐♦♥ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❝❤❡③ ❞❡s ❡s♣è❝❡s ♣r♦❝❤❡s ❬✷✹❪✳ ❋✐❣✳ ✶✳✹ ✕ ◆♦♠❜r❡ ❞❡ ♠✐❝r♦❆❘◆ ♣rés❡♥t ❞❛♥s ♠✐❘❇❛s❡ ✭❡♥ ♥♦✐r✮ ❡t ♥♦♠❜r❡ ❞❡ ♣✉❜❧✐✲ ❝❛t✐♦♥s s✉r P✉❜▼❡❞ q✉✐ ❢♦♥t ré❢ér❡♥❝❡ ❛✉ t❡r♠❡ ✓ ♠✐❝r♦❘◆❆ ✔ ✭❡♥ ❣r✐s✮✳ ❋✐❣✉r❡ t✐ré❡ ❞❡ ❑♦③♦♠❛r❛ ❡t ●r✐✣t❤s✲❏♦♥❡s ❬✷✷❪✳ ✶✳✷✳✷ ❉②♥❛♠✐q✉❡ é✈♦❧✉t✐✈❡ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ✿ ❛♣♣❛r✐t✐♦♥✱ ❞✉✲ ♣❧✐❝❛t✐♦♥ ❡t ❝♦♥s❡r✈❛t✐♦♥ ▲❡ ♥♦♠❜r❡ ✐♠♣♦rt❛♥t ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ♣❛r ❡s♣è❝❡ ❛✐♥s✐ q✉❡ ❧❡✉r r❡❧❛t✐✈❡ ❝♦♥s❡r✲ ✈❛t✐♦♥ ♦♥t ♣❡r♠✐s ❞✬ét✉❞✐❡r ❧❡✉rs ❝❛r❛❝tér✐st✐q✉❡s✳ ◆♦③❛✇❛ ❡t ❛❧✳ ❡♥ ✷✵✶✵ ♦♥t ❝♦♠♣❛ré ❧❡s ♠✐❝r♦❆❘◆ ❞❡ ✶✷ ❡s♣è❝❡s ❞❡ ❉r♦s♦♣❤✐❧❛ ❬✷✺❪✳ ➚ ♣❛rt✐r ❞✬✉♥ ❝❛t❛❧♦❣✉❡ ❞❡ ♠✐❝r♦❆❘◆ ❤♦✲ ♠♦❧♦❣✉❡s ❞é✜♥✐ s✉r ❉✳ ♠❡❧❛♥♦❣❛st❡r ❡t ❞✬✉♥ ❛r❜r❡ ♣❤②❧♦❣é♥ét✐q✉❡ s✉r ❝❡s ✶✷ ❡s♣è❝❡s✱ s✐ ✉♥ ♠✐❝r♦❆❘◆ ❡st ♣rés❡♥t ❝❤❡③ ❞❡✉① ❡s♣è❝❡s ❛❧♦rs ✐❧s ❛ss♦❝✐❡♥t ❝❡ ♠✐❝r♦❆❘◆ à ❧✬❛♥❝êtr❡ ❝♦♠♠✉♥ ❞❡ ❝❡s ❞❡✉① ❡s♣è❝❡s✳ ❈❡❝✐ ❧❡✉r ♣❡r♠❡t ❞❡ ❞é✜♥✐r ✉♥ ✓ â❣❡ ✔ ❞✬❛♣♣❛r✐t✐♦♥ ♣♦✉r ❝❤❛q✉❡ ♠✐❝r♦❆❘◆✱ ♠ê♠❡ s✐ ✐❧ ② ❛ ✉♥ ❢♦rt ❜✐❛✐s ✐♥❞✉✐t ♣❛r ❧❡ ❢❛✐t q✉❡ ❧❡ ❝❛t❛❧♦❣✉❡ ❞❡s ♠✐❝r♦❆❘◆ ✐♥✐t✐❛❧ ♥✬❡st ❢❛✐t q✉✬à ♣❛rt✐r ❞❡ ❉✳ ♠❡❧❛♥♦❣❛st❡r ✳ ■❧s ♦♥t ♣✉ ♦❜s❡r✈❡r q✉✬❡♥✲ ✈✐r♦♥ ✺✵ ✪ ❞❡ ❧✬❛♣♣❛r✐t✐♦♥ ❞❡ ♥♦✉✈❡❛✉① ♠✐❝r♦❆❘◆ s❡ ❞ér♦✉❧❛✐t ♣ré❢ér❡♥t✐❡❧❧❡♠❡♥t ❞❛♥s ❞❡s ré❣✐♦♥s ✐♥tr♦♥✐q✉❡s ❞❡ ❣è♥❡s ❝♦❞❛♥ts ♣♦✉r ❞❡s ♣r♦té✐♥❡s✳ ❯♥❡ ❞❡s ❡①♣❧✐❝❛t✐♦♥s ❞❡ ❧✬❛♣♣❛r✐t✐♦♥ ♣ré❢ér❡♥t✐❡❧❧❡ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❞❛♥s ❞❡s ✐♥tr♦♥s ❡st q✉❡ ❧❡ ♥♦✉✈❡❛✉ ❣è♥❡ ❞❡ ♠✐❝r♦❆❘◆ ❡st ❝♦✲tr❛♥s❝r✐t ❛✈❡❝ ❧❡ ❣è♥❡ ❝♦❞❛♥t ♣♦✉r ✉♥❡ ♣r♦té✐♥❡ ❡t ♥❡ ♥é❝❡ss✐t❡ ❞♦♥❝ ♣❛s ❧❛ ♣rés❡♥❝❡ ❞✬✉♥ ♣r♦♠♦t❡✉r ♣r♦♣r❡ ❛✉ ❣è♥❡ ❞❡ ♠✐❝r♦❆❘◆✳ ▲✬❛♣♣❛r✐t✐♦♥ ❞❡ ❝❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ s❡ ❢❡r❛✐t ❛✉ss✐ ❞❛♥s ❞❡s ré❣✐♦♥s ✐♥t❡r❣é♥✐q✉❡s ✭∼✷✺ ✪✮✳ ❉❛♥s ✉♥❡ ♠♦✐♥❞r❡ ♠❡s✉r❡ ✭∼✶✵ ✪✮✱ ❧✬❛♣♣❛r✐t✐♦♥ ❞❡ ♥♦✉✈❡❛✉① ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ♣❡✉t ❛✉ss✐ s❡ ❢❛✐r❡ ♣❛r ❧❛ ❞✉♣❧✐❝❛t✐♦♥ ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❡①✐st❛♥ts✳ ▲❡s ❛✉t❡✉rs ♠♦♥tr❡♥t ❛✉ss✐ q✉❡ ∼✸✵ ✪ ❞❡s ♥♦✉✈❡❛✉① ❣è♥❡s ❛✉ s❡✐♥ ❞❡s ❝❧✉st❡rs ❞❡ ♠✐❝r♦❆❘◆ s♦♥t ♦❜t❡♥✉s ♣❛r ❞❡s ❞✉♣❧✐❝❛t✐♦♥s ❡♥ t❛♥❞❡♠✳ ❊♥ ❝♦♠♣❛r❛♥t ❧❡ t❛✉① ❞❡ ♠✉t❛t✐♦♥s ❞❡s ♠✐❝r♦❆❘◆ ré❝❡♥ts ❡t✶✷ ■♥tr♦❞✉❝t✐♦♥ ❛♥❝✐❡♥s✱ ❧❡s ❛✉t❡✉rs ♦♥t ♠♦♥tré q✉❡ ❧❡s ♠✐❝r♦❆❘◆ ❧❡s ♣❧✉s ❛♥❝✐❡♥s ♣♦ssé❞❛✐❡♥t ✉♥ t❛✉① ❞❡ ♠✉t❛t✐♦♥ ❜❡❛✉❝♦✉♣ ♣❧✉s ❜❛s q✉❡ ❧❡s ♠✐❝r♦❆❘◆ ♥♦✉✈❡❧❧❡♠❡♥t ❛♣♣❛r✉s ❡t q✉❡ ❝❡ t❛✉① ét❛✐t ❞✬❛✐❧❧❡✉rs ♣❧✉s ❢❛✐❜❧❡ ❞❛♥s ❧❛ ré❣✐♦♥ ❞❡ ❧❛ ❣r❛✐♥❡ ❞✉ ♠✐❝r♦❆❘◆ ♠❛t✉r❡✳ ❈❡❧❛ s✉❣✲ ❣èr❡ q✉❡ ❧❡s ♠✐❝r♦❆❘◆ ♦♥t ❣❛r❞é ❧❡✉rs ❢♦♥❝t✐♦♥s ❛✉ ❝♦✉rs ❞❡ ❧✬é✈♦❧✉t✐♦♥✳ ➚ ♣❛rt✐r ❞❡ ❝❡s ♦❜s❡r✈❛t✐♦♥s✱ ✐❧s é♠❡tt❡♥t ❧✬❤②♣♦t❤ès❡ q✉❡ ❧♦rs ❞❡ ❧✬❛♣♣❛r✐t✐♦♥ ❞❡ ♥♦✉✈❡❛✉① ♠✐❝r♦❆❘◆✱ ♥♦♠❜r❡ ❞✬❡♥tr❡ ❡✉① ♥❡ s♦♥t ♣❛s ❢♦♥❝t✐♦♥♥❡❧s ❡t ❞✐s♣❛r❛✐ss❡♥t✳ ❈❡♣❡♥❞❛♥t s✐ ❧❡ ♥♦✉✈❡❛✉ ❣è♥❡ ♣♦ssè❞❡ ✉♥❡ ❢♦♥❝t✐♦♥ ❛❧♦rs ✐❧ s❡ ✜①❡ ❡t ❡st ❝♦♥s❡r✈é✳ ❊♥ ❝♦♥❝❧✉s✐♦♥✱ ✐❧ s❡♠❜❧❡ ❛❞✲ ♠✐s q✉❡ ❧❛ ❞②♥❛♠✐q✉❡ ❞❡ ❝ré❛t✐♦♥ ❡t ❞✐s♣❛r✐t✐♦♥ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ♣✉✐ss❡ êtr❡ très ❢♦rt❡✱ ❛✈❡❝ ❞❡s t✉r♥✲♦✈❡r ♣❡✉t✲êtr❡ ♣❧✉s ✐♠♣♦rt❛♥ts q✉❡ ♣♦✉r ❧❡s ❣è♥❡s ❝♦❞❛♥t ❞❡s ❆❘◆♠✳ ❈❡♣❡♥❞❛♥t✱ ❧✬❡①✐st❡♥❝❡ ❞❡ ♠✐❝r♦❆❘◆ ❝♦♥s❡r✈és ❞❛♥s ❧✬❛r❜r❡ ❞✉ ✈✐✈❛♥t ✭❝♦♠♠❡ ❧❡t✼✮ ♠♦♥tr❡ q✉❡ ❝❡rt❛✐♥s ❣è♥❡s ♣❡✉✈❡♥t êtr❡ très st❛❜❧❡s✳ ❊♥✜♥✱ ✉♥❡ ❝♦♥s❡r✈❛t✐♦♥ ❞❡ séq✉❡♥❝❡ ♥❡ s✐❣♥✐✜❡ ♣❛s ✉♥❡ ❝♦♥s❡r✈❛t✐♦♥ ❞❡ ❢♦♥❝t✐♦♥ ✿ ✉♥ ♠✐❝r♦❆❘◆ ♠✉té s✉r ❧❛ ❣r❛✐♥❡ ♣❡✉t r❡❝♦♥♥❛îtr❡ ❞❡ ♥♦✉✈❡❧❧❡s ❝✐❜❧❡s ❬✷✻❪✳ ✶✳✷✳✸ ❱♦✐❡ ❞❡ ❜✐♦s②♥t❤ès❡ ❞❡s ♠✐❝r♦❆❘◆ ▲❛ tr❛♥s❝r✐♣t✐♦♥ ❡t ❧❛ ♠❛t✉r❛t✐♦♥ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ✐♥t❡r❣é♥✐q✉❡s ❝❤❡③ ❧❡s ✐♥✲ s❡❝t❡s s❡ ❢❛✐t ❡♥ q✉❛tr❡ ét❛♣❡s ❬✶✼❪ q✉✐ s♦♥t ✐❧❧✉stré❡s ❋✐❣✉r❡ ✶✳✸✳ ▲❡s ❣è♥❡s ❞❡s ♠✐❝r♦❆❘◆ s♦♥t t♦✉t ❞✬❛❜♦r❞ tr❛♥s❝r✐ts ♣❛r ❧❡ ❝♦♠♣❧❡①❡ ❆❘◆ ♣♦❧②♠ér❛s❡ ■■ ❡♥ ♣r✐✲♠✐❝r♦❆❘◆ ❬✷✼❪✱ ❜r✐♥ ❞✬❆❘◆ ♣♦✉✈❛♥t ❢❛✐r❡ ✉♥❡ t❛✐❧❧❡ ❞❡ ♣❧✉s✐❡✉rs ❝❡♥t❛✐♥❡s ❞❡ ♥✉❝❧é♦t✐❞❡s ❝♦♥t❡♥❛♥t ✉♥❡ str✉❝t✉r❡ ❡♥ t✐❣❡✲❜♦✉❝❧❡ ❞✬❡♥✈✐r♦♥ ✼✵ ♥✉❝❧é♦t✐❞❡s ❡t ❞♦♥t ❧❛ t✐❣❡ ❝♦♥st✐t✉❡ ❧❡s ❢✉✲ t✉rs ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✭♣♦t❡♥t✐❡❧❧❡♠❡♥t ❢♦♥❝t✐♦♥♥❡❧s✮✳ ❈❡ ♣r✐✲♠✐❝r♦❆❘◆ ❡st ❡♥s✉✐t❡ r❡❝♦♥♥✉ ❞❛♥s ❧❡ ♥♦②❛✉ ♣❛r ✉♥ ❝♦♠♣❧❡①❡ ♣r♦té✐q✉❡ ❛♣♣❡❧é ❧❡ ❝♦♠♣❧❡①❡ ♠✐❝r♦♣r♦❝❡ss❡✉r q✉✐ ❝♦♥t✐❡♥t ❞❡✉① ♣r♦té✐♥❡s ♣❛rt✐❝✉❧✐èr❡s ✿ ❉r♦s❤❛ ✲ ✉♥❡ ❆❘◆❛s❡ ■■■ ✲ ❡t P❛s❤❛ ✲ ✉♥❡ ♣r♦té✐♥❡ s❡ ✜①❛♥t s✉r ❞❡ ❧✬❆❘◆ ❞♦✉❜❧❡ ❜r✐♥ ✭r❡♠♣❧❛❝é ♣❛r ❉✐●❡♦r❣❡ ❙②♥❞r♦♠❡ ❈r✐t✐❝❛❧ ❘❡❣✐♦♥ ✽✱ ❉●❈❘✽ ❝❤❡③ ❧❡s ♠❛♠♠✐❢èr❡s ❡t ❈❛❡♥♦r❤❛❜❞✐t✐s ❡❧❡❣❛♥s✮✳ ❈❡ ❝♦♠♣❧❡①❡ ♣r♦✲ té✐q✉❡ ✈❛ ❝❧✐✈❡r ❧❡s ré❣✐♦♥s s✐t✉é❡s ❛✉t♦✉r ❞❡ ❧❛ str✉❝t✉r❡ ❡♥ t✐❣❡✲❜♦✉❝❧❡ ♣♦✉r ❢♦r♠❡r ❧❡ ♣ré✲♠✐❝r♦❆❘◆ ✿ ✉♥❡ t✐❣❡✲❜♦✉❝❧❡ ♦ù ❧❛ t✐❣❡ ❢❛✐t ❡♥✈✐r♦♥ ✸✵ ♥✉❝❧é♦t✐❞❡s ♣♦✉r ✉♥ ❜r✐♥ ❡t ♣♦ssè❞❡ ❡♥ ✸✬ ❞❡✉① ♥✉❝❧é♦t✐❞❡s ♥♦♥ ❛♣♣❛r✐és✳ ■❧ ❡st à ♥♦t❡r q✉❡ ❧❡ ♣r✐✲♠✐❝r♦❆❘◆ ♣❡✉t ❝♦♥t❡♥✐r ♣❧✉s ❞✬✉♥ ❣è♥❡ ❞❡ ♠✐❝r♦❆❘◆ ❬✷✽❪ ❀ ♦♥ ♣❛r❧❡ ❞❛♥s ❝❡ ❝❛s ❞❡ ♣r✐✲♠✐❝r♦❆❘◆ ♣♦✲ ❧②❝✐str♦♥✐q✉❡ ❡t ❝❤❛❝✉♥❡ ❞❡s t✐❣❡s✲❜♦✉❝❧❡s ❞✉ ♣r✐✲♠✐❝r♦❆❘◆ ♣♦❧②❝✐str♦♥✐q✉❡ ✭❧❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆✮ ❢♦r♠❡r♦♥t ✉♥ ♣ré✲♠✐❝r♦❆❘◆ ✉♥✐q✉❡ ❛♣rès ❝❧✐✈❛❣❡ ❞❡ ❝❡s str✉❝t✉r❡s ♣❛r ❧❡ ❝♦♠♣❧❡①❡ ♠✐❝r♦♣r♦❝❡ss❡✉r✳ ❯♥❡ ❢♦✐s ❧❡ ♣ré✲♠✐❝r♦❆❘◆ ♦❜t❡♥✉✱ ✐❧ ❡st tr❛♥s♣♦rté ❞✉ ♥♦②❛✉ ✈❡rs ❧❡ ❝②t♦s♦❧ ♣❛r ❧✬❊①♣♦rt✐♥✲✺✱ ✉♥❡ ♣r♦té✐♥❡ s❡ ✜①❛♥t à ❧✬❆❘◆ ❞♦✉❜❧❡ ❜r✐♥s ❡t ❘❛♥●❚P ❞é♣❡♥❞❛♥t❡ ❬✷✾❪✳ ❯♥❡ ❢♦✐s ❞❛♥s ❧❡ ❝②t♦s♦❧✱ ❧❡ ♣ré✲♠✐❝r♦❆❘◆ ❡st ♣r✐s ❡♥ ❝❤❛r❣❡ ♣❛r ✉♥ ❛✉tr❡ ❝♦♠♣❧❡①❡ ♣r♦té✐q✉❡ ❝♦♥st✐t✉é ❞❡ ❉✐❝❡r✲✶ ✭❉❝r✲✶✮ ✲ ✉♥❡ ❆❘◆❛s❡ ■■■ ✲ ❡t ▲♦q✉❛❝✐♦✉s✳ ➚ ♥♦t❡r q✉❡ ❝❤❡③ ❧❡s ✐♥s❡❝t❡s ❉❝r ❡①✐st❡ ❡♥ ❞❡✉① ❝♦♣✐❡s ✿ ❉❝r✲✶ ❡st s♣é❝✐✜q✉❡ à ❧❛ ♠❛t✉r❛t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ❡t ❉❝r✲✷ s♣é❝✐✜q✉❡ à ❧❛ ♠❛t✉r❛t✐♦♥ ❞❡s ♣❆❘◆✐✱ ♣❡t✐ts ❆❘◆ ✐♥t❡r❢ér❡♥ts ✭❡♥ ❛♥❣❧❛✐s ✿ s♠❛❧❧ ✐♥t❡r❢❡r✐♥❣ ❘◆❆✱ s✐❘◆❆✮✳ ❆♣rès q✉❡ ❧❡ ❝♦♠♣❧❡①❡ ❛ ♣r✐s ❡♥ ❝❤❛r❣❡ ❧❡ ♣ré✲ ♠✐❝r♦❆❘◆✱ ❧❛ ❜♦✉❝❧❡ ❡st ❝❧✐✈é❡ ♣❛r ❉❝r✲✶ ♣♦✉r ❢♦r♠❡r ❧❡ ❞✉♣❧❡①❡ ❆❘◆ ❞♦✉❜❧❡ ❜r✐♥s✱ ❧❡ r❡st❡ ❞❡ ❧❛ t✐❣❡✱ ♦ù ❝❤❛q✉❡ ❜r✐♥ ♣♦ssè❞❡ ✉♥❡ t❛✐❧❧❡ ❛♣♣r♦①✐♠❛t✐✈❡ ❞❡ ✷✷ ♥✉❝❧é♦t✐❞❡s✳ ❈❡ ❝♦♠♣❧❡①❡ ❝♦♥t✐❡♥t ❧❡s ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♣♦t❡♥t✐❡❧❧❡♠❡♥t ❢♦♥❝t✐♦♥♥❡❧s✳ ■❧ ❡st à ♥♦t❡r q✉❡ ❧✬✐♥✢✉❡♥❝❡ ❞✬❛✉tr❡s ♣r♦té✐♥❡s ❛ été ♠✐s❡ ❡♥ é✈✐❞❡♥❝❡ ❞❛♥s ❝❡s ❞✐✛ér❡♥ts ♣r♦❝❡ss✉s ❞❡ ♠❛t✉r❛t✐♦♥ ❬✸✵✱ ✸✶❪✳ ▲✬✉♥ ❞❡ ❝❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡st ♣r✐s ❡♥ ❝❤❛r❣❡ ♣❛r ❧❡ ❝♦♠♣❧❡①❡ ♣r♦té✐q✉❡ ❘■❙❈ ✭❘◆❆ ✐♥❞✉❝❡❞ s✐❧❡♥❝✐♥❣ ❝♦♠♣❧❡①✮✱ ❝♦♠♣❧❡①❡ ❛♣♣❡❧é ♠✐❘■❙❈ ❡t ♣r✐♥❝✐♣❛❧❡♠❡♥t ❢♦r♠é ♣❛r ❞❡s ♣r♦té✐♥❡s ❞❡ ❧❛ ❢❛♠✐❧❧❡ ❆r❣♦♥❛✉t❡ ✭❆❣♦✮✳ ▲❡s❘é❣✉❧❛t✐♦♥ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ♣❛r ❧❡s ♣❡t✐ts ❆❘◆ ♥♦♥ ❝♦❞❛♥t ✿ ❧❡ ❝❛s ❞❡s ♠✐❝r♦❆❘◆✶✸ ♣r♦té✐♥❡s ❞❡ ❧❛ ❢❛♠✐❧❧❡ ❆❣♦ ♣❡✉✈❡♥t êtr❡ ❞✐✈✐sé❡s ❡♥ ❞❡✉① s♦✉s ❝❛té❣♦r✐❡s ✿ ❆❣♦ ❡t P✐✇✐ ♦ù ❧❛ s♦✉s✲❝❛té❣♦r✐❡ ❆❣♦ ❝♦♥t✐❡♥t ❧❡s ♣r♦té✐♥❡s ❆❣♦✲✶ ❡t ❆❣♦✲✷ q✉✐ ❢♦♥t ♣❛rt✐❡ ❞✉ ❝♦♠✲ ♣❧❡①❡ ♠✐❘■❙❈✳ ▲❛ s♦✉s✲❢❛♠✐❧❧❡ P✐✇✐ r❡❣r♦✉♣❡ ❞❡s ♣r♦té✐♥❡s ♣r✐♥❝✐♣❛❧❡♠❡♥t ❡①♣r✐♠é❡s ❞❛♥s ❧❡s ❝❡❧❧✉❧❡s ❣❡r♠✐♥❛❧❡s ❡t q✉✐ ♣r❡♥♥❡♥t ❡♥ ❝❤❛r❣❡ ❞✬❛✉tr❡s ♣❡t✐ts ❆❘◆✱ ❧❡s ❆❘◆♣✐ ✭♣✐❘◆❆✮ ❬✸✷❪✳ ▲❡ ❝❤❛r❣❡♠❡♥t ❞❡ ❧✬✉♥ ❞❡s ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❞❛♥s ❧❡ ❝♦♠♣❧❡①❡ ❆❣♦✲✶✴♠✐❘■❙❈ ♦✉ ❆❣♦✲✷✴♠✐❘■❙❈ ❞é♣❡♥❞ ❞❡ ❝❡rt❛✐♥❡s ❝❛r❛❝tér✐st✐q✉❡s ❞✉ ❞✉♣❧❡① ❆❘◆ ❞♦✉❜❧❡ ❜r✐♥s ❬✸✸❪✳ ➚ ❧✬♦r✐❣✐♥❡✱ ❝❡s ❞❡✉① ♠✐❝r♦❆❘◆ ét❛✐❡♥t ❛♣♣❡❧és ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ♣♦✉r ❧❡ ♠✐❝r♦❆❘◆ ❢♦♥❝t✐♦♥♥❡❧ ❡t ♠✐❝r♦❆❘◆✯ ♣♦✉r ❧❡ s❡❝♦♥❞ ♠✐❝r♦❆❘◆✱ q✉✐ ❧✉✐ ♥✬ét❛✐t ♣❛s ❝♦♥s✐❞éré ❝♦♠♠❡ ❢♦♥❝t✐♦♥♥❡❧✳ ◆é❛♥♠♦✐♥s✱ ❞❡s ♣r❡✉✈❡s s✉❣❣èr❡♥t q✉❡ ❝❡s ❞❡✉① ♠✐✲ ❝r♦❆❘◆ ♠❛t✉r❡s ♣❡✉✈❡♥t êtr❡ ❢♦♥❝t✐♦♥♥❡❧s ❬✸✹✱ ✸✺❪✳ ■❧ ❛ ❞♦♥❝ été ❞é❝✐❞é ❞❡ ❝♦♥s✐❞ér❡r ❧❡s ❞❡✉① ❜r✐♥s ❞❡ ❧❛ t✐❣❡ ❝♦♠♠❡ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♣♦t❡♥t✐❡❧❧❡♠❡♥t ❢♦♥❝t✐♦♥♥❡❧s ❡t ❞❡ ❧❡s ♥♦♠♠❡r ✺♣ ❡t ✸♣ s❡❧♦♥ ❧❡✉r ♣♦s✐t✐♦♥ s✉r ❧❡ ♣ré✲♠✐❝r♦❆❘◆✱ ♥♦t❛t✐♦♥ ❡✛❡❝t✐✈❡ ❞❛♥s ❧❡s ❞❡r♥✐èr❡s ✈❡rs✐♦♥ ❞❡ ♠✐❘❇❛s❡ ❬✷✸❪✳ ▲❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ♣❡✉✈❡♥t êtr❡ ❧♦❝❛❧✐sés ❞❛♥s ❞❡s ré❣✐♦♥s ✐♥t❡r❣é♥✐q✉❡s ♠❛✐s ❛✉ss✐ ❞❛♥s ❞❡s ❣è♥❡s ❝♦❞❛♥t ❞❡s ❆❘◆♠✳ ❉❛♥s ❝❡ ♠❛♥✉s❝r✐t✱ ♦♥ ❛♣♣❡❧❧❡r❛ ✓ ❆❘◆♠ ❤ôt❡ ✔ ♦✉ ✓ ❣è♥❡ ❤ôt❡ ✔ ❞❡s ❆❘◆♠ ♦✉ ❣è♥❡s ❝♦♥t❡♥❛♥t ✉♥ ♦✉ ♣❧✉s✐❡✉rs ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆✳ P❛r♠✐ ❧❡s ♠✐❝r♦❆❘◆ ✐♥tr❛❣é♥✐q✉❡s✱ ♦♥ ♣❡✉t ❞✐✛ér❡♥❝✐❡r ❧❡s ❣è♥❡s ❡①♦♥✐q✉❡s ❡t ❧❡s ❣è♥❡s ✐♥tr♦♥✐q✉❡s✳ ■❧ ❛ été ♠♦♥tré q✉❡ ❧❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❛✉ s❡✐♥ ❞✬✐♥tr♦♥s ❞❡s ❣è♥❡s ❝♦❞❛♥t ♣♦✉r ❞❡s ♣r♦té✐♥❡s ét❛✐❡♥t ❡✉① ❛✉ss✐ ❡①♣r✐♠és ❬✸✻❪✳ ▲✬é♣✐ss❛❣❡ ❞❡ ❝❡s ♠✐❝r♦❆❘◆ ♣❡✉t s❡ ❢❛✐r❡ ❞❡ ♣❧✉s✐❡✉rs ❢❛ç♦♥s✳ ❙♦✐t ❧✬✐♥tr♦♥ ❞✉ ✓ ❣è♥❡ ❤ôt❡ ✔✱ r❡❧â❝❤é ❛♣rès é♣✐ss❛❣❡✱ ❢♦r♠❡ ✉♥ ♣r✐✲♠✐❝r♦❆❘◆ ♣r✐s ❡♥ ❝❤❛r❣❡ ♣❛r ❧❡ ❝♦♠♣❧❡①❡ ❉r♦s❤❛✴P❛s❤❛ ♣♦✉r ❢♦r♠❡r ❧❡ ♣ré✲♠✐❝r♦❆❘◆ ❬✸✼❪✳ ❙♦✐t ❧✬✐♥tr♦♥ ❢❛✐t ❧❛ t❛✐❧❧❡ ❞✉ ♣ré✲♠✐❝r♦❆❘◆ ❡t ✐❧ ♣❡✉t ❞❛♥s ❝❡ ❝❛s êtr❡ ❞✐r❡❝t❡♠❡♥t ❡①♣♦rté ❞❛♥s ❧❡ ❝②t♦s♦❧ s❛♥s ♥é❝❡ss✐t❡r ❧✬✐♥t❡r✈❡♥t✐♦♥ ❞✬é♣✐ss❛❣❡ ♦✉ ❞✉ ❝♦♠♣❧❡①❡ ❉r♦s❤❛✴P❛s❤❛✳ ❈❡ t②♣❡ ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ✐♥tr♦♥✐q✉❡s s♦♥t ❛♣♣❡❧és ♠✐rtr♦♥s ❬✸✽❪✳ ➚ ♥♦t❡r q✉❡ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ♦♥t ❛✉ss✐ été ❞ét❡❝tés ❞❛♥s ❞❡ ❧♦♥❣s ❆❘◆ ♥♦♥ ❝♦❞❛♥ts ✭❧❆❘◆♥❝✮ ❬✸✻❪✳ ✶✳✷✳✹ ▼♦❞❡ ❞✬❛❝t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ✿ ❝♦♠♠❡♥t ❝✐❜❧❡♥t✲✐❧s ❡t ré❣✉❧❡♥t✲ ✐❧s ❧❡s ❆❘◆♠ ❯♥❡ ❢♦✐s ❧❡ ❝♦♠♣❧❡①❡ ♠✐❘■❙❈ ♦❜t❡♥✉✱ ❧❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ✈❛ s❡r✈✐r ❞❡ ✓ ❣✉✐❞❡ ✔ ❛✉ ❝♦♠♣❧❡①❡ ♠✐❘■❙❈ ♣♦✉r s❛ ✜①❛t✐♦♥ s✉r ❧✬❆❘◆♠ ❝✐❜❧❡ à ❧✬❛✐❞❡ ❞✬✉♥❡ ❝♦♠♣❧é♠❡♥t❛✲ r✐té ♣❛rt✐❡❧❧❡ ❡♥tr❡ ❝❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❡t ❧✬❆❘◆♠✳ ▲❛ ✜①❛t✐♦♥ ❞✉ ❝♦♠♣❧❡①❡ s❡ ❢❛✐t ♣ré❢ér❡♥t✐❡❧❧❡♠❡♥t s✉r ❧❡ ✸✬❯❚❘ ❞❡s ❆❘◆♠ ♠ê♠❡ s✐ ❞✬❛✉tr❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ♦♥t été ✐❞❡♥t✐✜és ❞❛♥s ❧❡s ✺✬❯❚❘ ♦✉ ❞❛♥s ❧❡s ❝❛❞r❡s ♦✉✈❡rts ❞❡ ❧❡❝t✉r❡ ❬✶✼❪✳ ▲❛ ✜①❛t✐♦♥ ♣ré❢é✲ r❡♥t✐❡❧❧❡ ❞❡ ♠✐❘■❙❈ s✉r ❧❡ ✸✬❯❚❘ ♣❡✉t s✬❡①♣❧✐q✉❡r ♣❛r ❧❡ ❢❛✐t q✉❡ s✐ ❧❡ ❝♦♠♣❧❡①❡ s❡ ✜①❡ ❞❛♥s ❧❡ ✺✬❯❚❘ ♦✉ ❧❡ ❝❛❞r❡ ♦✉✈❡rt ❞❡ ❧❡❝t✉r❡✱ ❧❡ r✐❜♦s♦♠❡ ❡t ❧❡s ❛✉tr❡s ❝♦♠♣❧❡①❡s ✐♠♣❧✐✲ q✉és ❞❛♥s ❧❛ tr❛❞✉❝t✐♦♥ r✐sq✉❡♥t ❞❡ ❞é♣❧❛❝❡r✴❞ét❛❝❤❡r ❧❡ ♠✐❘■❙❈ ❞❡ ❧✬❆❘◆♠ ❬✶✻❪✳ ▲❛ ✜①❛t✐♦♥ ❞✉ ♠✐❘■❙❈ ♣❡✉t ❛✈♦✐r ❞✐✛ér❡♥ts ❡✛❡ts s✉r ❧✬❆❘◆♠ ✿ s♦✐t ✐♥❤✐❜❡r s❛ tr❛❞✉❝t✐♦♥✱ s♦✐t ✐♥❞✉✐r❡ s❛ ❞é❣r❛❞❛t✐♦♥✱ s♦✐t ❧❡s ❞❡✉①✳ ■♥❤✐❜✐t✐♦♥ ❞❡ ❧❛ tr❛❞✉❝t✐♦♥ ■❧ ❛ été ♠♦♥tré ❝❤❡③ ❧✬❤✉♠❛✐♥ q✉❡ ❧✬✐♥❤✐❜✐t✐♦♥ ❞❡ ❧❛ tr❛❞✉❝t✐♦♥ ♣❛r ♠✐❘■❙❈ ♣♦✉✈❛✐t s❡ ❢❛✐r❡ à ❧✬❛✐❞❡ ❞❡ ❆❣♦✲✷✳ ❯♥ ❞♦♠❛✐♥❡ ♣r♦té✐q✉❡ ❝❤❡③ ❧✬❆❣♦✲✷ ❤✉♠❛✐♥❡ ❛ été tr♦✉✈é q✉✐ ♣❡r♠❡ttr❛✐t s❛ ✜①❛t✐♦♥ s✉r ❧❛ ❝♦✐✛❡ ♠7● ✭✼✲♠❡t❤②❧ ❣✉❛♥♦s✐♥❡✮ s✉r ❧❡ ❝ôté ✺✬ ❞❡s ❆❘◆♠ ❡t ❛✐♥s✐ ❡♠♣ê❝❤❡r ❧❛ ✜①❛t✐♦♥ ❞❡ ❡❧❋✹❊✱ ♣r♦té✐♥❡ ♣❡r♠❡tt❛♥t ❞✬✐♥✐t✐❡r ❧❛ tr❛❞✉❝t✐♦♥ ❡♥✶✹ ■♥tr♦❞✉❝t✐♦♥ r❡❝r✉t❛♥t ❧❡ r✐❜♦s♦♠❡ ❬✸✾❪✳ ❈❡ ♠♦t✐❢ ❛ été ❛✉ss✐ r❡tr♦✉✈é ❝❤❡③ ❧❛ ♣r♦té✐♥❡ ❆❣♦✲✶ ❞❡ ❉r♦s♦♣❤✐❧❛ ♠❡❧❛♥♦❣❛st❡r ❛✐♥s✐ q✉❡ ❝❤❡③ ❧❡s ❆❣♦ ❞❡s ❝❤♦r❞és ❡t ❈❛❡♥♦r❤❛❜❞✐t✐s ❡❧❡❣❛♥s ❬✸✾❪✳ ❈❡ ❞♦♠❛✐♥❡✱ ♥♦♥ ♣rés❡♥t ❝❤❡③ ❧❡s ♣r♦té✐♥❡s ❞❡ ❧❛ s♦✉s✲❢❛♠✐❧❧❡ P✐✇✐✱ s❡r❛✐t ❞♦♥❝ ❧✬✉♥ ❞❡s ♠♦❞❡s ❞✬✐♥❤✐❜✐t✐♦♥ ❞❡ ❧❛ tr❛❞✉❝t✐♦♥ ❞❡ ❧✬❆❘◆♠ ♣❛r ❆❣♦✴♠✐❘■❙❈✳ ❉é❣r❛❞❛t✐♦♥ ❞❡ ❧✬❆❘◆♠ ❈♦♥tr❛✐r❡♠❡♥t ❛✉① ♣❧❛♥t❡s✱ très ♣❡✉ ❞❡ ♠✐❝r♦❆❘◆ ✐♥❞✉✐s❡♥t ❧❛ ❞é❣r❛❞❛t✐♦♥ ❞❡ ❧❡✉rs ❆❘◆♠ ❝✐❜❧❡s ♣❛r ❝❧✐✈❛❣❡ ❞❡ ❝❡s ❞❡r♥✐❡rs ❝❤❡③ ❧❡s ❛♥✐♠❛✉①✳ ❈❤❡③ ❧❡s ❛♥✐♠❛✉①✱ ❡t ❞♦♥❝ ❧❡s ✐♥s❡❝t❡s✱ ❧❛ ❞é❣r❛❞❛t✐♦♥ ❞❡ ❧✬❆❘◆♠ s❡ ❢❛✐t ♣ré❢ér❡♥t✐❡❧❧❡♠❡♥t ♣❛r ❧❡✉r ❞ést❛❜✐❧✐s❛t✐♦♥✳ ■❧ ❛ été ♠♦♥tré ❝❤❡③ ♣❧✉s✐❡✉rs ♦r❣❛♥✐s♠❡s ❞♦♥t ❉✳ ♠❡❧❛♥♦❣❛st❡r q✉❡ ❝❡tt❡ ❞ést❛❜✐❧✐s❛t✐♦♥ ❡st ✐♥❞✉✐t❡ ♣❛r ❧❡ ❝♦♠♣❧❡①❡ ❢♦r♠é ❞❡ ❧❛ ♣r♦té✐♥❡ ❆❣♦✲✶ ❞✉ ♠✐❘■❙❈ ❡t ❞✉ r❡❝r✉t❡♠❡♥t ♣♦t❡♥t✐❡❧ ❞❡ ●❲✶✽✷✳ ❈❡ ♥♦✉✈❡❛✉ ❝♦♠♣❧❡①❡ ✈❛ à s♦♥ t♦✉r ♣♦t❡♥t✐❡❧❧❡♠❡♥t r❡❝r✉t❡r ❞❡✉① ❝♦♠♣❧❡①❡s ♣r♦té✐q✉❡s ✿ ❈❈❘✹✴◆❖❚ ❡t ❉❈P✶✴❉❈P✷✱ r❡s♣❡❝t✐✈❡♠❡♥t ✉♥ ❝♦♠♣❧❡①❡ ❞❡ ❞é❛❞é♥②❧❛t✐♦♥ ❞❡ ❧❛ q✉❡✉❡ ♣♦❧②✭❆✮ ❡t ✉♥ ❝♦♠♣❧❡①❡ ❞❡ ❞é❝♦✐✛❛❣❡ ❞❡ ❧✬❆❘◆♠✳ ▲❡ ♣❡rt❡ ♣❛rt✐❡❧❧❡ ❞❡ s❛ q✉❡✉❡ ❡t ❞❡ s❛ ❝♦✐✛❡ ✈❛ ❞ést❛❜✐❧✐s❡r ❧✬❆❘◆♠ ❝❡ q✉✐ ✈❛ ✐♥❞✉✐r❡ s❛ ❞é❣r❛✲ ❞❛t✐♦♥ ❬✹✵❪✳ ■♥❤✐❜✐t✐♦♥ ❡t ❞é❣r❛❞❛t✐♦♥ ■❧ ❛ été ♠♦♥tré q✉❡ ❧✬✐♥❤✐❜✐t✐♦♥ ❞❡ ❧❛ tr❛❞✉❝t✐♦♥ ❡t ❧❛ ❞ést❛❜✐❧✐s❛t✐♦♥ ❞❡ ❧✬❆❘◆♠ ✐♥❞✉✐t❡ ♣❛r ❧❛ ✜①❛t✐♦♥ ❞✉ ♠✐❘■❙❈ ♣❡✉✈❡♥t êtr❡ ❝♦♥❥♦✐♥t❡s ❡t q✉❡ ❧❛ ❜❛✐ss❡ ❞✉ ♥✐✈❡❛✉ ❞❡ tr❛❞✉❝t✐♦♥ ❞❡ ❧✬❆❘◆♠ ❡st ❛♥tér✐❡✉r❡ à s❛ ❞é❣r❛❞❛t✐♦♥ ❬✹✶❪✳ ▲✬❡✛❡t ✜♥❛❧ ❞❡ ❧❛ ✜①❛t✐♦♥ ❞✬✉♥ ♠✐❝r♦❆❘◆ s✉r ✉♥❡ ❝✐❜❧❡ ❞✬❆❘◆♠ ❡st ✕ q✉❡❧ q✉❡ s♦✐t ❧❡ ♠é❝❛♥✐s♠❡ ✕ ✉♥❡ ❞✐♠✐♥✉t✐♦♥ ❞❡ ❧❛ tr❛❞✉❝t✐♦♥ ❞❡ ❧✬❆❘◆♠ ❝✐❜❧❡✳ ❈❡tt❡ ❡✛❡t ❡st ❝♦♠❜✐♥❛t♦✐r❡ ♣✉✐sq✉❡ ❞✬✉♥❡ ♣❛rt ✉♥ ♠✐❝r♦❆❘◆ ♣❡✉t s❡ ✜①❡r s✉r ♣❧✉s✐❡✉rs ❝✐❜❧❡s ❞✐✛ér❡♥t❡s ❡t ❞✬❛✉tr❡ ♣❛rt ✉♥ ❆❘◆♠ ♣❡✉t êtr❡ ❝✐❜❧❡ ❞❡ ♣❧✉s✐❡✉rs ♠✐❝r♦❆❘◆✳ ❊♥✜♥✱ ✉♥ ♦✉ ♣❧✉s✐❡✉rs ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♣❡✉✈❡♥t s❡ ✜①❡r ♣❧✉s✐❡✉rs ❢♦✐s s✉r ❧❡ ♠ê♠❡ ❆❘◆♠✱ ✐♥t❡♥s✐✜❛♥t s♦♥ ❡✛❡t ❜✐♦❧♦❣✐q✉❡ s✐ ❧❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ s♦♥t à ✉♥❡ ❞✐st❛♥❝❡ ♣❡r♠❡tt❛♥t ❧❛ ❝♦♦♣ér❛t✐♦♥ ❡♥tr❡ ❝❡s s✐t❡s ✭❡♥tr❡ ✶✺ ❡t ✸✺ ♥✉❝❧é♦t✐❞❡s✮ ❬✹✷✱ ✶✻❪✳ ▲✬é♠❡r❣❡♥❝❡ ❞✬✉♥ ♥♦✉✈❡❛✉ ♣❛r❛❞✐❣♠❡ ✿ ❧❛ ré♣r❡ss✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ♣❛r ❧❡s ❆❘◆♠ ▲❡ ♣❛r❛❞✐❣♠❡ ❝❧❛ss✐q✉❡ s✉r ❧❡s ♠✐❝r♦❆❘◆ ❡st q✉✬✐❧s ré❣✉❧❡♥t ❢♦♥❝t✐♦♥♥❡❧❧❡♠❡♥t ✉♥ ❡♥s❡♠❜❧❡ ❞✬❆❘◆♠ ❡♥ ❞✐♠✐♥✉❛♥t ❧❡✉r tr❛❞✉❝t✐♦♥✴st❛❜✐❧✐té✳ ❉❡♣✉✐s q✉❡❧q✉❡s ❛♥♥é❡s✱ ✐❧ ❛ été ♦❜s❡r✈é q✉❡ ❧❡s ♠✐❝r♦❆❘◆ ♣♦✉✈❛✐❡♥t ❡✉①✲♠ê♠❡s êtr❡ ré❣✉❧és ♣❛r ❞❡s ❆❘◆ ♥♦♥ ❝♦❞❛♥ts ✭❆❘◆♥❝✮ ❝♦♠♠❡ ❞❡ ❧♦♥❣s ❆❘◆ ♥♦♥ ❝♦❞❛♥ts ✭❧❆❘◆♥❝✮✱ ❞❡s ♣s❡✉❞♦❣è♥❡s ♦✉ ❡♥❝♦r❡ ❞❡s ❆❘◆ ❝✐r❝✉❧❛✐r❡s ✭❆❘◆❝✐r❝✮ ❬✹✸✱ ✹✹❪✳ ❈❡s ♦❜s❡r✈❛t✐♦♥s ♦♥t ♠❡♥é à ✉♥ ♥♦✉✈❡❛✉ ♣❛r❛❞✐❣♠❡ ✿ ❧❡s ♠✐❝r♦❆❘◆ ♥❡ ♣♦ssé❞❡r❛✐❡♥t q✉✬✉♥ ❡♥s❡♠❜❧❡ très r❡str❡✐♥t ❞❡ ✓ ❝✐❜❧❡s ✔ ❢♦♥❝t✐♦♥♥❡❧❧❡s✳ ▲❡s ❛✉tr❡s ❝✐❜❧❡s ❞❡s ♠✐❝r♦❆❘◆ ❛✉r❛✐❡♥t ♣♦✉r ❢♦♥❝t✐♦♥ ❞❡ ❧✐♠✐t❡r ❧❛ ✜①❛t✐♦♥ ❞❡ ♠✐❝r♦❆❘◆ s✉r ❧❡s ✈ér✐t❛❜❧❡s ❝✐❜❧❡s✳ ❆✐♥s✐✱ ❜❡❛✉❝♦✉♣ ❞❡s ♠✐❝r♦❆❘◆ s❡r❛✐❡♥t ❡♥ ré❛❧✐té ✓ t✐trés ✔ ♣❛r ❞❡s ❆❘◆♠ ♦✉ ❞✬❛✉tr❡s ❆❘◆♥❝ ♣♦✉r ❧❡s ❡♠♣ê❝❤❡r ❞✬êtr❡ ❛❝t✐❢s s✉r ❞❡s ❝✐❜❧❡s ré❡❧❧❡s✳ ❈❡s ✓ ❢❛✉ss❡s ✔ ❝✐❜❧❡s ❥♦✉❡r❛✐❡♥t ❧❡ rô❧❡ ✓ ❞✬é♣♦♥❣❡s ✔ à ♠✐❝r♦❆❘◆ ❬✹✺❪✳ ❈❡tt❡ ❝♦♠♣ét✐t✐♦♥ ❡♥tr❡ ♠✐❝r♦❆❘◆✱ ❆❘◆♠✱ ♣s❡✉❞♦❣è♥❡s ❡t ❧❆❘◆♥❝ ❡♥❞♦❣è♥❡s ❛ été ✉♥✐✜é❡ ♣❛r ✉♥❡ ❤②♣♦t❤ès❡ ❣❧♦❜❛❧❡ ❛♣♣❡❧é❡ ✓ ❝♦♠♣ét✐t✐♦♥ ❡♥tr❡ ❆❘◆ ❡♥❞♦❣è♥❡s ✔❘é❣✉❧❛t✐♦♥ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ♣❛r ❧❡s ♣❡t✐ts ❆❘◆ ♥♦♥ ❝♦❞❛♥t ✿ ❧❡ ❝❛s ❞❡s ♠✐❝r♦❆❘◆✶✺ ✭❝❆❘◆❡✮ ♦✉ ❡♥ ❛♥❣❧❛✐s ✿ ❝♦♠♣❡t✐♥❣ ❡♥❞♦❣❡♥♦✉s ❘◆❆ ✭❝❡❘◆❆✮ ❡♥ ✷✵✶✶ ♣❛r ❙❛❧♠❡♥❛ ❡t ❛❧✳ ❬✹✻❪✳ ✶✳✷✳✺ Pré❞✐❝t✐♦♥ ❞❡s ❝✐❜❧❡s ❞❡s ♠✐❝r♦❆❘◆ ✿ ✐❞❡♥t✐✜❝❛t✐♦♥ ❞❡s ❝✐❜❧❡s ❡t ♣❛r❛❞♦①❡ ❡♥tr❡ ❧❡ ♥♦♠❜r❡ é❧❡✈é ❞❡ ♣ré❞✐❝t✐♦♥s ❡t ❧❡ ♥♦♠❜r❡ r❡str❡✐♥t ❞✬✐♥t❡r❛❝t✐♦♥s ✐❞❡♥t✐✜é❡s ❉❡♣✉✐s ❧✬✐❞❡♥t✐✜❝❛t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆✱ ❞❡ ❧❡✉r ✐♠♣❧✐❝❛t✐♦♥ ❞❛♥s ❞✐✛ér❡♥t❡s ❢♦♥❝t✐♦♥s ❜✐♦❧♦❣✐q✉❡s ❡t ❞❡ ❧❡✉rs ♠♦❞❡s ❞✬❛❝t✐♦♥s s✉r ❧❡s ❆❘◆♠✱ ✉♥ ❣r❛♥❞ ♥♦♠❜r❡ ❞❡ ♠ét❤♦❞❡s ♦♥t été ❞é✈❡❧♦♣♣é❡s ❛✜♥ ❞❡ ♣ré❞✐r❡ ❧❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ❛✉ s❡✐♥ ❞❡s ❆❘◆♠ ❬✹✼✱ ✹✽✱ ✹✾❪✳ ❈❡tt❡ s♦✉s✲♣❛rt✐❡ ❞é❝r✐t ❞❡ ❢❛ç♦♥ ❣❧♦❜❛❧❡ ❧❡s ❝r✐tèr❡s ✉t✐❧✐sés ♣❛r ❞✐✛ér❡♥t❡s ♠ét❤♦❞❡s ❞❡ ♣ré❞✐❝t✐♦♥ ❞❡ s✐t❡s ❞❡ ✜①❛t✐♦♥ ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s✉r ❧❡s ❆❘◆♠✱ ❡t ♣❧✉s ♣❛rt✐❝✉❧✐èr❡♠❡♥t ❧❡✉r ✸✬❯❚❘✳ ▲❛ ❧✐st❡ ❛✐♥s✐ q✉❡ ❧❛ ❞❡s❝r✐♣t✐♦♥ ❞❡s ♠ét❤♦❞❡s ♥❡ s♦♥t ♣❛s ❡①❤❛✉st✐✈❡s✳ ❉❡ ♥♦♠❜r❡✉① ❛rt✐❝❧❡s ❞❡ s②♥t❤ès❡ ❞é❝r✐✈❡♥t ❡t✴♦✉ ❝♦♠♣❛r❡♥t ❧❡s ❞✐✛ér❡♥t❡s ♠ét❤♦❞❡s ❡①✐st❛♥t❡s ❡t ♦♥ ♣♦✉ss❡ à s❡ ré❢ér❡r ♥♦t❛♠♠❡♥t à ❬✹✼✱ ✹✽✱ ✹✾❪ ♣♦✉r ✉♥❡ ✐♥tr♦❞✉❝t✐♦♥ ♣❧✉s ❛♣♣r♦❢♦♥❞✐❡✳ ❈♦♥s❡r✈❛t✐♦♥ ❞❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ▲❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s✉r ❧❡s ❆❘◆♠ s♦♥t s♦✉✈❡♥t ❝♦♥s❡r✲ ✈és ❬✶✻❪✳ ❈❡tt❡ ❝♦♥s❡r✈❛t✐♦♥ s❡r❛✐t à ❧❛ ❜❛s❡ ❞❡ ❧❛ ❝♦♥s❡r✈❛t✐♦♥ ❞❡ ❧❛ ❢♦♥❝t✐♦♥ ❞❡s ♠✐✲ ❝r♦❆❘◆ ♣✉✐sq✉❡ ✉♥❡ ♣❡rt❡ ❞✉ s✐t❡ ❞❡ ✜①❛t✐♦♥ ❡♥tr❛î♥❡ ✉♥❡ ♣❡rt❡ ❞❡ ❧✬✐♥t❡r❛❝t✐♦♥ ❡t ♣❛r ❝♦♥séq✉❡♥t✱ ✉♥❡ ♣❡rt❡ ❞❡ ❢♦♥❝t✐♦♥ q✉✐✱ s✐ ❡❧❧❡ ❡st ❛❞❛♣t❛t✐✈❡✱ ❞✐♠✐♥✉❡r❛✐t ❧❛ ✜t♥❡ss ❞❡ ❧✬✐♥❞✐✈✐❞✉✳ P♦✉r ❝❡tt❡ r❛✐s♦♥✱ ❞❡ ♥♦♠❜r❡✉s❡s ét✉❞❡s ❡t ♣r♦❣r❛♠♠❡s ❞❡ ♣ré❞✐❝t✐♦♥ ❞✬✐♥t❡r✲ ❛❝t✐♦♥s s♦✐t ♥❡ ♣ré❞✐s❡♥t q✉❡ ❧❡s ✐♥t❡r❛❝t✐♦♥s ♦ù ❧❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ s♦♥t ❝♦♥s❡r✈és ❝❤❡③ ❞❡s ❡s♣è❝❡s ♣r♦❝❤❡s✱ s♦✐t ♣❡r♠❡tt❡♥t ❞❡ ❧❡ ❢❛✐r❡✳ ◆é❛♥♠♦✐♥s✱ ❧✬❛♣♣❛r✐t✐♦♥ ❞❡ ♥♦✉✈❡❛✉① s✐t❡s ❞❡ ✜①❛t✐♦♥ ♥✬❡st ♣❛s à ❡①❝❧✉r❡ ❡t ❝❡rt❛✐♥s ❞❡ ❝❡s s✐t❡s ♦♥t été ♠♦♥trés ❝♦♠♠❡ ét❛♥t ❢♦♥❝t✐♦♥♥❡❧s ❬✺✵✱ ✶✻❪✳ ❉❡ ♣❧✉s✱ ❧♦rsq✉❡ q✉❡ ❧✬♦♥ ét✉❞✐❡ ✉♥ ❝❛r❛❝tèr❡ ❝❤❡③ ✉♥❡ ❡s♣è❝❡ q✉✐ ♥✬❡st ♣❛s ♣❛rt❛❣é ♣❛r ❞✬❛✉tr❡s✱ ❡①❝❧✉r❡ ❝❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ♥♦♥ ❝♦♥s❡r✈és q✉✐ s♦♥t ❞♦♥❝ s♣é❝✐✜q✉❡s ❞✬✉♥❡ ❡s♣è❝❡ ♣❡✉t ❡①❝❧✉r❡ ❞❡s ✐♥t❡r❛❝t✐♦♥s q✉✐ s❡r❛✐❡♥t ❥✉st❡♠❡♥t ✐♠♣❧✐q✉é❡s ❞❛♥s ❧❡ ❝❛r❛❝tèr❡ ét✉❞✐é✳ ❈r✐tèr❡s ♣♦✉r ❧❛ ♣ré❞✐❝t✐♦♥ ❞❡ s✐t❡s ❞❡ ✜①❛t✐♦♥ ▲❛ ♣❧✉♣❛rt ❞❡s ♠ét❤♦❞❡s ✉t✐❧✐s❡♥t ❧❡s ❝r✐tèr❡s s✉✐✈❛♥ts ✿ ✕ ▲❛ ❝♦♠♣❧é♠❡♥t❛r✐té ❡♥tr❡ ❧❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❡t ❧❡ ✸✬❯❚❘ ❞❡ ❧✬❆❘◆♠ ❀ ✕ ▲❛ ❢♦r❝❡ ❞✉ ❞✉♣❧❡①❡ ❢♦r♠é ❡♥tr❡ ❧❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❡t ❧❡ s✐t❡ ❞❡ ✜①❛t✐♦♥ ❀ ✕ ▲✬❛❝❝❡ss✐❜✐❧✐té ❞✉ s✐t❡ ❞❡ ✜①❛t✐♦♥✳ ❈♦♥❝❡r♥❛♥t ❧❛ ❝♦♠♣❧é♠❡♥t❛r✐té ❡♥tr❡ ❧❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❡t ❧❡ ✸✬❯❚❘ ❞❡ ❧✬❆❘◆♠✱ ❧❡s ♠ét❤♦❞❡s ✭♣❛r ❡①❡♠♣❧❡ ❚❛r❣❡t❙❝❛♥ ❬✺✶❪✮ ♥❡ ❝♦♥s✐❞èr❡♥t ❣é♥ér❛❧❡♠❡♥t q✉❡ ❧❡s ❝♦✉♣❧❡s ♠✐❝r♦❆❘◆✴❆❘◆♠ ♣♦✉r ❧❡sq✉❡❧s ✐❧ ❡①✐st❡ ✉♥❡ ❝♦♠♣❧é♠❡♥t❛r✐té ♣❛r❢❛✐t❡ ♦✉ q✉❛s✐ ♣❛r❢❛✐t❡ ❡♥tr❡ ❧❛ ❣r❛✐♥❡ ❞✉ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❡t ❝❡rt❛✐♥s t②♣❡s ❞❡ s✐t❡s ❞❡ ✜①❛t✐♦♥ ✭✈♦✐r ❋✐❣✉r❡ ✶✳✺✮ ❬✶✻❪✳ ▼ê♠❡ s✐ ❝❡rt❛✐♥❡s ✐♥t❡r❛❝t✐♦♥s ❡①✐st❡♥t ❡♥tr❡ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞❡s ❆❘◆♠ ♦ù ❧❛ ❝♦♠♣❧é♠❡♥t❛r✐té ❡♥tr❡ ❧❛ ❣r❛✐♥❡ ❡t ❧❡ ✸✬❯❚❘ ♥✬❡st ♣❛s ♣❛r❢❛✐t❡✱ ré❞✉✐r❡ ❧❡s ♣ré❞✐❝t✐♦♥s à ❝❡❧❧❡s ♣♦ssé❞❛♥t ❝❡ t②♣❡ ❞❡ ❝♦♠♣❧é♠❡♥t❛r✐té ♣❡r♠❡t ❞❡ ré❞✉✐r❡ ❧❡ t❛✉① ❞❡ ❢❛✉ss❡s ♣ré❞✐❝t✐♦♥s✳ P♦✉r ❧❛ ❢♦r❝❡ ❞✉ ❞✉♣❧❡①❡ ❡♥tr❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❡t ✸✬❯❚❘✱ ❧✬é♥❡r❣✐❡ ❧✐❜r❡ ❞❡ ❧❛ ❧✐❛✐s♦♥✱ ♦✉ ❧❡ ❝❤❛♥❣❡♠❡♥t ❞✬é♥❡r❣✐❡ ❧✐❜r❡✱ ❡st ❝❛❧❝✉❧é❡ ♣♦✉r ❞é✜♥✐r ❧❛✶✻ ■♥tr♦❞✉❝t✐♦♥ st❛❜✐❧✐té ❞❡ ❧✬✐♥t❡r❛❝t✐♦♥ ❬✹✾❪✳ ❊♥ ❡✛❡t✱ ❧❡ ✸✬❯❚❘ ❛❞♦♣t❛♥t ✉♥❡ ❝♦♥❢♦r♠❛t✐♦♥ s❡❝♦♥❞❛✐r❡ ❡t t❡rt✐❛✐r❡✱ ❧❡ s✐t❡ ❞❡ ✜①❛t✐♦♥ ♣❡✉t êtr❡ ✐♥❝❧✉s ❞❛♥s ✉♥❡ str✉❝t✉r❡ ❡t ❞♦♥❝ ♥❡ ♣❛s êtr❡ ❛❝❝❡ss✐❜❧❡ ♣♦✉r ❧❛ ✜①❛t✐♦♥ ❞✉ ❝♦♠♣❧❡①❡✳ ▲✬é♥❡r❣✐❡ ♥é❝❡ss❛✐r❡ ♣♦✉r ✓ ♦✉✈r✐r ✔ ❝❡tt❡ ♣❛rt✐❡ ❞✉ ✸✬❯❚❘ ❡st ❞♦♥❝ ✐♠♣♦rt❛♥t❡ ❞❛♥s ❧✬❛❝❝❡ss✐❜✐❧✐té ❞✉ s✐t❡✳ ▲❡s ❝r✐tèr❡s ❞✬❛❝❝❡ss✐❜✐❧✐té ❞✉ s✐t❡ ♣❡✉✈❡♥t êtr❡ très ❞✐✛ér❡♥ts ❡♥tr❡ ❧❡s ♠ét❤♦❞❡s✳ ❈❡rt❛✐♥❡s ♠ét❤♦❞❡s ❝❛❧❝✉❧❡♥t ❧✬é♥❡r❣✐❡ ♥é❝❡ss❛✐r❡ ♣♦✉r r❡♥❞r❡ ❧❡ s✐t❡ ❞❡ ✜①❛t✐♦♥ ❞✉ ✸✬❯❚❘ ❞❡ ❧✬❆❘◆♠ ❛❝❝❡ss✐❜❧❡ ❛✉ ❝♦♠♣❧❡①❡ ♠✐❘■❙❈ ❝♦♠♠❡ ❧❛ ♠ét❤♦❞❡ P■❚❆ ❬✺✷❪✳ ▲❛ ♠ét❤♦❞❡ ❚❛r❣❡t❙❝❛♥ ❬✺✶❪ ❝❛❧❝✉❧❡ ❧❡ ♣♦✉r❝❡♥t❛❣❡ ❡♥ ❆✴❯ ❛✉t♦✉r ❞✉ s✐t❡ ❞❡ ✜①❛t✐♦♥✳ ▲❡s ❧✐❛✐s♦♥s ❆✴❯ ét❛♥t ♣❧✉s ❢❛✐❜❧❡s q✉❡ ❧❡s ❧✐❛✐s♦♥s ●✴❈✱ ✉♥ ♣♦✉r❝❡♥t❛❣❡ é❧❡✈é ❡♥ ❆✴❯ ❛✉t♦✉r ❞✉ s✐t❡ ❞❡ ✜①❛t✐♦♥ ❢❛❝✐❧✐t❡r❛ ❧❛ ✜①❛t✐♦♥ ❞✉ ❝♦♠♣❧❡①❡ ♠✐❘■❙❈✳ ❊♥ ♣❧✉s ❞❡ ❝❡s ❞✐✛ér❡♥ts ❝r✐tèr❡s✱ ❝❡rt❛✐♥❡s ♠ét❤♦❞❡s ❝♦♠♠❡ ♠✐❘❛♥❞❛✲♠✐r❙❱❘ ❬✺✸❪✱ ❉■❆◆❆✲♠✐❝r♦❚✲❈❉❙ ❬✺✹✱ ✺✺❪✱ ❙❱▼✐❝r❖ ❬✺✻❪ ✉t✐❧✐s❡♥t ❧✬❛♣♣r❡♥t✐ss❛❣❡ s✉♣❡r✈✐sé ❛✜♥ ❞✬❛✐❞❡r à ❧❛ ♣ré❞✐❝t✐♦♥ ❞❡s s✐t❡s ❞❡ ✜①❛t✐♦♥✳ ▲❡s ❞♦♥♥é❡s ❞✬❛♣♣r❡♥t✐ss❛❣❡ ✉t✐❧✐sé❡s s♦♥t ❣é♥ér❛❧❡♠❡♥t ❞❡s ❞♦♥♥é❡s ❞✬❡①♣r❡ss✐♦♥s ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞✬❆❘◆♠✳ ❯♥ ❛✉tr❡ ❝r✐tèr❡ q✉✐ ❡st ✉t✐❧✐sé ♣❛r ❧❛ ♠❛❥♦r✐té ❞❡s ♠ét❤♦❞❡s ❡st ❧❛ ❝♦♥s❡r✈❛t✐♦♥ ❞❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❝❤❡③ ❞❡s ❡s♣è❝❡s ♣r♦❝❤❡s ❛✜♥ ❞❡ ♥❡ ♣ré❞✐r❡ q✉❡ ❞❡s s✐t❡s ❢♦♥❝t✐♦♥♥❡❧s ❡t ❞❡ ré❞✉✐r❡ ❧❡ ♥♦♠❜r❡ ❞❡ ❢❛✉① ♣♦s✐t✐❢s ♣ré❞✐ts✳ ❋✐❣✳ ✶✳✺ ✕ ▲❡s ❞✐✛ér❡♥ts s✐t❡s ❞❡ ✜①❛t✐♦♥ ❝♦♥s✐❞érés ❝♦♠♠❡ ❝❛♥♦♥✐q✉❡s ♣❛r ❧❛ ♠ét❤♦❞❡ ❚❛r❣❡t❙❝❛♥✳ ❯♥❡ ❝♦♠♣❧é♠❡♥t❛r✐té ♣❛r❢❛✐t❡ ❞❡s ♥✉❝❧é♦t✐❞❡s ❞❡✉① à s❡♣t ❞✉ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ s✉r ❧❡ ✸✬❯❚❘ ❞❡ ❧✬❆❘◆♠ ❛✐♥s✐ q✉❡ ✿ s♦✐t ✉♥❡ ❝♦♠♣❧é♠❡♥t❛r✐té s✉♣♣❧é♠❡♥t❛✐r❡ ❞✉ ❤✉✐t✐è♠❡ ♥✉❝❧é♦t✐❞❡ ❞✉ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ✭✼♠❡r✲♠✽✮✱ s♦✐t ✉♥❡ ❛❞é♥♦s✐♥❡ ❡♥ ❛✈❛❧ ❞✉ s✐t❡ ❞❡ ✜①❛t✐♦♥ s✉r ❧❡ ✸✬❯❚❘ ✭✼♠❡r✲❆✶✮✱ s♦✐t ❝❡s ❞❡✉① ❝r✐tèr❡s ✭✽♠❡r✮✳ ■♠❛❣❡ ❛❞❛♣té❡ ❞❡ ●r✐♠s♦♥ ❡t ❛❧✳ ❬✺✶❪✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ♠ét❤♦❞❡s ❞é✈❡❧♦♣♣é❡s ❡t ♣✉❜❧✐é❡s ♣❡r♠❡tt❛♥t ❞❡ ♣ré❞✐r❡ ❝❡s s✐t❡s ❞❡ ✜①❛t✐♦♥✱ ❝❡rt❛✐♥❡s ❝♦♠♠❡ ♠✐❘❛♥❞❛✲♠✐r❙❱❘ ♦✉ ❉■❆◆❆✲♠✐❝r♦❚✲❈❉❙ ♥❡ s♦♥t ✉♥✐✲ q✉❡♠❡♥t ❛❝❝❡ss✐❜❧❡s q✉❡ s♦✉s ❢♦r♠❡ ❞❡ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ❞❡ ♣ré❞✐❝t✐♦♥ ❝❤❡③ ❧✬❤✉♠❛✐♥✱ ❧❛ s♦✉r✐s ♦✉ ❡♥❝♦r❡ ❧❛ ♠♦✉❝❤❡ ❡t r❡st❡♥t ❞♦♥❝ ❞✬❡♠♣❧♦✐ ❧✐♠✐té s✉r ❞❡s ❡s♣è❝❡s ♥♦♥ ♠♦❞è❧❡s✳ ❉❡s ♠ét❤♦❞❡s ❝♦♠♠❡ ♠✐❘❛♥❞❛ ❬✺✼❪✱ P■❚❆ ♦✉ ❚❛r❣❡t❙❝❛♥ ♣❡✉✈❡♥t ❡❧❧❡s êtr❡ ✉t✐❧✐sé❡s s✉r ❞❡s ❞♦♥♥é❡s ♣❡rs♦♥♥❡❧❧❡s✳ ❯♥ ♥♦♠❜r❡ é❧❡✈é ❞❡ ❢❛✉ss❡s ♣ré❞✐❝t✐♦♥s ❉✉ ❢❛✐t ❞❡ ❧❛ t❛✐❧❧❡ ré❞✉✐t❡ ❝❤❡③ ❧❡s ❛♥✐♠❛✉① ❞❡ ❧❛ ré❣✐♦♥ ❞✬✐♥t❡r❛❝t✐♦♥ ✭❧❛ ❣r❛✐♥❡✮✱ ❧❡s ♣ré❞✐❝t✐♦♥s ré❛❧✐sé❡s ♣❡✉✈❡♥t ❝♦♠♣r❡♥❞r❡ ✉♥ ❣r❛♥❞ ♥♦♠❜r❡ ❞❡ ❢❛✉① ♣♦s✐t✐❢s✳ ❲✐t❦♦s❘é❣✉❧❛t✐♦♥ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ♣❛r ❧❡s ♣❡t✐ts ❆❘◆ ♥♦♥ ❝♦❞❛♥t ✿ ❧❡ ❝❛s ❞❡s ♠✐❝r♦❆❘◆✶✼ ❡t ❛❧✳ ❡♥ ✷✵✶✶ ❬✹✼❪ ♦♥t ♣✉❜❧✐é ✉♥❡ ❝♦♠♣❛r❛✐s♦♥ ❞❡ ❞✐✛ér❡♥t❡s ♠ét❤♦❞❡s ❞❡ ♣ré❞✐❝t✐♦♥ ❞❡ s✐t❡s ❞❡ ✜①❛t✐♦♥ q✉✐ ét❛✐❡♥t ❞✐s♣♦♥✐❜❧❡s à ❝❡tt❡ ❞❛t❡✳ ▲❡✉r ét✉❞❡ ❝♦♠♣r❡♥❞ ❧❡s ♠ét❤♦❞❡s ♠✐❘❛♥❞❛✱ ❚❛r❣❡t❙❝❛♥✱ ❚❛r❣❡t❙❝❛♥❙ ✭✉♥❡ ✈❡rs✐♦♥ ❛♥tér✐❡✉r❡ à ❚❛r❣❡t❙❝❛♥✮ ❬✺✽❪✱ ❉■❆◆❆✲ ♠✐❝r♦❚ ✭✉♥❡ ❛♥❝✐❡♥♥❡ ✈❡rs✐♦♥ ❞❡ ❉■❆◆❆✲♠✐❝r♦❚✲❈❉❙✮ ❬✺✾❪✱ P✐❝❚❛r ✭❧✬✉♥❡ ❞❡s ♣r❡♠✐èr❡s ♠ét❤♦❞❡s ❞❡ ♣ré❞✐❝t✐♦♥✮ ❬✻✵✱ ✻✶❪✱ P■❚❆ ❡t r♥❛✷✷ ❬✻✷❪✳ ▲✬❡♥s❡♠❜❧❡ ❞❡ ❝❡s ♠ét❤♦❞❡s ❛ été ❝♦♠♣❛ré ♣❛r ❲✐t❦♦s ❡t ❛❧✳ s✉r ❧❛ ❜❛s❡ ❞❡ tr♦✐s ❥❡✉① ❞❡ ❞♦♥♥é❡s ♣ré❝é❞❡♠♠❡♥t ♣✉❜❧✐és ✿ ✉♥ ♣r❡♠✐❡r ♣❛r ❙❡t❤✉♣❛t❤② ❡t ❛❧✳ ❬✻✸❪ ♦ù ❧❡s ♣ré❞✐❝t✐♦♥s ❞❡s ♠ét❤♦❞❡s s♦♥t ❝♦♠♣❛ré❡s à ❞❡s ❝✐❜❧❡s ✈❛❧✐❞é❡s ❡①♣ér✐♠❡♥t❛❧❡♠❡♥t ❝❤❡③ ❧❡s ♠❛♠♠✐❢èr❡s ✐ss✉❡s ❞❡ ❚❛r❇❛s❡ ❬✻✹❪ ❀ ✉♥ ❞❡✉①✐è♠❡ ♣❛r ❇❡❛❦ ❡t ❛❧✳ ❬✻✺❪ ♦ù ✐❧s q✉❛♥t✐✜❡♥t à ❧✬❛✐❞❡ ❞❡ s♣❡❝tr♦♠étr✐❡ ❞❡ ♠❛ss❡ ❧❛ q✉❛♥t✐té ❞❡ ♣r♦té✐♥❡ ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❛ s✉r✲❡①♣r❡ss✐♦♥ ♦✉ ❞❡ ❧✬✐♥❤✐❜✐t✐♦♥ ❞❡ ♠✐r✲✷✷✸ ❝❤❡③ ❧❛ s♦✉r✐s ❀ ✉♥ tr♦✐s✐è♠❡ ❥❡✉ ♣❛r ❆❧❡①✐♦✉ ❡t ❛❧✳ ❬✻✻❪ ♦ù ❧❛ q✉❛♥t✐té ❞❡ ♣r♦té✐♥❡s ❡st é✈❛❧✉é❡ ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧✬❡①♣r❡ss✐♦♥ ❞❡ ❝✐♥q ♠✐❝r♦❆❘◆✳ ❙✉r ❧❛ ♣r❡♠✐èr❡ ét✉❞❡✱ ♠✐❘❛♥❞❛✱ ❚❛r❣❡t❙❝❛♥❙ ❡t P✐❝❚❛r ♦❜t✐❡♥♥❡♥t ❧❛ ♠❡✐❧❧❡✉r❡ s❡♥s✐❜✐❧✐té ❛✈❡❝ ✹✾ ✪ ♣♦✉r ♠✐❘❛♥❞❛ ❡t ✹✽ ✪ ♣♦✉r ❧❡s ❞❡✉① ❛✉tr❡s✳ ❚❛r❣❡t❙❝❛♥ ♦❜t✐❡♥t ✷✶ ✪ ❡t ❉■❆◆❆✲♠✐❝r♦❚ ✶✵✪✳ P■❚❆ ❡t r♥❛✷✷ ♥✬♦♥t ♣❛s ❞❡ s❡♥s✐❜✐❧✐té ❛ss♦❝✐é❡✳ ▲❛ ❢❛✐❜❧❡ s❡♥s✐❜✐❧✐té ❞❡ ❚❛r❣❡t❙❝❛♥ ❡t ❉■❆◆❆✲ ♠✐❝r♦❚ ♣♦✉rr❛✐t êtr❡ ❡①♣❧✐q✉é❡ ♣❛r ❧❡ ❢❛✐t q✉❡ ❝❡s ♠ét❤♦❞❡s s♦♥t ♣❧✉s str✐❝t❡s ♠❛✐s ❝♦♠♠❡ ❧❡ ❝❛❧❝✉❧ ❞❡ ❧❛ ♣ré❝✐s✐♦♥ ♥✬❡st ♣❛s ❞♦♥♥é❡✱ ✐❧ ❡st ❞✐✣❝✐❧❡ ❞❡ ❝♦♥❝❧✉r❡✳ P♦✉r ❧❛ s❡❝♦♥❞❡ ét✉❞❡✱ ♣♦✉r t♦✉t❡s ❧❡s ♠ét❤♦❞❡s ❡①❝❡♣té❡s ❚❛r❣❡t❙❝❛♥❙ ❡t ❉■❆◆❆✲♠✐❝r♦❚✱ ❧❡ ❝❤❛♥❣❡♠❡♥t ♠♦②❡♥ ❡♥ q✉❛♥t✐té ❞❡ ♣r♦té✐♥❡ ♣♦✉r ❧❡s ❝✐❜❧❡s ♣ré❞✐t❡s ❡st ❞♦♥♥é✳ ❚❛r❣❡t❙✲ ❝❛♥ ❡t P✐❝❚❛r ♦❜t✐❡♥♥❡♥t ❧❡s ♠❡✐❧❧❡✉r❡s ✈❛❧❡✉rs✳ P♦✉r ❧❛ ❞❡r♥✐èr❡ ét✉❞❡✱ ❚❛r❣❡t❙❝❛♥✱ ❚❛r❣❡t❙❝❛♥❙✱ P✐❝❚❛r ❡t ❉■❆◆❆✲♠✐❝r♦❚ ♣♦ssè❞❡♥t ❧❡s ♠❡✐❧❧❡✉rs ♣ré❝✐s✐♦♥s✱ ❡♥tr❡ ✹✽ ✪ ❡t ✺✶ ✪ ❛✈❡❝ ❚❛r❣❡t❙❝❛♥ q✉✐ ♣♦ssè❞❡ ❧❡ ♣❧✉s ❢♦rt ♣♦✉r❝❡♥t❛❣❡✳ ▼✐❘❛♥❞❛✱ P■❚❆ ❡t r♥❛✷✷ ♣♦ssè❞❡♥t ❞❡ ♣❧✉s ❢❛✐❜❧❡s ♣ré❝✐s✐♦♥s✱ ❡♥tr❡ ✷✹ ✪ ❡t ✷✾ ✪✳ P♦✉r ❧❛ s❡♥s✐❜✐❧✐té✱ ♠✐❘❛♥❞❛ ♣♦ssè❞❡ ❧❡ ♣♦✉r❝❡♥t❛❣❡ ❧❡ ♣❧✉s é❧❡✈é✱ ❛✈❡❝ ✷✵ ✪ ❛❧♦rs q✉❡ ❧❡s ❛✉tr❡s ♠ét❤♦❞❡s ♣♦ssè❞❡♥t ❞❡s ♣♦✉r❝❡♥t❛❣❡s ❛✉t♦✉r ❞❡ ✶✵ ✪✳ ❙✉r ❧❛ ❞❡r♥✐èr❡ ét✉❞❡✱ ❚❛r❣❡t❙❝❛♥ ♣♦ssè❞❡ à ❧❛ ❢♦✐s ❧❛ ♠❡✐❧❧❡✉r❡ ♣ré❝✐s✐♦♥ ❡t à ❧❛ ❢♦✐s ❧❛ s❡♥s✐❜✐❧✐té ❧❛ ♣❧✉s é❧❡✈é❡ ❛♣rès ♠✐❘❛♥❞❛ ❛✈❡❝ ✉♥ ♣♦✉r❝❡♥t❛❣❡ ❞❡ ✶✷ ✪✳ ▲❡s rés✉❧t❛ts ♦❜t❡♥✉s ♣❛r ❧❡s ♠ét❤♦❞❡s ❞❡ ♣ré❞✐❝t✐♦♥ ♣❡✉✈❡♥t ♣❛r❢♦✐s êtr❡ ✈ér✐✜és ♣❛r ❞❡s t❡sts ❞❡ ✜①❛t✐♦♥✳ P❛r ❡①❡♠♣❧❡✱ ✉♥ ♦✉ ♣❧✉s✐❡✉rs ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s♦♥t tr❛♥s❢❡❝tés ❞❛♥s ❞❡s ❝❡❧❧✉❧❡s ❡t ❧✬❡①♣r❡ss✐♦♥ ❞❡ ❝✐❜❧❡s ♣ré❞✐t❡s ♣❡✉t êtr❡ s✉✐✈✐❡ ❛✉ ♥✐✈❡❛✉ ❞❡ ❧✬❆❘◆♠ ♦✉ ❞❡ ❧❛ ♣r♦té✐♥❡ ❝♦❞é❡✳ ❈❡s ❛♣♣r♦❝❤❡s ♣❡r♠❡tt❡♥t ♥♦t❛♠♠❡♥t ❞❡ ré❣❧❡r ❧❡s ♣❛r❛♠ètr❡s ❞❡s ♠ét❤♦❞❡s ❞❡ ♣ré❞✐❝t✐♦♥ ❡♥ t❡r♠❡s ❞❡ s❡♥s✐❜✐❧✐té ❡t ❞❡ ♣ré❝✐s✐♦♥✳ ❈❡ t❡st ❜✐♦❧♦❣✐q✉❡ ♥✬❡st ❝❡♣❡♥❞❛♥t ♣❛s ♣❛r❢❛✐t ❝❛r ✐❧ ♥❡ ♣r❡♥❞ ♣❛s ❡♥ ❝♦♠♣t❡ ❧❛ ❝♦♠♣❧❡①✐té ❞❡s ✐♥t❡r❛❝✲ t✐♦♥s ❜✐♦❧♦❣✐q✉❡s ❞❛♥s ❧❡s ❝❡❧❧✉❧❡s✱ ♥♦t❛♠♠❡♥t ❧❡ ❢❛✐t q✉❡ ♣❧✉s✐❡✉rs ❆❘◆♠ ♣❡✉✈❡♥t êtr❡ ❝✐❜❧❡s ❞✬✉♥ ♠ê♠❡ ♠✐❝r♦❆❘◆✱ ♦✉ q✉❡ ❧❡s ♠✐❝r♦❆❘◆ ♣❡✉✈❡♥t ❡✉①✲♠ê♠❡s êtr❡ ré❣✉❧és tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡♠❡♥t✱ ♥♦t❛♠♠❡♥t ♣❛r ❞❡s ❢❛❝t❡✉rs ❞❡ tr❛♥s❝r✐♣t✐♦♥ ❬✺✼✱ ✻✼✱ ✻✽❪✳ ✶✳✷✳✻ ❉♦♥♥❡r ❞✉ s❡♥s ❜✐♦❧♦❣✐q✉❡ ❛✉① ♣ré❞✐❝t✐♦♥s ✿ ❧✬❛♥❛❧②s❡ ❞❡ ♠♦✲ ❞✉❧❡s ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ▲❡s ♠✐❝r♦❆❘◆ ❡t ❧❡✉rs ❝✐❜❧❡s ❢♦r♠❡♥t ✉♥ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ❡♥tr❡ ♠✐❝r♦❆❘◆ ♠❛✲ t✉r❡s ❡t ❆❘◆♠ ✭rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥ ♠✐❝r♦❆❘◆✴❆❘◆♠✮✳ ❙✉✐✈❛♥t ❧❛ q✉❡st✐♦♥ ❜✐♦❧♦❣✐q✉❡ à ❧❛q✉❡❧❧❡ ♦♥ ❝❤❡r❝❤❡ à ré♣♦♥❞r❡✱ ❧✬❡s♣è❝❡ ét✉❞✐é❡ ♦✉ ❡♥❝♦r❡ ❧❡s ❞♦♥♥é❡s ❞✐s♣♦♥✐❜❧❡s✱ ❧❛ t❛✐❧❧❡ ❞✉ rés❡❛✉ ♣❡✉t ✈❛r✐❡r ❞❡ q✉❡❧q✉❡s ♠✐❝r♦❆❘◆✱ ❆❘◆♠ ❡t ✐♥t❡r❛❝t✐♦♥s à ❞❡s ❞✐③❛✐♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❡t ❞❡s ❝❡♥t❛✐♥❡s ♦✉ ♠✐❧❧✐❡rs ❞✬❆❘◆♠ ❡t ❞✬✐♥t❡r❛❝t✐♦♥s✳ ❆✜♥ ❞❡ ❞♦♥♥❡r ❞❡s é❧❡♠❡♥ts ❞❡ ❝❛r❛❝tér✐s❛t✐♦♥ ❞✉ rés❡❛✉✱ ✐❧ ❡st ♣♦ss✐❜❧❡ ❞❡ ré❛❧✐✲✶✽ ■♥tr♦❞✉❝t✐♦♥ s❡r ✉♥ ❡♥r✐❝❤✐ss❡♠❡♥t ❢♦♥❝t✐♦♥♥❡❧ s✉r ❧❡s ❝✐❜❧❡s ❞❡ ❝❤❛❝✉♥ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✳ ■❧ s✬❛❣✐t ❞❡ t❡st❡r st❛t✐st✐q✉❡♠❡♥t s✐ ❧❡s ❆❘◆♠ q✉✐ s♦♥t ❝✐❜❧és ♣❛r ✉♥ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s♦♥t ✐♠♣❧✐q✉és ♣ré❢ér❡♥t✐❡❧❧❡♠❡♥t ❞❛♥s ❞❡s ❢♦♥❝t✐♦♥s ❜✐♦❧♦❣✐q✉❡s ♣❛r r❛♣♣♦rt ❛✉① ❛✉tr❡s ❆❘◆♠ ❞❡ ❧✬❡s♣è❝❡ ❝♦♥s✐❞éré❡✳ ◆é❛♥♠♦✐♥s✱ ❝❡ t②♣❡ ❞✬❛♥❛❧②s❡ ♥❡ ♣r❡♥❞ ♣❛s ❡♥ ❝♦♠♣t❡ ❧❡s ❣r♦✉♣❡s ❞✬✐♥t❡r❛❝t✐♦♥s ✐♠♣❧✐q✉❛♥t ♣❧✉s✐❡✉rs ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t✴♦✉ ❆❘◆♠ ❞❛♥s ❧❡s rés❡❛✉①✱ ❝✬❡st✲à✲❞✐r❡ ❧❡s ♠♦❞✉❧❡s ❞✬✐♥t❡r❛❝t✐♦♥✳ ▲✐✉ ❡t ❛❧✳ ❬✻✾❪ ❞é✜♥✐ss❡♥t ❧❡s ♠♦❞✉❧❡s ❞✬✐♥t❡r❛❝t✐♦♥ ❝♦♠♠❡ ✉♥ ♦✉ ♣❧✉s✐❡✉rs s♦✉s✲ rés❡❛✉① ✐ss✉s ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ✐♥✐t✐❛❧ ❞❛♥s ❧❡sq✉❡❧s ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ❧❡s ❆❘◆♠ ❡t✴♦✉ ❧❡s ✐♥t❡r❛❝t✐♦♥s r❡s♣❡❝t❡♥t ❝❡rt❛✐♥❡s ❝♦♥tr❛✐♥t❡s✳ P❛r ❡①❡♠♣❧❡✱ ❧✬❡①tr❛❝t✐♦♥ ❞❡ ♠♦❞✉❧❡s ♦ù ❧✬❡♥s❡♠❜❧❡ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❧❡✉rs ❝✐❜❧❡s s♦♥t ❛♥t✐✲❝♦rré❧és ♦✉ ❡♥❝♦r❡ ❞❡s ♠♦❞✉❧❡s ♦ù t♦✉s ❧❡s ♠✐❝r♦❆❘◆ ❝✐❜❧❡♥t t♦✉s ❧❡s ❆❘◆♠ ✭✉♥❡ ❜✐❝❧✐q✉❡✮✳ ▲❡s ♠ét❤♦❞❡s ♣❡r♠❡tt❛♥t ❧✬❡①tr❛❝t✐♦♥ ❞❡ ♠♦❞✉❧❡s ✉t✐❧✐s❡♥t ♣r✐♥❝✐♣❛❧❡♠❡♥t ❧❡s ✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ♣ré❞✐t❡s ♦✉ ✈❛❧✐❞é❡s ❡①♣ér✐♠❡♥t❛❧❡♠❡♥t ❛✐♥s✐ q✉❡ ❞❡s ❥❡✉① ❞❡ ❞♦♥♥é❡s ❞✬❡①♣r❡ss✐♦♥ ♣♦✉r ❝❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❆❘◆♠✳ ❈❡rt❛✐♥❡s ♠ét❤♦❞❡s s❡ ❜❛s❡♥t ❛✉ss✐ s✉r ❞✬❛✉tr❡s ❥❡✉① ❞❡ ❞♦♥♥é❡s ❤étér♦❣è♥❡s✳ ◆♦✉s ♣♦✉✈♦♥s ♥♦t❛♠♠❡♥t ❝✐t❡r ✉♥❡ ♠ét❤♦❞❡ ❞é✈❡❧♦♣♣é❡ ♣❛r ❇r②❛♥ ❡t ❛❧✳ ❬✼✵❪ q✉✐ ✉t✐❧✐s❡ à ❧❛ ❢♦✐s ❧❡ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s✱ ❧❡s ❝♦rré❧❛t✐♦♥s ❞✬❡①♣r❡ss✐♦♥s ❡♥tr❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❆❘◆♠ ❡t ❧✬❛♥♥♦t❛t✐♦♥ ❢♦♥❝t✐♦♥♥❡❧❧❡ ❞❡s ❆❘◆♠✳ ❈❡tt❡ ♠ét❤♦❞❡ ✐♥tè❣r❡ ❛✉ s❡✐♥ ❞✬✉♥❡ ♠ê♠❡ ♠❛tr✐❝❡ ❧❡s ✐♥t❡r❛❝t✐♦♥s ❡t ❧❡s ✈❛❧❡✉rs ❞❡s ❝♦rré❧❛t✐♦♥s✳ ❈❡tt❡ ♠❛tr✐❝❡✱ ♦ù ❧❡s ❆❘◆♠ s♦♥t r❡♣rés❡♥tés ❡♥ ❧✐❣♥❡ ❡t ❧❡s ♠✐❝r♦❆❘◆ ❡♥ ❝♦❧♦♥♥❡✱ ❡st ❝réé❡ ❞❡ ❧❛ ❢❛ç♦♥ s✉✐✈❛♥t❡ ✿ ✕ ❙✐ ❧❛ ❝♦rré❧❛t✐♦♥ ❡st ♥é❣❛t✐✈❡ ❡t q✉✬✐❧ ② ❛ ✉♥❡ ✐♥t❡r❛❝t✐♦♥✱ ❛❧♦rs ❧❛ ✈❛❧❡✉r ❞❡ ❝♦rré✲ ❧❛t✐♦♥ ❡st ❣❛r❞é❡ ✭✉♥❡ ✐♥❤✐❜✐t✐♦♥ ❞✐r❡❝t❡✮ ❀ ✕ ❙✐ ❧❛ ❝♦rré❧❛t✐♦♥ ❡st ♣♦s✐t✐✈❡ ❡t q✉✬✐❧ ♥✬② ❛ ♣❛s ❞✬✐♥t❡r❛❝t✐♦♥✱ ❛❧♦rs ❧❛ ✈❛❧❡✉r ❞❡ ❝♦rré❧❛t✐♦♥ ❡st ❣❛r❞é❡ ✭✉♥❡ ❛❝t✐✈❛t✐♦♥ ✐♥❞✐r❡❝t❡✮ ❀ ✕ P♦✉r t♦✉t ❧❡s ❛✉tr❡s ❝❛s✱ ❧❛ ✈❛❧❡✉r ❡st ❞❡ ③ér♦✳ ❯♥❡ ❢♦✐s ❝❡tt❡ ♠❛tr✐❝❡ ♦❜t❡♥✉❡✱ ✉♥❡ r❡❝❤❡r❝❤❡ ❞❡ ❜✐❝❧✐q✉❡ ❡st ❢❛✐t❡ s✉r ❝❡tt❡ ♠❛tr✐❝❡ ❡t ✉♥ ❡♥r✐❝❤✐ss❡♠❡♥t ❢♦♥❝t✐♦♥♥❡❧ ❡st ❡✛❡❝t✉é ♣♦✉r ❝❤❛❝✉♥❡ ❞❡s ❜✐❝❧✐q✉❡s✳ ▲❡s ❛✉t❡✉rs ♣r♦♣♦s❡♥t ❡♥s✉✐t❡ ❞❡ ✈✐s✉❛❧✐s❡r à ❧✬❛✐❞❡ ❞✉ ❧♦❣✐❝✐❡❧ ♠✐❘▼❆P ❧❡s ❜✐❝❧✐q✉❡s ❡t ❧❡s ❡♥r✐❝❤✐ss❡♠❡♥ts ❢♦♥❝t✐♦♥♥❡❧s ✭❡①❡♠♣❧❡ ❋✐❣✉r❡ ✶✳✻✮✳ ▲❛ r❡❝❤❡r❝❤❡ ❞❡ ♠♦❞✉❧❡s ❛✉ s❡✐♥ ❞❡s rés❡❛✉① ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❛✈❡❝ ❧✬✐♥té❣r❛t✐♦♥ ❞✬✐♥❢♦r♠❛t✐♦♥ s✉♣♣❧é♠❡♥t❛✐r❡ ♣❡r♠❡t ❞❡ ❝❛r❛❝tér✐s❡r ❝❡s rés❡❛✉① ❞✬✉♥ ♣♦✐♥t ❞❡ ✈✉❡ ❢♦♥❝t✐♦♥♥❡❧ ❡♥ ✐s♦❧❛♥t ❞❡s ♠✐❝r♦❆❘◆ ❡t ❞❡s ❆❘◆♠ q✉✐ s♦♥t ❝❧és ❞❛♥s ❧❡s ♣r♦❝❡ss✉s ét✉❞✐és✳❘é❣✉❧❛t✐♦♥ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ♣❛r ❧❡s ♣❡t✐ts ❆❘◆ ♥♦♥ ❝♦❞❛♥t ✿ ❧❡ ❝❛s ❞❡s ♠✐❝r♦❆❘◆✶✾ ❋✐❣✳ ✶✳✻ ✕ ❊①❡♠♣❧❡ ❞❡ ✈✐s✉❛❧✐s❛t✐♦♥ ❞❡ ♠♦❞✉❧❡s ❞✬✐♥t❡r❛❝t✐♦♥ ♣❛r ♠✐❘▼❆P ♦❜t❡♥✉s s✉r ✉♥ ❥❡✉ ❞❡ ❞♦♥♥é❡s ✐ss✉s ❞❡ ❝❡❧❧✉❧❡s ✐♠♠✉♥✐t❛✐r❡s ❤✉♠❛✐♥❡s✳ ❈❤❛q✉❡ ❝❡r❝❧❡ r❡♣rés❡♥t❡ ✉♥❡ ❜✐❝❧✐q✉❡ ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥ ❡t ❧❡s ❜✐❝❧✐q✉❡s s♦♥t ♣r♦❥❡té❡s s✉r ✉♥ ❡s♣❛❝❡ à ❞❡✉① ❞✐♠❡♥s✐♦♥s à ❧✬❛✐❞❡ ❞❡ ♠✉❧t✐❞✐♠❡♥s✐♦♥❛❧ s❝❛❧✐♥❣ ✭▼❉❙✮✳ ▲❛ ❝♦✉❧❡✉r ❡t ❧❛ t❛✐❧❧❡ ❞❡s ❝❡r❝❧❡s r❡♣rés❡♥t❡ r❡s♣❡❝t✐✈❡♠❡♥t ❧✬❛♥♥♦t❛t✐♦♥ ●❡♥❡ ❖♥t♦❧♦❣② ❧❛ ♣❧✉s s✐❣♥✐✜❝❛t✐✈❡ ❛✐♥s✐ q✉❡ s❛ t❛✐❧❧❡ ♣♦✉r ❝❤❛❝✉♥❡ ❞❡s ❜✐❝❧✐q✉❡s✳ ■♠❛❣❡ t✐ré❡ ❞❡ ❇r②❛♥ ❡t ❛❧✳ ❬✼✵❪✳✷✵ ■♥tr♦❞✉❝t✐♦♥ ✶✳✸ ▲❡s ♣✉❝❡r♦♥s ✿ ✉♥ ❡①❡♠♣❧❡ ❞❡ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡ ✶✳✸✳✶ ❉❡s❝r✐♣t✐♦♥ ▲❡s ♣✉❝❡r♦♥s ❛♣♣❛rt✐❡♥♥❡♥t à ❧✬♦r❞r❡ ❞❡s ❍é♠✐♣tèr❡s ❡t r❡❣r♦✉♣❡♥t ❡♥✈✐r♦♥ ✹✵✵✵ ❡s♣è❝❡s ❞✐✛ér❡♥t❡s✳ ❈❡ s♦♥t ❞❡s ✐♥s❡❝t❡s ♣✐q✉❡✉rs✲s✉❝❡✉rs s❡ ♥♦✉rr✐ss❛♥t ❡①❝❧✉s✐✈❡♠❡♥t ❞✉ ♣❤❧♦è♠❡ ❞❡s ♣❧❛♥t❡s✱ sè✈❡ é❧❛❜♦ré❡ s②♥t❤ét✐sé❡ ❧♦rs ❞❡ ❧❛ ♣❤♦t♦s②♥t❤ès❡ ❡t ❝✐r❝✉❧❛♥t ❞❛♥s ❧❡s ✈❛✐ss❡❛✉① ♣❤❧♦é♠✐❡♥s ❝♦♥❞✉❝t❡✉rs ❞❡s t✐❣❡s ❡t ♥❡r✈✉r❡s✳ ❈❡tt❡ sè✈❡ ❡st très r✐❝❤❡ ❡♥ s✉❝r❡ ✭s❛❝❝❤❛r♦s❡✮ ❡t ❛❝✐❞❡s ❛♠✐♥és✳ ❈❡♣❡♥❞❛♥t✱ ❡❧❧❡ ❡st ❝❛r❡♥❝é❡ ❡♥ ❝❡rt❛✐♥s ❛❝✐❞❡s ❛♠✐♥és ❡ss❡♥t✐❡❧s ❝♦♠♠❡ ❧❛ ♣❤é♥②❧❛❧❛♥✐♥❡✳ ❆✉ ❝♦✉rs ❞❡ ❧✬é✈♦❧✉t✐♦♥✱ ❧❡s ♣✉❝❡r♦♥s s❡ s♦♥t ❛❞❛♣tés à ❝❡tt❡ ❝❛r❡♥❝❡ ❡♥ ❞é✈❡❧♦♣♣❛♥t ✉♥❡ s②♠❜✐♦s❡ ❛✈❡❝ ❧❛ ❜❛❝tér✐❡ ❇✉❝❤♥❡r❛ ❛♣❤✐❞✐❝♦❧❛✱ ❧♦❝❛❧✐sé❡ ❞❛♥s ❞❡s ❝❡❧❧✉❧❡s ♣❛rt✐❝✉❧✐èr❡s ✭❧❡s ❜❛❝tér✐♦❝②t❡s✮ ❞❛♥s ❧✬❛❜❞♦♠❡♥ ❞❡s ✐♥s❡❝t❡s✱ ❡t ♣❡r♠❡tt❛♥t ❞❡s é❝❤❛♥❣❡s ♠ét❛❜♦❧✐q✉❡s ❡♥tr❡ ❝❡s ❞❡✉① ♣❛rt❡♥❛✐r❡s ❞❡ ❧❛ s②♠❜✐♦s❡✳ ▲❡s ♣✉❝❡r♦♥s ❛tt❡✐❣♥❡♥t ❧❛ sè✈❡ ♣❤❧♦é♠✐❡♥♥❡ ❡♥ ✐♥sér❛♥t ❧❡✉rs ♣✐è❝❡s ❜✉❝❝❛❧❡s s♣é❝✐❛❧✐sé❡s ✭❧❡s st②❧❡ts✮ ❛✉ tr❛✈❡rs ❞❡s t✐ss✉s ✈é❣ét❛✉① ❡♥✈✐r♦♥♥❛♥ts t❡❧s q✉❡ ❧✬é♣✐❞❡r♠❡ ♦✉ ❧❡s ❞✐✛ér❡♥ts ♣❛r❡♥❝❤②♠❡s✳ ▲❡s ♣✉❝❡r♦♥s s♦♥t ❞♦♥❝ ❞❡s ✐♥s❡❝t❡s q✉✐ ❛✛❛✐❜❧✐ss❡♥t ❧❡✉r ♣❧❛♥t❡ ❤ôt❡ ❡♥ ❞ét♦✉r♥❛♥t ❞❡s s♦✉r❝❡s ♥✉tr✐t✐✈❡s✱ ❡t ❡♥ ❝ré❛♥t ❞❡s ❜❧❡ss✉r❡s s✉r ❧❡s t✐ss✉s ✈é❣ét❛✉①✳ ▲❛ sè✈❡ ♣❤❧♦é♠✐❡♥♥❡ ❡st é❣❛❧❡♠❡♥t ❧❡ s✐è❣❡ ❞❡ ❧❛ ❝✐r❝✉❧❛t✐♦♥ ❞❡ ✈✐r✉s ❞❡ ♣❧❛♥t❡s q✉✐ s❡ s❡r✈❡♥t ❞❡ ❝❡ ✢✉✐❞❡ ♣♦✉r ❞✐✛✉s❡r ❞❛♥s ❧❡s ❞✐✛ér❡♥t❡s ♣❛rt✐❡s ❞❡ ❧❛ ♣❧❛♥t❡✳ ▲❡s ♣✉❝❡r♦♥s ♣❡✉✈❡♥t ❛✐♥s✐ ❛❜s♦r❜❡r ❞❡s ✈✐r✉s ❞❡ ♣❧❛♥t❡s ❝✐r❝✉❧❛♥t ❡t ❧❡s tr❛♥s♠❡ttr❡ à ❞❡s ♣❧❛♥t❡s s❛✐♥❡s ❧♦rs ❞❡ ❧❡✉rs ❞✐✛ér❡♥ts r❡♣❛s✳ ▲❡s ♣✉❝❡r♦♥s s♦♥t ❞♦♥❝ ❞❡s ✈❡❝t❡✉rs ❞❡ ♠❛❧❛❞✐❡s ✈✐r❛❧❡s ❝❤❡③ ❧❡s ♣❧❛♥t❡s✳ ❆✐♥s✐✱ ❧❡s ♣✉❝❡r♦♥s s♦♥t ❞❡s r❛✈❛❣❡✉rs ❞❡s ❝✉❧t✉r❡s ❝❤❡③ ❧❡s ♣❧❛♥t❡s ❝✉❧t✐✈é❡s✳ ▲❡ ❝♦♥trô❧❡ ❞❡s ❞é❣âts ❝❛✉sés ♣❛r ❧❡s ♣✉❝❡r♦♥s s❡ ❢❛✐t ❡ss❡♥t✐❡❧❧❡♠❡♥t ♣❛r ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞✬✐♥s❡❝t✐❝✐❞❡s✱ ✈♦✐r❡ ♣❛r ❝♦♥trô❧❡ ❜✐♦❧♦❣✐q✉❡ ❡♥ ❝♦♥❞✐t✐♦♥ ❝♦♥✜♥é❡ ❝♦♠♠❡ ❞❡s ❝✉❧t✉r❡s s♦✉s ❛❜r✐s ✭s❡rr❡s✮✳ ❋❡♠❡❧❧❡ ♣❛rt❤é♥♦❣é♥ét✐q✉❡ ✈✐✈✐♣❛r❡ ❋❡♠❡❧❧❡ ❡t ♠â❧❡ s❡①✉és ❋✐❣✳ ✶✳✼ ✕ P❤♦t♦s ❞❡ tr♦✐s ♠♦r♣❤❡s ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✳ ➚ ❣❛✉❝❤❡ ✉♥❡ ❢❡♠❡❧❧❡ ♣❛rt❤é✲ ♥♦❣é♥ét✐q✉❡ ✈✐✈✐♣❛r❡ q✉✐ ♠❡t ❜❛s à ✉♥❡ ❧❛r✈❡✳ ➚ ❞r♦✐t❡ ❧✬❛❝❝♦✉♣❧❡♠❡♥t ❞✬✉♥❡ ❢❡♠❡❧❧❡ ❡t ❞✬✉♥ ♠â❧❡ s❡①✉és✳ ❈ré❞✐t ♣❤♦t♦ ✿ ❇❡r♥❛r❞ ❈❤❛✉❜❡t✳ ▲❛ ré✉ss✐t❡ ❞❡s ♣✉❝❡r♦♥s à ❝♦❧♦♥✐s❡r ❧❡s ❝✉❧t✉r❡s ❡st ❞✉❡ à ❞✐✛ér❡♥ts tr❛✐ts ❜✐♦❧♦✲ ❣✐q✉❡s ❛❞❛♣t❛t✐❢s✱ ❞♦♥t ✉♥ ♠♦❞❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❡✣❝❛❝❡ ✭❧❛ ♣❛rt❤é♥♦❣❡♥ès❡✮ ❡t ✉♥❡ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡ ❧❡✉r ♣❡r♠❡tt❛♥t ❞❡ s✬❛❞❛♣t❡r r❛♣✐❞❡♠❡♥t à ❞❡s ❝❤❛♥❣❡♠❡♥ts ❞❡s ❡♥✈✐r♦♥♥❡♠❡♥ts ❧♦❝❛✉① ❝♦♠♠❡ ❧♦rs ❞❡ ❧✬❛❧t❡r♥❛♥❝❡ ❞❡s s❛✐s♦♥s✳ ▲❛ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡ ❡st ❧❛ ❝❛♣❛❝✐té ❞✬✉♥ ♦r❣❛♥✐s♠❡ à s✬❛❞❛♣t❡r à ✉♥ ❡✛❡t▲❡s ♣✉❝❡r♦♥s ✿ ✉♥ ❡①❡♠♣❧❡ ❞❡ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡ ✷✶ ❡♥✈✐r♦♥♥❡♠❡♥t❛❧ ♣❛r ❧❛ ♠♦❞✐✜❝❛t✐♦♥ ❞❡ s♦♥ ♣❤é♥♦t②♣❡✳ ▲❡ ♣♦❧②♣❤é♥✐s♠❡ ❡st ✉♥ ❝❛s ♣❛rt✐❝✉❧✐❡r ❞❡ ❧❛ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡ ♦ù ✐❧ ② ❛ ♣❡✉ ❞❡ ♣❤é♥♦t②♣❡s ♠❛✐s q✉✐ s♦♥t très ❞✐✛ér❡♥❝✐és ❬✺❪✳ ▲❡ ♣✉❝❡r♦♥ ❡st ✉♥ ♠♦❞è❧❡ ♣♦✉r ❧✬ét✉❞❡ ❞✉ ♣♦❧②♣❤é♥✐s♠❡✳ ❊♥ ❡✛❡t✱ ♦♥ ♦❜s❡r✈❡ ❝❤❡③ ❝❡tt❡ ❡s♣è❝❡ ❞❡✉① t②♣❡s ❞❡ ♣♦❧②♣❤é♥✐s♠❡ ✿ ✉♥ ♣♦❧②♣❤é♥✐s♠❡ ❞❡ ❞✐s♣❡rs✐♦♥ ♣♦✉r ❧❡q✉❡❧ ❞❡✉① ♠♦r♣❤❡s ❛❞✉❧t❡s ❝♦✲❡①✐st❡♥t ✿ ❛✐❧és ♦✉ ❛♣tèr❡s✱ ❡t ✉♥ ♣♦❧②♣❤é♥✐s♠❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ♣♦✉r ❧❡q✉❡❧ ❞✐✛ér❡♥ts ♠♦r♣❤❡s s♦♥t ♣r♦❞✉✐ts s♦✐t s❡①✉és ✭❢❡♠❡❧❧❡s ♦✉ ♠â❧❡s✮✱ s♦✐t ❝❧♦♥❛✉① ✭❢❡♠❡❧❧❡s✮ ✿ ❞❛♥s ❝❡ ❝❛s✱ ❝✬❡st ❧❛ s✉❝❝❡ss✐♦♥ ❞❡s s❛✐s♦♥s q✉✐ ❣♦✉✈❡r♥❡ ❧✬❛♣♣❛r✐t✐♦♥ ❞❡ ❝❡s ❞✐✛ér❡♥ts ♠♦r♣❤❡s✳ ✶✳✸✳✷ ▲❡ ♣♦❧②♣❤é♥✐s♠❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❞✉ ♣✉❝❡r♦♥ ▲❡s ♣✉❝❡r♦♥s ♣♦ssè❞❡♥t ❞❡✉① ♠♦❞❡s ❞❡ r❡♣r♦❞✉❝t✐♦♥✱ ❛s❡①✉é ❡t s❡①✉é ❛✈❡❝ s♦✐t ❞❡s ❢❡♠❡❧❧❡s ♣❛rt❤é♥♦❣é♥ét✐q✉❡s ✈✐✈✐♣❛r❡s ✭♠♦❞❡ ❛s❡①✉é✮✱ s♦✐t ❞❡s ❢❡♠❡❧❧❡s ♦✈✐♣❛r❡s ❡t ❞❡s ♠â❧❡s ✭♠♦❞❡ s❡①✉é✮✳ ▲❡ ♠♦❞❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ♣r✐♥❝✐♣❛❧ ❞❡s ♣✉❝❡r♦♥s ❡st ❧❛ r❡♣r♦❞✉❝t✐♦♥ ❝❧♦♥❛❧❡ ❛s❡①✉é❡ ♣❛r ❞❡s ❢❡♠❡❧❧❡s ♣❛rt❤é♥♦❣é♥ét✐q✉❡s ✈✐✈✐♣❛r❡s ✭à ❣❛✉❝❤❡ ❋✐❣✉r❡ ✶✳✼✮ ✿ ❡❧❧❡s ❞♦♥♥❡♥t ♥❛✐ss❛♥❝❡ à ✉♥❡ ❞❡s❝❡♥❞❛♥❝❡ ❝♦♥st✐t✉é❡ ✉♥✐q✉❡♠❡♥t ❞✬✐♥❞✐✈✐❞✉s ❢❡♠❡❧❧❡s q✉✐ s♦♥t ❣é♥ét✐q✉❡♠❡♥t ✐❞❡♥t✐q✉❡s ❡♥tr❡ ❡❧❧❡s ❡t à ❧❡✉r ♠èr❡ ✭❡❧❧❡s s♦♥t ❞♦♥❝ é❣❛❧❡♠❡♥t à r❡♣r♦❞✉❝t✐♦♥ ❝❧♦♥❛❧❡✮✳ ❈❡s ❢❡♠❡❧❧❡s s♦♥t ❛♣♣❡❧é❡s ✈✐r❣✐♥♦♣❛r❡s✳ ❈❡tt❡ ✈✐✈✐♣❛r✐té ❡st ❧✐é❡ ❛✉ ❞é✈❡❧♦♣♣❡♠❡♥t ❞✬❡♠❜r②♦♥s ❞❛♥s ❧✬❛❜❞♦♠❡♥ ❞❡ ❧❛ ♠èr❡ ✿ ❧❡s ❡♠❜r②♦♥s ❧❡s ♣❧✉s ❞é✈❡❧♦♣♣és ♣♦ssè❞❡♥t ❞é❥à ❧❡✉rs ♦✈❛✐r❡s ❡t ❧❡s ♣r❡♠✐❡rs ❡♠❜r②♦♥s ❞❡ ❧❛ ❣é♥ér❛t✐♦♥ s✉✐✈❛♥t❡ ✿ ❝✬❡st ❧❡ ✓ té❧❡s❝♦♣❛❣❡ ✔ ❞❡s ❣é♥ér❛t✐♦♥s✳ ❈❤❛q✉❡ ❢❡♠❡❧❧❡ ❝❧♦♥❛❧❡ ♣♦ssè❞❡ ❡♥✈✐r♦♥ ✽✵ ❡♠❜r②♦♥s ❡♥ ❝♦✉rs ❞❡ ❞é✈❡❧♦♣♣❡♠❡♥t q✉✐ ♥❛îtr♦♥t ❛✉ r②t❤♠❡ ❞✬❡♥✈✐r♦♥ ✻ ♣❛r ❥♦✉r✳ ❆♣rès ✶✺ ❥♦✉rs✱ ❝❡s ❧❛r✈❡s s❡r♦♥t ❝❤❛❝✉♥❡ ❛❞✉❧t❡s ❡t ♣♦✉rr♦♥t à ❧❡✉r t♦✉r ❞♦♥♥❡r ♥❛✐ss❛♥❝❡ à ✽✵ ❞❡s❝❡♥❞❛♥ts✳ ❈❡ ♠♦❞❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ♣❡r♠❡t ❞♦♥❝ ✉♥ t❛✉① ❞❡ ♥❛t❛❧✐té très é❧❡✈é ❝❡ q✉✐ ❡①♣❧✐q✉❡ ❧❛ ❝❛♣❛❝✐té ❞❡ ❝❡s ✐♥s❡❝t❡s à ❝♦❧♦♥✐s❡r ❧❡✉rs ♣❧❛♥t❡s ❤ôt❡s ❡t ❞♦♥❝ à ❝ré❡r ❞❡s ❞é❣âts ✐♠♣♦rt❛♥ts✳ ❈❡ ♠♦❞❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ♣❡r♠❡t ❞✬❛✈♦✐r ❞❡s ♣♦♣✉❧❛t✐♦♥s ♦ù ❝❤❛q✉❡ ✐♥❞✐✈✐❞✉ ❡st ✐❞❡♥t✐q✉❡ ❣é♥ét✐q✉❡♠❡♥t ❛✉① ❛✉tr❡s✱ ❞❡s ♣♦♣✉❧❛t✐♦♥s ❞❡ ❝❧♦♥❡s✳ ❈❡♣❡♥❞❛♥t✱ ❧❛ ✈✐✈✐♣❛r✐té ❝❤❡③ ❧❡s ✐♥s❡❝t❡s ♥✬❡st ♣❛s ❛❞❛♣t❛t✐✈❡ ✿ ♣r✐✈és ❞❡ ♠é❝❛♥✐s♠❡s ❞❡ ré❣✉❧❛t✐♦♥ ❞❡ ❧❛ t❡♠♣ér❛t✉r❡ ❝♦r♣♦r❡❧❧❡✱ ❧❡s ✐♥s❡❝t❡s s✉♣♣♦rt❡♥t ♠❛❧ ❧❡s ❤✐✈❡rs r✐❣♦✉r❡✉①✳ ▲❡s ÷✉❢s ❤✐✈❡r♥❛♥t s♦♥t ❝❤❡③ ❧❡s ✐♥s❡❝t❡s s♦✉✈❡♥t ❞❡s ❢♦r♠❡s ❞❡ rés✐st❛♥❝❡ ❛✉ ❢r♦✐❞✳ ❈❤❡③ ❧❡s ♣✉❝❡r♦♥s✱ ❞✉r❛♥t ❧✬❛✉t♦♠♥❡✱ ❧❛ ❞✐♠✐♥✉t✐♦♥ ❞❡ ❧❛ ❞✉ré❡ ❞✉ ❥♦✉r ✭♣❤♦t♦♣ér✐♦❞❡✮ ❡st ♣❡rç✉❡ ♣❛r ❧❡s ❢❡♠❡❧❧❡s ❝♦♠♠❡ ✉♥ s✐❣♥❛❧ q✉✐ ✈❛ ♠♦❞✐✜❡r ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞❡ s❡s ❡♠❜r②♦♥s ✿ ❝❡s ❞❡r♥✐❡rs s❡ ❞é✈❡❧♦♣♣❡r♦♥t ❡♥ ❢✉t✉rs ❢❡♠❡❧❧❡s ♣❛rt❤é♥♦❣é♥ét✐q✉❡s ✈✐✈✐♣❛r❡s s❡①✉♣❛r❡s ✭❡♥ ♦♣♣♦s✐t✐♦♥ ❛✈❡❝ ✈✐r❣✐♥♦♣❛r❡s✮ q✉✐ ❞♦♥♥❡r♦♥t à ❧❡✉r t♦✉r ♥❛✐ss❛♥❝❡ à ❞❡s ✐♥❞✐✈✐❞✉s s❡①✉és✱ ♠â❧❡s ♦✉ ❢❡♠❡❧❧❡s ✭à ❞r♦✐t❡ ❋✐❣✉r❡ ✶✳✼✮✳ ❈❡s ❢❡♠❡❧❧❡s s❡①✉é❡s s♦♥t ♦✈✐♣❛r❡s ❡t ❛♣rès ❢é❝♦♥❞❛t✐♦♥✱ ❧❡s ÷✉❢s s♦♥t ♣♦♥❞✉s✳ ■❧s s♦♥t ❞✐❛♣❛✉s❛♥ts ✭❛rrêt ❞✉ ❞é✈❡❧♦♣♣❡♠❡♥t ♣❡♥❞❛♥t ✉♥❡ ❝❡rt❛✐♥❡ ♣ér✐♦❞❡✮ ❡t ♥✬é❝❧♦r♦♥t q✉✬❛✉ ♣r✐♥t❡♠♣s s✉✐✈❛♥t✳ ■❧ s✬❛❣✐t ❞♦♥❝ ❞✬✉♥ ❝❛s t②♣✐q✉❡ ❞❡ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡ ❛✈❡❝ ✉♥ s✐❣♥❛❧ ❡♥✈✐r♦♥♥❡♠❡♥t❛❧ ✭❧❛ ♣❤♦t♦♣ér✐♦❞❡✮ q✉✐ ♣r♦✈♦q✉❡ ❞❡s ❡♠❜r②♦❣❡♥ès❡s ❞✐✛ér❡♥t❡s ❛❜♦✉t✐ss❛♥t à ❞❡s ♠♦r♣❤❡s ❞✐✛ér❡♥ts ❡t ❛❞❛♣tés ❛✉① ❝♦♥❞✐t✐♦♥s ❡♥✈✐r♦♥♥❡♠❡♥t❛❧❡s✳ ❉❡♣✉✐s ❧✬❛♣rès✲❣✉❡rr❡✱ ❞❡s ét✉❞❡s s❡ s♦♥t s✉❝❝é❞é❡s ♣♦✉r t❡♥t❡r ❞❡ ❝♦♠♣r❡♥❞r❡ ❧❡s ❞✐✛ér❡♥t❡s ét❛♣❡s ❞✉ ♣♦❧②♣❤é♥✐s♠❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❝❤❡③ ❧❡s ♣✉❝❡r♦♥s ❬✼✶❪✳ ▲❛ ♣✉❜❧✐✲ ❝❛t✐♦♥ ❬✼✶❪ ❡♥ ❆♥♥❡①❡ ✭✻✳✷✳✷✮ r❡♣r❡♥❞ ❝❡s é❧é♠❡♥ts✳ ❈❡ ♠é❝❛♥✐s♠❡ ❝♦♠♣❧❡①❡ ♣❡✉t êtr❡ s✉❜❞✐✈✐sé ❡♥ ✸ ❣r❛♥❞❡s ét❛♣❡s ✿ ❧❛ ♣❡r❝❡♣t✐♦♥ ❞✉ s✐❣♥❛❧ ♣❤♦t♦♣ér✐♦❞✐q✉❡✱ s❛ tr❛♥s❞✉❝t✐♦♥ ❞❡♣✉✐s ❧❡ s②stè♠❡ ♥❡r✈❡✉① ❝❡♥tr❛❧ ❥✉sq✉✬❛✉① ♦✈❛✐r❡s✱ ❡t ❧❛ ♠♦r♣❤♦❣❡♥ès❡ ❞❡s ❡♠❜r②♦♥s✳ ▲❛ ♣❡r❝❡♣t✐♦♥ ❞❡ ❧❛ ♣❤♦t♦♣ér✐♦❞❡ r❡st❡ ♠❛❧ ❝♦♠♣r✐s❡ ❡t ❧❡s ré❝❡♣t❡✉rs ♥♦♥ ✐❞❡♥t✐✜és✳ ▲❛ ♣❤♦t♦♣ér✐♦❞❡ ❡st ♣❡rç✉❡ ❡t ✐♥té❣ré❡ ❡♥ ♣r❡♥❛♥t ❡♥ ❝♦♠♣t❡ ❞❡✉① ❣r❛♥❞s ♣❛r❛♠ètr❡s ✿✷✷ ■♥tr♦❞✉❝t✐♦♥ ÷✉❢ P❡r❝❡♣t✐♦♥ ❞❡ ❧❛ ❞✐♠✐♥✉t✐♦♥ ❞❡ ❧❛ ♣❤♦t♦♣ér✐♦❞❡ Pr✐♥t❡♠♣s ➱té ❍✐✈❡r ❆✉t♦♠♥❡ ❋✐❣✳ ✶✳✽ ✕ ❙❝❤é♠❛ ❞✉ ❝②❝❧❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✳ ❊♥ r♦✉❣❡✱ ❧❡s ❢❡♠❡❧❧❡s ♣❛rt❤é♥♦❣é♥ét✐q✉❡s ✈✐✈✐♣❛r❡s ✈✐r❣✐♥♦♣❛r❡s✳ ❊♥ ❜❧❡✉✱ ❧❡s ❢❡♠❡❧❧❡s ♣❛rt❤é♥♦❣é♥ét✐q✉❡s ✈✐✲ ✈✐♣❛r❡s s❡①✉♣❛r❡s✳ ❊♥ ♥♦✐r✱ ❧❡s ❢❡♠❡❧❧❡s ❡t ♠â❧❡s s❡①✉és✳ ❧❛ ❧♦♥❣✉❡✉r ❞❡ ❧❛ ♣❤❛s❡ ♥♦❝t✉r♥❡ ✭s❝♦t♦♣❤❛s❡✮ q✉✐ ❞♦✐t ❞é♣❛ss❡r ✉♥ s❡✉✐❧ ♣♦✉r ❞é❝❧❡♥✲ ❝❤❡r ❧❡ ♣♦❧②♣❤é♥✐s♠❡✱ ❡t ❧❡ ♥♦♠❜r❡ ❝♦♥sé❝✉t✐❢ ❞❡ ♣❤❛s❡s ♥♦❝t✉r♥❡s s❡✉✐❧❧é❡s ✭❞❡ ❧✬♦r❞r❡ ❞✬✉♥❡ ❞✐③❛✐♥❡ ❞❡ ♣❤❛s❡s✮✳ ❈❡s ♣❛r❛♠ètr❡s s♦♥t s♣é❝✐✜q✉❡s ❛✉① ❞✐✛ér❡♥t❡s ❡s♣è❝❡s✱ ✈♦✐r❡ ❛✉① ❞✐✛ér❡♥t❡s ♣♦♣✉❧❛t✐♦♥s✳ ▲❛ ♥❛t✉r❡ ❞✉ ❝♦♠♣t❡✉r ♠♦❧é❝✉❧❛✐r❡ ✐♥té❣r❛♥t ❧❡ ♥♦♠❜r❡ ❞❡ ♣❤❛s❡s ♥♦❝t✉r♥❡s ❡st ✐♥❝♦♥♥✉❡✳ P❧✉s✐❡✉rs é❧é♠❡♥ts ❞❡ ❧❛ ❝❤❛î♥❡ ❞❡ tr❛♥s❞✉❝t✐♦♥ ❞✉ s✐❣♥❛❧ ♣❤♦t♦♣ér✐♦❞✐q✉❡ ✈❡rs ❧❡s ♦✈❛✐r❡s ✭❧✐❡✉ ❞❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞❡s ❡♠❜r②♦♥s✮ ♦♥t été ✐❞❡♥t✐✜és ❝♦♠♠❡ ❧✬✐♠♣♦rt❛♥❝❡ ❞❡s ❝❡❧❧✉❧❡s ♥❡✉r♦sé❝rétr✐❝❡s ❞❛♥s ❧❡ ♣r♦t♦❝éré❜r♦♥ ✭♠❛✐s ❧❛ ♥❛t✉r❡ ❞❡s sé❝rét✐♦♥s r❡st❡ ✐♥❝♦♥♥✉❡✮ ❬✼✷❪ ♦✉ ❧❡ rô❧❡ ❞❡ ❧❛ ♠é❧❛t♦♥✐♥❡✱ ✈♦✐r❡ ❞❡ ❧✬✐♥s✉❧✐♥❡ ❬✼✸✱ ✼✹❪✳ P❛r ❝♦♥tr❡✱ ✐❧ ❛ été ❝❧❛✐r❡♠❡♥t ♠♦♥tré q✉❡ ❧❡s ❤♦r♠♦♥❡s ❥✉✈é♥✐❧❡s ét❛✐❡♥t ♥é❝❡ss❛✐r❡s à ❝❡tt❡ tr❛♥s❞✉❝t✐♦♥ ❞✉ s✐❣♥❛❧✳ ❈♦r❜✐tt ❡t ❍❛r❞✐❡ ❡♥ ✶✾✽✺ ❬✼✺❪ ♦♥t ♠♦♥tré q✉❡ ❧✬❛♣♣❧✐❝❛t✐♦♥ s✉r ❞❡s ♣✉❝❡r♦♥s ❢❡♠❡❧❧❡s ❛s❡①✉é❡s ❞✬❤♦r♠♦♥❡ ❥✉✈é♥✐❧❡ ♣❡r♠❡tt❛✐t ❞❡ ❝♦♥tr❡❝❛rr❡r ❧✬❡✛❡t ❞❡ ❧❛ ♣❤♦t♦♣ér✐♦❞❡✳ P♦✉r ❝❡❧❛ ✐❧s ♦♥t ✉t✐❧✐sé ✉♥ ❝❧♦♥❡ ❞✬❆✳ ♣✐s✉♠✱ ▲❉ ✶✷✿✶✷✱ ♦ù ❧❡s ❢❡✲ ♠❡❧❧❡s s❡①✉♣❛r❡s ❞❡ ❝❡ ❝❧♦♥❡ ♣r♦❞✉✐s❡♥t ❞❡s ❡♠❜r②♦♥s s❡①✉és ❛✉ ❞é❜✉t ❞❡ ❧❛ ♣❛rt✉r✐t✐♦♥ ✭♠✐s❡ à ❜❛s✮ ❡t ❛♣rès ❧❡ ❤✉✐t✐è♠❡ ❥♦✉r ❞❡s ❡♠❜r②♦♥s ❛s❡①✉és✳ ■❧s ♦♥t ❛♣♣❧✐q✉é ❞❡ ❧✬❤♦r✲ ♠♦♥❡ ❥✉✈é♥✐❧❡ s✉r ❧✬❛❜❞♦♠❡♥ ❞❡ tr♦✐s ❣r♦✉♣❡s ❞✐✛ér❡♥ts ❞❡ ♣✉❝❡r♦♥s ❢❡♠❡❧❧❡s s❡①✉♣❛r❡s ✿ ❛✉ ❞é❜✉t ❞❡ ❧❡✉r st❛❞❡ ❧❛r✈❛✐r❡ ▲✹✱ à ❧❛ ✜♥ ❞❡ ❧❡✉r st❛❞❡ ❧❛r✈❛✐r❡ ▲✹ ❡t ❛✉ ❞é❜✉t ❞❡ ❧❡✉r st❛❞❡ ❛❞✉❧t❡✳ ■❧s ♦♥t ♣✉ ♦❜s❡r✈❡r q✉❡ ♣♦✉r ❧❡s tr♦✐s ❣r♦✉♣❡s ❞❡ ♣✉❝❡r♦♥s✱ ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞❡ ❧✬❤♦r♠♦♥❡ ❥✉✈é♥✐❧❡ ♣❡r♠❡tt❛✐t ❞✬✐♥❞✉✐r❡ ❧❛ ♣r♦❞✉❝t✐♦♥ ❞✬❡♠❜r②♦♥s ❛s❡①✉és ❞❛♥s ❧❡s ❤✉✐t ♣r❡♠✐❡rs ❥♦✉rs ❞❡ ❧❛ ♣❛rt✉r✐t✐♦♥✳ ▲✬❛♣♣❛r✐t✐♦♥ ❞❡ ❝❡s ❡♠❜r②♦♥s ét❛♥t ♣❧✉s ♣ré❝♦❝❡ ❡♥ ❢♦♥❝t✐♦♥ ❞✉ st❛❞❡ ❧♦rs ❞❡ ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞❡ ❧✬❤♦r♠♦♥❡ ✿ ♣❧✉s ❧❡ ♣✉❝❡r♦♥ ❢❡♠❡❧❧❡ ❡st ❥❡✉♥❡✱ ♣❧✉s ❧✬❛♣♣❛r✐t✐♦♥ ❞✬❡♠❜r②♦♥s ❛s❡①✉és ❡st ♣ré❝♦❝❡✳ P❧✉s ré❝❡♠♠❡♥t✱ ❞❡s tr❛✈❛✉① ré❛❧✐sés à ❧✬■●❊PP ♦♥t r❡❝❤❡r❝❤é ❧❡s ♣r♦❣r❛♠♠❡s ❣é♥é✲ t✐q✉❡s ❝❤❡③ ❧❡s ❡♠❜r②♦♥s ❛✉ ♠♦♠❡♥t ❞❡ ❧❛ sé❧❡❝t✐♦♥ ❞✉ ♠♦❞❡ ❞❡ ❞é✈❡❧♦♣♣❡♠❡♥t s❡①✉é ♦✉▲❡s ♣✉❝❡r♦♥s ✿ ✉♥ ❡①❡♠♣❧❡ ❞❡ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡ ✷✸ ❛s❡①✉é✳ ❉❛♥s ✉♥ ♣r❡♠✐❡r t❡♠♣s✱ ✐❧ ❛ été ♠♦♥tré q✉❡ ❧❡ ❞❡r♥✐❡r st❛❞❡ ❡♠❜r②♦♥♥❛✐r❡ ♣♦✉✲ ✈❛♥t ré♣♦♥❞r❡ ❛✉① ❝❤❛♥❣❡♠❡♥ts ❡♥✈✐r♦♥♥❡♠❡♥t❛✉① ét❛✐t ❧❡ st❛❞❡ ✶✼ ✭s✉r ❧❡s ✷✵ st❛❞❡s ❞é❝r✐ts✱ ▼✐✉r❛ ❡t ❛❧ ❬✼✻❪✮ ✿ ❞✉ ❦✐♥♦♣rè♥❡ ✭♠♦❧é❝✉❧❡ ❛♥❛❧♦❣✉❡ à ❧✬❤♦r♠♦♥❡ ❥✉✈é♥✐❧❡✮ ❛ été ❛♣♣❧✐q✉é à ❧❛ ♠èr❡ ♣♦rt❡✉s❡ ❞❡s ❡♠❜r②♦♥s à s♦♥ st❛❞❡ ❧❛r✈❛✐r❡ ▲✹ ❧♦rsq✉❡ ❧❡ ❞❡r♥✐❡r ❡♠✲ ❜r②♦♥ ❧❡ ♣❧✉s ♠❛t✉r❡ ❡st ❛✉ st❛❞❡ ✶✼✳ ❈❡s ♠èr❡s s♦♥t é❧❡✈é❡s ❡♥ ♣❤♦t♦♣ér✐♦❞❡ ❝♦✉rt❡ ❡t ❧❡s ❡♠❜r②♦♥s ❞♦✐✈❡♥t ❞♦♥❝ s❡ ❞é✈❡❧♦♣♣❡r ❡♥ ❢✉t✉rs ✐♥❞✐✈✐❞✉s s❡①✉és✳ ❖r ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞✉ ❦✐♥♦♣rè♥❡ ❝♦♥tr❡❝❛rr❡ ❧✬❡✛❡t ❞❡ ❧❛ ♣❤♦t♦♣ér✐♦❞❡ ❡t ❝❡s ❡♠❜r②♦♥s ❙t❛❞❡ ✶✼ s❡ ❞é✈❡❧♦♣♣❡♥t ❡♥ ❢❡♠❡❧❧❡s ♣❛rt❤é♥♦❣é♥ét✐q✉❡✳ P❛r ❝♦♥tr❡✱ s✐ ❧❡ ❦✐♥♦♣rè♥❡ ❡st ❛♣♣❧✐q✉é ♣❧✉s t❛r❞✐✈❡♠❡♥t ❛✉① ❢❡♠❡❧❧❡s✱ ❧❡s ❡♠❜r②♦♥s ❧❡s ♣❧✉s ♠❛t✉r❡s ✭❙t❛❞❡ ✶✽ ❡t ❛✉✲❞❡❧à✮ ♥❡ ré♣♦♥❞❡♥t ♣❧✉s ❛✉ ❦✐♥♦♣rè♥❡✳ ▲❛ ❢❡♥êtr❡ ❞❡ s❡♥s✐❜✐❧✐té ❛ ❞♦♥❝ été ❞é✜♥✐❡ ❛✐♥s✐ ✿ ❧❡ st❛❞❡ ❞é✈❡❧♦♣♣❡♠❡♥✲ t❛❧ ✶✼ ❡st ❧❡ ❞❡r♥✐❡r ♣♦✉✈❛♥t ♠♦❞✐✜❡r s♦♥ ♣r♦❣r❛♠♠❡ ❞é✈❡❧♦♣♣❡♠❡♥t❛❧ ❡♥ ré♣♦♥s❡ à ❧❛ ♣❤♦t♦♣ér✐♦❞❡✳ P✉✐s ❧❡s st❛❞❡s s✉✐✈❛♥ts s✬❡♥❣❛❣❡♥t ❞❛♥s ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t s❡①✉é ♦✉ ❛s❡①✉é✳ ◆♦✉s ❛✈♦♥s ❞♦♥❝ ❛❝❝ès à ✉♥ s②stè♠❡ ❡①♣ér✐♠❡♥t❛❧ ♣❡r♠❡tt❛♥t ❞❡ s✉✐✈r❡ ❧❡s ♠♦❞✐✜❝❛t✐♦♥s ❞❡s ♣r♦❣r❛♠♠❡s ❣é♥ét✐q✉❡s s❡ ♠❡tt❛♥t ❡♥ ♣❧❛❝❡ ❧♦rs ❞✉ ♣♦❧②♣❤é♥✐s♠❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥✱ ♣❡r♠❡tt❛♥t ❞❡ ❝♦♠♣❛r❡r ❧❡s ❡♠❜r②♦❣❡♥ès❡s s❡①✉é❡s ❡t ❛s❡①✉é❡s ❞❛♥s ❞✐✛é✲ r❡♥ts ❡♠❜r②♦♥s✳ ▲❡ ❢❛✐t ❞❡ tr❛✈❛✐❧❧❡r à ❝♦♥❞✐t✐♦♥ ♣❤♦t♦♣ér✐♦❞✐q✉❡ ❝♦♥st❛♥t❡ ✭❥♦✉r ❝♦✉rt✮ ❛✈❡❝ ♦✉ s❛♥s ❦✐♥♦♣rè♥❡ ♣❡r♠❡t ❞❡ ♣❧✉s ❞✬❛ss✉r❡r ✉♥ ❞é✈❡❧♦♣♣❡♠❡♥t s②♥❝❤r♦♥❡ ❞❡s ❞❡✉① t②♣❡s ❞✬❡♠❜r②♦♥s✳ ❆✈❡❝ ❝❡ ♠❛tér✐❡❧✱ ●❛❧❧♦t ❡t ❛❧✳ ♦♥t✱ à ❧✬❛✐❞❡ ❞❡ ♣✉❝❡s à ❆❉◆✱ ❝♦♠♣❛ré ❧✬❡①♣r❡ss✐♦♥ ❞❡s ❆❘◆♠ ❛✉ ❝♦✉rs ❞✉ ❞é✈❡❧♦♣♣❡♠❡♥t ❞✬❡♠❜r②♦♥s s②♥❝❤r♦♥❡s s♦✐t s❡①✉és ❡t s♦✐t ❛s❡①✉és ❬✼✼❪✳ ■❧ ❛ été ♠♦♥tré q✉❡ ✸✸ ❣è♥❡s ét❛✐❡♥t ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ❡①♣r✐♠és ❡♥tr❡ ❧❡s tr♦✐s ❞❡r♥✐❡rs st❛❞❡s ❞❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞❡s ❡♠❜r②♦♥s ❡t ❝❡s ❆❘◆♠ s♦♥t ♣♦t❡♥✲ t✐❡❧❧❡♠❡♥t ✐♠♣❧✐q✉és ❞❛♥s q✉❛tr❡ ❣r❛♥❞s t②♣❡s ❞❡ ❢♦♥❝t✐♦♥s ✿ ❧✬♦✈♦❣❡♥ès❡ ✭✼ ❆❘◆♠✮✱ ❧❡s ré❣✉❧❛t✐♦♥s ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡s ✭✺ ❆❘◆♠✮✱ ❧❡s ré❣✉❧❛t✐♦♥s é♣✐❣é♥ét✐q✉❡s ✭✹ ❆❘◆♠✮ ❡t ❧❡ ❝②❝❧❡ ❝❡❧❧✉❧❛✐r❡ ✭✸ ❆❘◆♠✮✳ ✶✳✸✳✸ ▲❡ ❣é♥♦♠❡ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ✿ ❛♥♥♦t❛t✐♦♥s ❡t ❞✉♣❧✐❝❛t✐♦♥s ❈❡s ❞❡r♥✐èr❡s ❡①♣ér✐♠❡♥t❛t✐♦♥s ♦♥t été ré❛❧✐sé❡s ❝❤❡③ ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s q✉✐ ❡st ❞❡✈❡♥✉ ❞❡♣✉✐s ♣rès ❞❡ ✶✵ ❛♥s ✉♥ ♠♦❞è❧❡ ❡♥ ❜✐♦❧♦❣✐❡ ❡t ❣é♥♦♠✐q✉❡ ❞❡s ♣✉❝❡r♦♥s✳ ❊♥ ✷✵✶✵✱ ❧❡ séq✉❡♥ç❛❣❡ ❞✉ ❣é♥♦♠❡ ❡t ✉♥❡ ♣r❡♠✐èr❡ ❛♥♥♦t❛t✐♦♥ ❞❡s ❣è♥❡s ❡t tr❛♥s❝r✐ts ❞✬❆✳ ♣✐s✉♠ ♦♥t été ♣✉❜❧✐és ❬✶✺❪ ❡t ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ❆♣❤✐❞❇❛s❡ ❛ été ❝réé❡ ❛✜♥ ❞✬❛✈♦✐r ❛❝❝ès à ❧❛ ♣❧✉♣❛rt ❞❡s r❡ss♦✉r❝❡s ❣é♥♦♠✐q✉❡s ❞✐s♣♦♥✐❜❧❡s s✉r ❆✳ ♣✐s✉♠ ❬✼✽❪✳ ❉❡♣✉✐s✱ ✉♥❡ s❡❝♦♥❞❡ ❛♥♥♦t❛t✐♦♥ ✭✷✳✶✮ ❞❡s ❣è♥❡s ❛ été ❡✛❡❝t✉é❡ ✭❞✐s♣♦♥✐❜❧❡ s✉r ❆♣❤✐❞❜❛s❡✮✳ ▲❡ ❣é♥♦♠❡ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✱ ❝♦♥st✐t✉é ❞❡ q✉❛tr❡ ❝❤r♦♠♦s♦♠❡s✱ ❢❛✐t ❡♥✈✐r♦♥ ✺✹✵ ♠❡❣❛ ❜❛s❡ ✭▼❜✮ ❡t ❧❡ séq✉❡♥ç❛❣❡ ❛ ♣❡r♠✐s ❞✬❛ss❡♠❜❧❡r ✉♥ ♣❡✉ ♣❧✉s ❞❡ ✷✵✳✵✵✵ ✓ s❝❛✛♦❧❞s ✔✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡ ❝❡ ❣é♥♦♠❡✱ ✸✻✳✾✼✸ ❣è♥❡s ❡t ✸✻✳✾✾✵ tr❛♥s❝r✐ts ♦♥t été ✐❞❡♥t✐✜és✳ ■❧ ❛ été ♦❜s❡r✈é q✉❡ ♣❛r♠✐ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❣è♥❡s ♣ré❞✐ts✱ ✉♥ ❣r❛♥❞ ♥♦♠❜r❡ rés✉❧t❛✐t ❞❡ ❞✉♣❧✐❝❛t✐♦♥s ✿ ❡♥✈✐r♦♥ ✷✳✵✵✵ ❢❛♠✐❧❧❡s ❞❡ ❣è♥❡s ❞✉♣❧✐q✉és s♦♥t ❞é❝r✐t❡s ❬✶✺❪ ✭♦ù ✉♥❡ ❢❛♠✐❧❧❡ ❞❡ ❣è♥❡s ❡st ❞é✜♥✐❡ ❝♦♠♠❡ ❞❡s ❣è♥❡s s✐♠✐❧❛✐r❡s ❡t ❞♦♥❝ ♣♦t❡♥t✐❡❧❧❡♠❡♥t ❞❡ ❢♦♥❝t✐♦♥ ❜✐♦❝❤✐♠✐q✉❡ ♣r♦❝❤❡✮✳ P❛r♠✐ ❧❡s ❢♦♥❝t✐♦♥s ❞❡s ❢❛♠✐❧❧❡s ❞✉♣❧✐q✉é❡s ♥♦✉s ♣♦✉✈♦♥s ❝✐t❡r ❧❛ ♠♦❞✐✜❝❛t✐♦♥ ❞❡ ❧❛ ❝❤r♦♠❛t✐♥❡✱ ❧❡ tr❛♥s♣♦rt ❞❡s s✉❝r❡s ♦✉ ❡♥❝♦r❡ ❧❛ s②♥t❤ès❡ ❞❡s ♠✐❝r♦❆❘◆ ✭❞✐s❝✉té ♣❧✉s ❜❛s✮✳ P❛r ❝♦♥tr❡✱ ❝❡rt❛✐♥s ❣è♥❡s q✉✐ s♦♥t ❣é♥ér❛❧❡♠❡♥t ❝♦♥s❡r✈és ❞✉r❛♥t ❧✬é✈♦❧✉t✐♦♥ s♦♥t ✐❝✐ ♠❛♥q✉❛♥ts✱ ❝♦♠♠❡ ❞❡s ❣è♥❡s ✐♠♣❧✐q✉és ❞❛♥s ❧❛ ré♣♦♥s❡ ✐♠♠✉♥✐t❛✐r❡ ❞❡ t②♣❡ ■▼❉ ♦✉ ❝❡rt❛✐♥❡s ✈♦✐❡s ♠ét❛❜♦❧✐q✉❡s✳ ❙❡♣t ♣r♦té✐♥❡s s♦♥t ✐♠♣❧✐q✉é❡s ❞❛♥s ❧❛ s②♥t❤ès❡ ❡t ❧❛ ♠❛t✉r❛t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ✿ ❉r♦s❤❛ ❡t P❛s❤❛ ♣♦✉r ❧❡ ♣❛ss❛❣❡ ❞❡ ♣r✐✲♠✐❝r♦❆❘◆ ✈❡rs ❧❡ ♣ré✲♠✐❝r♦❆❘◆✱ ❧✬❊①♣♦rt✐♥❡✲✺ ♣♦✉r ❧❡ tr❛♥s♣♦rt ❞✉ ♣ré✲♠✐❝r♦❆❘◆ ❞✉ ♥♦②❛✉ ✈❡rs ❧❡ ❝②t♦♣❧❛s♠❡✱ ❉✐❝❡r✲✶ ❡t ▲♦q✉❛✲✷✹ ■♥tr♦❞✉❝t✐♦♥ ❝✐♦✉s ♣♦✉r ❧❛ ♠❛t✉r❛t✐♦♥ ❞✉ ♣ré✲♠✐❝r♦❆❘◆ ❡♥ ❝♦♠♣❧❡①❡ ❆❘◆ ❞♦✉❜❧❡ ❜r✐♥ ❡t ✜♥❛❧❡♠❡♥t ❆r❣♦♥❛✉t❡✲✶ q✉✐ ❢❛✐t ♣❛rt✐❡ ❞✉ ❝♦♠♣❧❡①❡ ❘■❙❈ ✐♠♣❧✐q✉é ❞❛♥s ❧❛ ré♣r❡ss✐♦♥ ✐♥❞✉✐t❡ ♣❛r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✳ ❙✉r ❧❡s s❡♣t ❣è♥❡s ❝♦❞❛♥ts ♣♦✉r ❝❡s ♣r♦té✐♥❡s✱ q✉❛tr❡ ❞✬❡♥tr❡ ❡✉① s♦♥t ❞✉♣❧✐q✉és s✉r ❧❡ ❣é♥♦♠❡ ✿ P❛s❤❛ ❡♥ q✉❛tr❡ ❡①❡♠♣❧❛✐r❡s ❡t ❉✐❝❡r✲✶✱ ▲♦q✉❛❝✐♦✉s ❡t ❆r❣♦♥❛✉t❡✲✶ ❡♥ ❞❡✉① ❡①❡♠♣❧❛✐r❡s ❬✼✾✱ ✶✺❪✳ ❈❡s ❞✉♣❧✐❝❛t✐♦♥s ♦♥t été ♦❜s❡r✈é❡s ❝❤❡③ ❞✬❛✉tr❡s ❡s♣è❝❡s ❞❡ ♣✉❝❡r♦♥ ♠❛✐s ♥❡ s❡♠❜❧❡♥t ♣❛s êtr❡ ♣rés❡♥t❡s ❝❤❡③ ❞✬❛✉tr❡s ♠❡t❛③♦❛ ❡♥ ❞❡❤♦rs ❞❡s ♣✉❝❡r♦♥s ❬✽✵❪✳ ❉❛♥s ❝❤❛q✉❡ ❝❛s✱ ✉♥❡ ❞❡s ❝♦♣✐❡s ♥✬❛ ♣❛s é✈♦❧✉é ❡t r❡st❡ très s✐♠✐❧❛✐r❡ ❛✉① ♦rt❤♦❧♦❣✉❡s ❞❡s ❛✉tr❡s ✐♥s❡❝t❡s✱ ❡t ❧❛ s❡❝♦♥❞❡ ❝♦♣✐❡ ❛ ❢♦rt❡♠❡♥t é✈♦❧✉é✱ ❛✈❡❝ ❞❡s séq✉❡♥❝❡s é❧♦✐❣♥é❡s ❞❡s ❝♦♣✐❡s ♦r✐❣✐♥❛❧❡s✱ ❡t ♣❛r❢♦✐s ❞❡s tr❛❝❡s ❞❡ sé❧❡❝t✐♦♥ ♣♦✲ s✐t✐✈❡✱ é✈♦q✉❛♥t ❧✬❛❝q✉✐s✐t✐♦♥ ♣♦t❡♥t✐❡❧❧❡ ❞✬✉♥❡ ♥♦✉✈❡❧❧❡ ❢♦♥❝t✐♦♥✳ ❉❡ ♣❧✉s✱ ❧✬❡①♣r❡ss✐♦♥ ❝♦♠♣❛r❛t✐✈❡ ❡♥tr❡ ❧❡s ❞✐✛ér❡♥ts ♠♦r♣❤❡s ❞❡ ❝❡s ❣è♥❡s ♠♦♥tr❡ q✉❡ ❧❡s ❝♦♣✐❡s ♦r✐❣✐♥❛❧❡s s✬❡①♣r✐♠❡♥t ❞❡ ❢❛ç♦♥ ✉❜✐q✉✐st❡ ❝❤❡③ t♦✉s ❧❡s ♠♦r♣❤❡s✱ ❛❧♦rs q✉❡ ❧❡s ❝♦♣✐❡s ❞✐✈❡r❣❡♥t❡s ❛❝✲ q✉✐èr❡♥t ❞❡s s♣é❝✐✜❝✐tés ❞✬❡①♣r❡ss✐♦♥ ✿ ♣❛r ❡①❡♠♣❧❡✱ ❉✐❝❡r✲✶❜ ✭❝♦♣✐❡ ❞✐✈❡r❣❡♥t❡ ❞❡ ❉✐❝❡r✮ ❛ ✉♥ ♣r♦✜❧ ❞✬❡①♣r❡ss✐♦♥ très ♠❛rq✉é ❝❤❡③ ❧❡s ❢❡♠❡❧❧❡s ♣❛rt❤é♥♦❣é♥ét✐q✉❡s s❡①✉♣❛r❡s✳ ❈❡s ♦❜s❡r✈❛t✐♦♥s ✐♥❞✐q✉❡♥t ✉♥❡ ♣♦t❡♥t✐❡❧❧❡ s♣é❝✐❛❧✐s❛t✐♦♥ ❞❡ ❧❛ ♠❛❝❤✐♥❡r✐❡ ❞❡s ♠✐❝r♦❆❘◆✱ ❡t ♣❡r♠❡tt❡♥t ❞❡ ♣♦s❡r ❧✬❤②♣♦t❤ès❡ q✉❡ ❞❡s ré❣✉❧❛t✐♦♥s ❣é♥ét✐q✉❡s ♣❛r ❞❡s ♠✐❝r♦❆❘◆ ♣♦✉rr❛✐❡♥t ✐♥t❡r✈❡♥✐r ❧♦rs ❞✉ ♣♦❧②♣❤é♥✐s♠❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥✳ ✶✳✸✳✹ ▲❡s ❞✐✛ér❡♥ts ♠♦❞❡s ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❡t ❧❡s ♠✐❝r♦❆❘◆ ❉❡✉① ét✉❞❡s ♣ré❝é❞❡♥t❡s ♦♥t ét✉❞✐é ❧✬❡①♣r❡ss✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ❝❤❡③ ❞✐✛ér❡♥ts ♠♦r♣❤❡s ❞✉ ♠♦❞❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❝❤❡③ ❆✳ ♣✐s✉♠✳ ❊♥ ✷✵✶✵✱ ▲❡❣❡❛✐ ❡t ❛❧✳ ♦♥t ♣✉❜❧✐é ✉♥ ♣r❡♠✐❡r ❝❛t❛❧♦❣✉❡ ❞❡ ♠✐❝r♦❆❘◆ ❝❤❡③ ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❬✽✶❪✳ ❈❡ ❝❛t❛❧♦❣✉❡ ❛ été ♦❜t❡♥✉ à ❧✬❛✐❞❡ ❞❡ séq✉❡♥ç❛❣❡ ❤❛✉t ❞é❜✐t ❞❡ ♣❡t✐ts ❆❘◆ ❝❤❡③ tr♦✐s t②♣❡s ❞❡ ♠♦r♣❤❡s ✿ ❞❡s ❢❡✲ ♠❡❧❧❡s ♣❛rt❤é♥♦❣é♥ét✐q✉❡s ✈✐r❣✐♥♦♣❛r❡s✱ ❞❡s ❢❡♠❡❧❧❡s ♣❛rt❤é♥♦❣é♥ét✐q✉❡s s❡①✉♣❛r❡s ❡t ❞❡s ❢❡♠❡❧❧❡s ♦✈✐♣❛r❡s✳ ❊♥ ♣❧✉s ❞❡ ❧✬✐❞❡♥t✐✜❝❛t✐♦♥ ❞❡ ❝❡ ❝❛t❛❧♦❣✉❡✱ ❧✬❡①♣r❡ss✐♦♥ ❞❛♥s ❧❡s ❞✐✛ér❡♥ts ♠♦r♣❤❡s ❛ été ❝♦♠♣❛ré❡✳ ❈❡tt❡ ét✉❞❡ ❛ ♣❡r♠✐s ❞❡ ♠❡ttr❡ ❡♥ é✈✐❞❡♥❝❡ ✶✼ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ❡①♣r✐♠és ❡♥tr❡ ❧❡s ♠♦r♣❤❡s ❛✈❡❝ ♥♦t❛♠♠❡♥t ❛♣✐✲ ❧❡t✲✼ ❡t ❛♣✐✲♠✐r✲✶✵✵ q✉✐ s♦♥t s✉r✲❡①♣r✐♠és ❝❤❡③ ❧❡ ♠♦r♣❤❡ ♦✈✐♣❛r❡ ❝♦♠♣❛ré ❛✉① ♠♦r♣❤❡s ✈✐r❣✐♥♦♣❛r❡s ❡t s❡①✉♣❛r❡s ❡t q✉✐ s♦♥t ✐♠♣❧✐q✉és ❞❛♥s ❧❛ ♠ét❛♠♦r♣❤♦s❡ ❡t ❧❛ ré♣♦♥s❡ à ❧✬❡❝❞②s♦♥❡✱ ✉♥❡ ❤♦r♠♦♥❡ ❞✉ ❞é✈❡❧♦♣♣❡♠❡♥t ❝❤❡③ ❧❡s ✐♥s❡❝t❡s✳ ▲❡ ♠✐❝r♦❆❘◆ ❛♣✐✲♠✐r✲✸✹ ✐♠♣❧✐q✉é ❧✉✐ ❛✉ss✐ ❞❛♥s ❧❛ ré♣♦♥s❡ à ❧✬❡❝❞②s♦♥❡ ❡t à ❧✬❤♦r♠♦♥❡ ❥✉✈é♥✐❧❡ ❝❤❡③ ❉r♦s♦✲ ♣❤✐❧❛ ♠❡❧❛♥♦❣❛st❡r ❬✽✷❪ ❡st s✉r✲❡①♣r✐♠é ❝❤❡③ ❧❡ ♠♦r♣❤❡ s❡①✉♣❛r❡ ❝♦♠♣❛ré ❛✉ ♠♦r♣❤❡ ✈✐r❣✐♥♦♣❛r❡✳ ❊♥ ✷✵✶✶✱ ❆✉r♦r❡ ●❛❧❧♦t ❛ ❞❛♥s s❛ t❤ès❡ ét✉❞✐é ❧✬❡①♣r❡ss✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ❧♦rs ❞✉ ❞é✈❡❧♦♣♣❡♠❡♥t ❞✬❡♠❜r②♦♥s s②♥❝❤r♦♥❡s s❡①✉és ❡t ❛s❡①✉és ❬✽✸❪ s✉r ❧❡ ♠ê♠❡ ♠♦✲ ❞è❧❡ ❡①♣ér✐♠❡♥t❛❧ q✉❡ ❝❡❧✉✐ ❞❡s ❆❘◆♠✳ ❉❛♥s ❝❡tt❡ t❤ès❡✱ ●❛❧❧♦t ❛ ♠♦♥tré q✉❡ tr♦✐s ♠✐❝r♦❆❘◆ q✉✐ ❛✈❛✐❡♥t ❞é❥à été ♦❜s❡r✈és ❝♦♠♠❡ ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ❡①♣r✐♠és ♣❛r ▲❡❣❡❛✐ ❡t ❛❧✳✱ ❛♣✐✲♠✐r✲✷❛✱ ❛♣✐✲♠✐r✲✼ ❡t ❛♣✐✲♠✐r✲✷✼✺✱ s♦♥t ❛✉ss✐ ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ❡①♣r✐♠és ❞❛♥s s♦♥ ét✉❞❡✱ ❛✉ ♥✐✈❡❛✉ ❞❡s ❡♠❜r②♦♥s✳ ▲✬❡♥s❡♠❜❧❡ ❞❡ ❝❡s rés✉❧t❛ts s✉r ❧✬❡①♣r❡ss✐♦♥ ❞❡ ♠✐✲ ❝r♦❆❘◆ ♠❛t✉r❡s ❝❤❡③ ❞✐✛ér❡♥ts ♠♦r♣❤❡s ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ♦✉ ❝❤❡③ ❧❡s ❡♠❜r②♦♥s ♠❡t ❡♥ ✈❛❧❡✉r ✉♥ rô❧❡ ♣♦t❡♥t✐❡❧ ❞❡s ♠✐❝r♦❆❘◆ ❞❛♥s ❧❛ ❞ét❡r♠✐♥❛t✐♦♥ ❞✉ ♠♦❞❡ ❞❡ r❡♣r♦❞✉❝✲ t✐♦♥ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠✳▲✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ✷✺ ✶✳✹ ▲✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ▲✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ✭❆❈❋✮ ❡st ✉♥ ❢♦r♠❛❧✐s♠❡ ✐♥tr♦❞✉✐t ♣❛r ●❛♥t❡r ❡t ❲✐❧❧❡ ❬✽✹❪ q✉✐ ♣❡r♠❡t ❞❡ ❢♦r♠❡r ❞❡s ❝♦♥❝❡♣ts ❡♥ r❡❣r♦✉♣❛♥t ❞❡s ♦❜❥❡ts ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❡✉rs ❛ttr✐❜✉ts✳ ❖♥ ♣❛rt ❞❡ ❞❡✉① ❡♥s❡♠❜❧❡s✱ ✉♥ ❡♥s❡♠❜❧❡ ❞✬♦❜❥❡ts ❡t ✉♥ ❡♥s❡♠❜❧❡ ❞✬❛ttr✐❜✉ts✱ ❡t ❞✬✉♥❡ r❡❧❛t✐♦♥ ❜✐♥❛✐r❡ ❡♥tr❡ ❝❡s ♦❜❥❡ts ❡t ❝❡s ❛ttr✐❜✉ts ✭❛ttr✐❜✉ts ❛ss♦❝✐és à ❝❤❛q✉❡ ♦❜❥❡t✮✳ ❈❤❛q✉❡ ❝♦♥❝❡♣t s❡r❛ ❞é✜♥✐ ♣❛r s♦♥ ❡①t❡♥s✐♦♥✱ ❧✬❡♥s❡♠❜❧❡ ❞✬♦❜❥❡ts s✉r ❧❡q✉❡❧ ❧❡ ❝♦♥❝❡♣t s✬❛♣♣❧✐q✉❡✱ ❡t ❧✬❡♥s❡♠❜❧❡ ❞✬❛ttr✐❜✉ts q✉✐ ❝❛r❛❝tér✐s❡ ❧❡ ❝♦♥❝❡♣t✱ s♦♥ ✐♥t❡♥s✐♦♥✳ ❊♥ ♣❧✉s ❞❡ ❧❛ ❢♦r♠❛❧✐s❛t✐♦♥ ❞❡s ❝♦♥❝❡♣ts✱ ❧✬❆❈❋ ♣❡r♠❡t ❞✬♦r❞♦♥♥❡r ♣❛rt✐❡❧❧❡♠❡♥t ❧❡s ❝♦♥❝❡♣ts✳ ◆♦✉s ✉t✐❧✐s♦♥s ❧✬❆❈❋ ♣♦✉r ❧✬❛♥❛❧②s❡ ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s✳ ✶✳✹✳✶ ▲✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ✿ ♥♦t❛t✐♦♥ ❡t ❞é✜♥✐t✐♦♥s ❯♥ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ❡st ✉♥ tr✐♣❧❡t K = (G, M, I) ♦ù G ❡st ✉♥ ❡♥s❡♠❜❧❡ ❞✬♦❜❥❡ts✱ M ✉♥ ❡♥s❡♠❜❧❡ ❞✬❛ttr✐❜✉ts ❡t I ⊆ G × M ❡st ✉♥❡ r❡❧❛t✐♦♥ ❜✐♥❛✐r❡ ❡♥tr❡ ❧❡s ♦❜❥❡ts ❡t ❧❡s ❛ttr✐❜✉ts✳ ▲✬♦♣ér❛t❡✉r (.) 0 ❡st ❞é✜♥✐ s✉r K ♣♦✉r A ⊆ G ❡t B ⊆ M ❝♦♠♠❡ ✿ A 0 = {m ∈ M|∀g ∈ A : gIm}; B 0 = {g ∈ G|∀m ∈ B : gIm}. A0 ❡st ❞♦♥❝ ❧✬❡♥s❡♠❜❧❡ ❞✬❛ttr✐❜✉ts ❝♦♠♠✉♥s à t♦✉s ❧❡s ♦❜❥❡ts ❞❡ A ❡t B0 ❧✬❡♥s❡♠❜❧❡ ❞✬♦❜❥❡ts ❝♦♠♠✉♥s à t♦✉s ❧❡s ❛ttr✐❜✉ts ❞❡ B✳ ❯♥ ❝♦♥❝❡♣t ❢♦r♠❡❧ ❡st ✉♥❡ ♣❛✐r❡ (A, B) ❞é✜♥✐❡ s✉r K ❛✈❡❝ A ⊆ G ❡t B ⊆ M ♦ù A = B0 ❡t B = A0 ✳ A ❡st ❛♣♣❡❧é ❧✬❡①t❡♥s✐♦♥ ❞✉ ❝♦♥❝❡♣t ❡t ❇ ❧✬✐♥t❡♥s✐♦♥ ❞✉ ❝♦♥❝❡♣t✳ ❉❛♥s ❧❛ s✉✐t❡ ❞❡ ❧❛ t❤ès❡✱ ❧❡ ♠♦t ❝♦♥❝❡♣t s❡r❛ ✉t✐❧✐sé ♣♦✉r ❢❛✐r❡ ré❢ér❡♥❝❡ ❛✉① ❝♦♥❝❡♣ts ❢♦r♠❡❧s✳ ▲❡s ❝♦♥❝❡♣ts ♣❡✉✈❡♥t êtr❡ ♦r❞♦♥♥és ❡♥ s❡ ❜❛s❛♥t s✉r ❧✬✐♥❝❧✉s✐♦♥ ❞❡ ❧❡✉rs ❡♥s❡♠❜❧❡s ✿ ♣♦✉r ❞❡✉① ❝♦♥❝❡♣ts (A, B) ❡t (C, D)✱ s✐ A ⊂ C ✭ré❝✐♣r♦q✉❡♠❡♥t C ⊂ A✮ ❛❧♦rs ♦♥ ♥♦t❡ (A, B) < (C, D) ✭ré❝✐♣r♦q✉❡♠❡♥t (C, D) > (A, B)✮✳ ❉❡ ♣❧✉s✱ A ⊂ C ✐♠♣❧✐q✉❡ D ⊂ B✳ ❙✐ (A, B) < (C, D) ❡t q✉✬✐❧ ♥✬❡①✐st❡ ❛✉❝✉♥ ❝♦♥❝❡♣t ❢♦r♠❡❧ (E, F) t❡❧ q✉❡ (A, B) < (E, F) < (C, D) ❛❧♦rs ♦♥ ♥♦t❡ q✉❡ (A, B) ≺ (C, D) ✭ré❝✐♣r♦q✉❡♠❡♥t (C, D)  (A, B)✮✳ ▲❛ r❡❧❛t✐♦♥ < ❣é♥èr❡ ✉♥ tr❡✐❧❧✐s ❞❡ ❝♦♥❝❡♣ts ♥♦té B(K) s✉r ❧❡ ❝♦♥t❡①t❡ K✳ ▲✬♦r❞r❡ ≺ r❡♣rés❡♥t❡ ❧❡s ❛rêt❡s ❞✉ ❣r❛♣❤❡ ❝♦✉✈r❛♥t B(K)✳ ❈❡s r❡❧❛t✐♦♥s ♣❡r♠❡tt❡♥t ❞❡ ❞é✜♥✐r ❧✬✐♥✜♠✉♠ ❞❡ ❞❡✉① ❝♦♥❝❡♣ts✱ ❝✬❡st✲à✲❞✐r❡ ❧❛ ♣❧✉s ❣r❛♥❞❡ ❜♦r♥❡ ✐♥❢ér✐❡✉r❡ ❞❡ ❞❡✉① ❝♦♥❝❡♣ts ❡t ❧❡ s✉♣r❡♠✉♠ ❞❡ ❞❡✉① ❝♦♥❝❡♣ts✱ ❧❛ ♣❧✉s ♣❡t✐t❡ ❜♦r♥❡ s✉♣ér✐❡✉r❡ ❞❡ ❞❡✉① ❝♦♥❝❡♣ts✳ ❉❛♥s ❧❛ s✉✐t❡ ❞❡ ❧❛ t❤ès❡✱ ❧♦rsq✉✬✐❧ s❡r❛ ❢❛✐t ré❢ér❡♥❝❡ ❛✉ tr❡✐❧❧✐s ❞❡ ❝♦♥❝❡♣ts ✐❧ s❡r❛ ❢❛✐t ré❢ér❡♥❝❡ ❛✉ ❣r❛♣❤❡ ❝♦✉✈r❛♥t B(K) ❣é♥éré ♣❛r ❧❛ r❡❧❛t✐♦♥ ≺✳ ❙✉r ❧❡ tr❡✐❧❧✐s✱ ♦♥ ♣❡✉t ❞é✜♥✐r ✉♥ ❝♦♥❝❡♣t ♠❛①✐♠✉♠ ❛♣♣❡❧é t♦♣ ✭>✮✳ ▲✬❡①t❡♥s✐♦♥ ❞❡ ❝❡ ❝♦♥❝❡♣t ❡st ❧✬❡♥s❡♠❜❧❡ G ❞❡s ♦❜❥❡ts ❞✉ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ❡t s♦♥ ✐♥t❡♥s✐♦♥ ❡st ❧✬❡♥s❡♠❜❧❡ é✈❡♥t✉❡❧❧❡♠❡♥t ✈✐❞❡ ❞❡s ❛ttr✐❜✉ts ♣♦ssé❞és ♣❛r ❧✬❡♥s❡♠❜❧❡ ❞❡s ♦❜❥❡ts ❞✉ ❝♦♥t❡①t❡ ❢♦r♠❡❧✳ ❘é❝✐♣r♦q✉❡♠❡♥t ♦♥ ♣❡✉t ❞é✜♥✐r ✉♥ ❝♦♥❝❡♣t ♠✐♥✐♠✉♠✱ ❧❡ ❝♦♥❝❡♣t ❜♦tt♦♠ ✭⊥✮✳ ▲✬✐♥t❡♥s✐♦♥ ❞❡ ❝❡ ❝♦♥❝❡♣t ❡st ❧✬❡♥s❡♠❜❧❡ M ❞❡s ❛ttr✐❜✉ts ❞✉ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ❡t s♦♥ ❡①t❡♥s✐♦♥ ❡st ❧✬❡♥s❡♠❜❧❡ é✈❡♥t✉❡❧❧❡♠❡♥t ✈✐❞❡ ❞❡s ♦❜❥❡ts q✉✐ ♣♦ssè❞❡♥t ❧✬❡♥s❡♠❜❧❡ ❞❡s ❛ttr✐❜✉ts ❞✉ ❝♦♥t❡①t❡ ❢♦r♠❡❧✳ ▲❡ ❚❛❜❧❡❛✉ ✶✳✶ ♣rés❡♥t❡ ✉♥ ❡①❡♠♣❧❡ ❞❡ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ❡t ❧❡ tr❡✐❧❧✐s ❛ss♦❝✐é ❡st ♣rés❡♥té ❋✐❣✉r❡ ✶✳✾✳ ❈❡ ❝♦♥t❡①t❡ ❝♦♥t✐❡♥t q✉❛tr❡ ❝♦♥❝❡♣ts ✿ C1, C2✱ ❡t ❧❡s ❝♦♥❝❡♣ts > ❡t ⊥✳ ▲❡s ❝♦♥❝❡♣ts ❢♦r♠❡❧s ♣❡✉✈❡♥t êtr❡ ✈✉s ❝♦♠♠❡ ❞❡s r❡❝t❛♥❣❧❡s ♠❛①✐♠❛✉① ❞❡ ✶ ❞❛♥s ❧❛ r❡❧❛t✐♦♥ ❜✐♥❛✐r❡ ♠♦❞✉❧♦ ❞❡s ♣❡r♠✉t❛t✐♦♥s ❞❡ ❧✐❣♥❡s ❡t✴♦✉ ❞❡ ❝♦❧♦♥♥❡s✳ ❉❡s r❡❝t❛♥❣❧❡s✷✻ ■♥tr♦❞✉❝t✐♦♥ a1 a2 a3 a4 o1 ✶ ✶ o2 ✶ ✶ o3 ✶ ✶ o4 ✶ ✶ o5 ✶ ✶ ❚❛❜❧❡❛✉ ✶✳✶ ✕ ❈♦♥t❡①t❡ ❢♦r♠❡❧ K❡① = (G❡①, M❡①, I❡①) ❛✈❡❝ G❡① = {o1, .., o5} ❧✬❡♥s❡♠❜❧❡ ❞❡s ♦❜❥❡ts ❡t M❡① = {a1, .., a4} ❧✬❡♥s❡♠❜❧❡ ❞❡s ❛ttr✐❜✉ts✳ ▲❡s ✶ r❡♣rés❡♥t❡♥t ❧❛ r❡❧❛t✐♦♥ ❜✐♥❛✐r❡ I❡①✳ > = {o1, o2, o3, o4, o5} × ∅ C1 = {o1, o2, o3} × {a1, a2} C2 = {o4, o5} × {a3, a4} ⊥ = ∅ × {a1, a2, a3, a4} ❋✐❣✳ ✶✳✾ ✕ ❚r❡✐❧❧✐s ❞❡ ❝♦♥❝❡♣ts B(K❡①) ❞✉ ❝♦♥t❡①t❡ ❢♦r♠❡❧ K❡①✳ ▲❡s ❝♦♥❝❡♣ts s♦♥t ♣rés❡♥tés ❞❡ ❧❛ ❢❛ç♦♥ s✉✐✈❛♥t❡ ✿ ♥♦♠ ❞✉ ❝♦♥❝❡♣t = A × B ❛✈❡❝ ❆ ❧✬❡♥s❡♠❜❧❡ ❞❡s ♦❜❥❡ts ❞✉ ❝♦♥❝❡♣t ❡t ❇ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❛ttr✐❜✉ts ❞✉ ❝♦♥❝❡♣t✳ s♦♥t ❞✐t ♠❛①✐♠❛✉① s✐ ❧✬♦♥ ♥❡ ♣❡✉t r❛❥♦✉t❡r ❛✉❝✉♥❡ ❝♦❧♦♥♥❡ ❛✈❡❝ ❞❡s ✶ s✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ❧✐❣♥❡s ❡t ❛✉❝✉♥❡ ❧✐❣♥❡ ❛✈❡❝ ❞❡s ✶ s✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦❧♦♥♥❡s✳ ❙✉r ❧✬❡①❡♠♣❧❡ ❚❛❜❧❡❛✉ ✶✳✶ ♦♥ ♣❡✉t ✈♦✐r q✉❡ ❧❡s ❞❡✉① ❝♦♥❝❡♣ts ❢♦r♠❡❧s C1 ❡t C2 ❞é✜♥✐s ❋✐❣✉r❡ ✶✳✾ s♦♥t ❡♥ ❡✛❡t ❞❡s r❡❝t❛♥❣❧❡s ♠❛①✐♠❛✉①✳ ✶✳✹✳✷ ▲❡ ❣r❛♣❤❡ ❞✬✐♥t❡r❛❝t✐♦♥s ❡♥tr❡ ♠✐❝r♦❆❘◆ ❡t ❆❘◆♠ ✿ ✉♥ ❣r❛♣❤❡ ❜✐♣❛rt✐ ♠♦❞é❧✐s❛❜❧❡ ❝♦♠♠❡ ✉♥ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ❯♥ ❣r❛♣❤❡ G = (N, E) ❡st ✉♥ ❡♥s❡♠❜❧❡ ❞❡ ♥÷✉❞s N r❡❧✐és ♣❛r ✉♥ ❡♥s❡♠❜❧❡ E ❞✬❛rêt❡s✳ ♦♥ ♣❡✉t ❧❡ r❡♣rés❡♥t❡r ♣❛r s❛ ♠❛tr✐❝❡ ❞✬❛❞❥❛❝❡♥❝❡✳ P♦✉r ✉♥ ❣r❛♣❤❡ G = (N, E) s✐♠♣❧❡✱ ❝✬❡st✲à✲❞✐r❡ t❡❧ q✉✬✐❧ ❡①✐st❡ ❛✉ ♠❛①✐♠✉♠ ✉♥❡ s❡✉❧❡ ❛rêt❡ ❡♥tr❡ ❞❡✉① ♥÷✉❞s✱ ❧❛ ♠❛tr✐❝❡ ❞✬❛❞❥❛❝❡♥❝❡ T ❞✉ ❣r❛♣❤❡ ❡st ✉♥❡ ♠❛tr✐❝❡ ❜♦♦❧é❡♥♥❡ ❞❡ ❞✐♠❡♥s✐♦♥ |N| × |N| ♦ù ❧❛ ✈❛❧❡✉r ❞❡ ❧❛ ❝❛s❡ tij ❞❡ ❧❛ ♠❛tr✐❝❡ ❞✬❛❞❥❛❝❡♥❝❡ T ✈❛✉t ✿ tij = ( 1 s✐ ✐❧ ② ❛ ✉♥❡ ❛rêt❡ ❡♥tr❡ ❧❡ ♥÷✉❞ i ❡t ❧❡ ♥÷✉❞ j ❞❛♥s E✱ 0 s✐♥♦♥✳ P♦✉r ❝❤❛q✉❡ ♥÷✉❞ ❞✉ ❣r❛♣❤❡✱ ❧❡ ♥♦♠❜r❡ ❞✬❛rêt❡s q✉✐ s♦♥t r❡❧✐é❡s à ❧✉✐ ❡st ❛♣♣❡❧é ❧❡ ❞❡❣ré ❞✉ ♥÷✉❞✳ ▲❡s ❣r❛♣❤❡s ❜✐♣❛rt✐s s♦♥t ✉♥ ❝❛s ♣❛rt✐❝✉❧✐❡r ❞❡ ❣r❛♣❤❡ ♦ù ✐❧ ❡①✐st❡ ✉♥❡ ♣❛rt✐t✐♦♥ ❞❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ♥÷✉❞s ❡♥ ❞❡✉① s♦✉s✲❡♥s❡♠❜❧❡s ❞✐st✐♥❝ts U ❡t V t❡❧ q✉❡ ❝❤❛q✉❡ ❛rêt❡ ❞❡▲✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ✷✼ E r❡❧✐❡ ✉♥ ♥÷✉❞ ❞❡ U à ✉♥ ♥÷✉❞ ❞❡ V ✳ ❖♥ ♣❡✉t ♥♦t❡r ✉♥ ❣r❛♣❤❡ ❜✐♣❛rt✐ ❞❡ ❧❛ ❢❛ç♦♥ s✉✐✲ ✈❛♥t❡ ✿ G = (U, V, E) ❛✜♥ ❞❡ ❞✐st✐♥❣✉❡r ❧❡s ❞❡✉① ❡♥s❡♠❜❧❡s ❞❡ ♥÷✉❞s✳ P❛r ❡①❡♠♣❧❡✱ ✉♥ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ❡♥tr❡ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞❡s ❆❘◆♠ ❡st ✉♥ ❣r❛♣❤❡ ❜✐♣❛rt✐ ♥♦té R = (µ, ARN, I) ♦ù ❧❡s ♥÷✉❞s ❞❡ µ s♦♥t ❧✬❡♥s❡♠❜❧❡ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ❧❡s ♥÷✉❞s ❞❡ ARN ❧✬❡♥s❡♠❜❧❡ ❞❡s ❆❘◆♠ ❡t ❧❡s ❛rêt❡s I ❧✬❡♥s❡♠❜❧❡ ❞❡s ✐♥t❡r❛❝t✐♦♥s ❡♥tr❡ ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✐ss✉s ❞❡ µ ❡t ❧❡s ❆❘◆♠ ✐ss✉s ❞❡ ARN✳ ❊♥ ❡✛❡t✱ ❧❡s s❡✉❧❡s ✐♥t❡r✲ ❛❝t✐♦♥s q✉✐ ❡①✐st❡♥t ❞❛♥s ❝❡ rés❡❛✉ s♦♥t ❞❡s ✐♥t❡r❛❝t✐♦♥s ❡♥tr❡ ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❧❡s ❆❘◆♠✱ ✐❧ ♥✬❡①✐st❡ ❛✉❝✉♥❡ ❛rêt❡ ❡♥tr❡ ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❛✉❝✉♥❡ ❛rêt❡ ❡♥tr❡ ❧❡s ❆❘◆♠✳ ❉❛♥s ❧❛ s✉✐t❡ ❞❡ ❧❛ t❤ès❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s❡r❛ r❡♣rés❡♥té ♣❛r ❧❡s ❧✐❣♥❡s ❞❡ ❧❛ ♠❛tr✐❝❡ ❞✬❛❞❥❛❝❡♥❝❡ ❡t ❧✬❡♥s❡♠❜❧❡ ❞❡s ❆❘◆♠ s❡r❛ r❡♣rés❡♥té ♣❛r ❧❡s ❝♦❧♦♥♥❡s ❞❡ ❧❛ ♠❛tr✐❝❡ ❞✬❛❞❥❛❝❡♥❝❡✳ ▲❛ ❋✐❣✉r❡ ✶✳✶✵ ♠♦♥tr❡ ✉♥ ❣r❛♣❤❡ ❜✐♣❛rt✐ R❡① = (µ❡①, ARN❡①, I❡①) ❡t s❛ ♠❛tr✐❝❡ ❞✬❛❞✲ ❥❛❝❡♥❝❡ T❡① ❝♦rr❡s♣♦♥❞❛♥t❡ ❛✈❡❝ ✉♥ ❡♥s❡♠❜❧❡ ❞✬✐♥t❡r❛❝t✐♦♥s I❡① ❡♥tr❡ ✉♥ ❡♥s❡♠❜❧❡ µ❡① ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ✉♥ ❡♥s❡♠❜❧❡ ARN❡① ❞✬❆❘◆♠✳ ❖♥ ♣❡✉t ✈♦✐r q✉❡ ❧❛ ♠❛tr✐❝❡ ❞✬❛❞✲ ❥❛❝❡♥❝❡ T❡① ❞✉ ❣r❛♣❤❡ ❜✐♣❛rt✐ R❡① ♣rés❡♥té❡ ❋✐❣✉r❡ ✶✳✶✵ ❡st ✐❞❡♥t✐q✉❡ ❛✉ ❝♦♥t❡①t❡ ❢♦r♠❡❧ K❡① ♣rés❡♥té ❚❛❜❧❡❛✉ ✶✳✶✳ ▲❛ ♠❛tr✐❝❡ ❞✬❛❞❥❛❝❡♥❝❡ T❡① ♣❡✉t ❞♦♥❝ êtr❡ ♠♦❞é❧✐sé❡ ❝♦♠♠❡ ✉♥ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ♦ù ❧✬❡♥s❡♠❜❧❡ ❞❡s ♦❜❥❡ts ❝♦rr❡s♣♦♥❞ à ❧✬✉♥ ❞❡s ❞❡✉① ❡♥s❡♠❜❧❡s ❞❡ ♥÷✉❞s ✭✐❝✐ ❧✬❡♥s❡♠❜❧❡ µ❡① ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✮✱ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❛ttr✐❜✉ts ❝♦rr❡s♣♦♥❞ à ❧✬❛✉tr❡ ❡♥s❡♠❜❧❡ ❞❡ ♥÷✉❞s ✭✐❝✐ ❧✬❡♥s❡♠❜❧❡ ARN❡① ❞❡s ❆❘◆♠✮ ❡t ❧❛ r❡❧❛t✐♦♥ ❜✐♥❛✐r❡ ❡♥tr❡ ♦❜❥❡ts ❡t ❛ttr✐❜✉ts ❝♦rr❡s♣♦♥❞ à ❧✬❡♥s❡♠❜❧❡ ❞❡s ❛rêt❡s ❞✉ ❣r❛♣❤❡ ✭✐❝✐ ❧✬❡♥s❡♠❜❧❡ I❡① ❞❡s ✐♥t❡r❛❝t✐♦♥s ❡♥ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❆❘◆♠✮✳ ❊♥ t❤é♦r✐❡ ❞❡s ❣r❛♣❤❡s✱ ✉♥❡ ❝❧✐q✉❡ ❡st ✉♥ s♦✉s✲❡♥s❡♠❜❧❡ ❞❡ ♥÷✉❞s q✉✐ s♦♥t t♦✉s r❡❧✐és ❧❡s ✉♥s ❛✉① ❛✉tr❡s ♣❛r ❞❡s ❛rêt❡s✳ ❖♥ ❞✐t ❞✬✉♥❡ ❝❧✐q✉❡ q✉✬❡❧❧❡ ❡st ✭❞❡ t❛✐❧❧❡✮ ♠❛①✐♠❛❧❡ s✐ ❧✬♦♥ ♥❡ ♣❡✉t ❛❥♦✉t❡r ❛✉❝✉♥ ♥÷✉❞ à ❧❛ ❝❧✐q✉❡ ♣♦✉r ❢♦r♠❡r ✉♥❡ ❝❧✐q✉❡ ♣❧✉s ❣r❛♥❞❡✳ ▲❡s ❜✐❝❧✐q✉❡s s♦♥t ❞❡s ❡①t❡♥s✐♦♥s ❞❡ ❧❛ ♥♦t✐♦♥ ❞❡ ❝❧✐q✉❡ ❛❞❛♣té❡s ❛✉① ❣r❛♣❤❡s ❜✐♣❛rt✐s ✿ ❡❧❧❡s s♦♥t ❢♦r♠é❡s ❞❡ ❞❡✉① s♦✉s ❡♥s❡♠❜❧❡s ❞❡ ♥÷✉❞s r❡❧✐és ❡♥tr❡ ❡✉①✳ ▲❛ ❜✐❝❧✐q✉❡ ❡st ✭❞❡ t❛✐❧❧❡✮ ♠❛①✐♠❛❧❡ s✐ ♦♥ ♥❡ ♣❡✉t ❛❥♦✉t❡r ❛✉❝✉♥ ♥÷✉❞ s❛♥s ♣❡r❞r❡ ❝❡tt❡ ♣r♦♣r✐été✳ ❙✉r ❧❡s ♠❛tr✐❝❡s ❞✬❛❞❥❛❝❡♥❝❡s ❞❡ ❣r❛♣❤❡s ❜✐♣❛rt✐s✱ ✉♥❡ ❜✐❝❧✐q✉❡ ❡st r❡♣rés❡♥té❡ ♣❛r ✉♥ s♦✉s✲❡♥s❡♠❜❧❡ ❞❡ ❧✐❣♥❡s ❡t ✉♥ s♦✉s✲❡♥s❡♠❜❧❡ ❞❡ ❝♦❧♦♥♥❡s q✉✐ ❢♦r♠❡♥t ✉♥ r❡❝t❛♥❣❧❡ ❞❡ ✶✳ ❉❛♥s ❧❡ ❝❛s ❞❡s ❜✐❝❧✐q✉❡s ♠❛①✐♠❛❧❡s✱ ❝❡s r❡❝t❛♥❣❧❡s s♦♥t ❡✉① ❛✉ss✐ ♠❛①✐♠❛✉①✳ ❉❡ ❧❛ ♠ê♠❡ ❢❛ç♦♥ q✉❡ ❧❡s ♠❛tr✐❝❡s ❞✬❛❞❥❛❝❡♥❝❡s ❞❡ ❣r❛♣❤❡s ❜✐♣❛rt✐s s♦♥t ❞❡s ❝♦♥t❡①t❡s ❢♦r♠❡❧s✱ ❧❡s ❜✐❝❧✐q✉❡s ❞❡ t❛✐❧❧❡s ♠❛①✐♠❛❧❡s s♦♥t ❡♥ ❢❛✐t❡s ❞❡s ❝♦♥❝❡♣ts ❢♦r♠❡❧s✳ ✶✳✹✳✸ ▲✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❡♥ ❜✐♦✲✐♥❢♦r♠❛t✐q✉❡ ▲✬❆❈❋ ❡st ✉t✐❧✐sé❡ ♣♦✉r ❞❡ ♥♦♠❜r❡✉s❡s ❛♣♣❧✐❝❛t✐♦♥s q✉❡ ❝❡ s♦✐t ❡♥ ❢♦✉✐❧❧❡ ❞❡ ❞♦♥♥é❡s✱ ❢♦✉✐❧❧❡ ❞❡ t❡①t❡✱ ✇❡❜ sé♠❛♥t✐q✉❡ ♦✉ ❡♥❝♦r❡ ❡♥ ❜✐♦❧♦❣✐❡✳ ❈♦♥❝❡r♥❛♥t ❧❛ ❜✐♦❧♦❣✐❡✱ ❞❡s ♠ét❤♦❞❡s ♦♥t été ❞é✈❡❧♦♣♣é❡s ♣r✐♥❝✐♣❛❧❡♠❡♥t s✉r ❞❡s ♣✉❝❡s à ❆❉◆ ❬✽✺✱ ✽✻✱ ✽✼✱ ✽✽❪✳ ❉✬❛✉tr❡s ♠ét❤♦❞❡s ✉t✐❧✐s❡♥t ❛✉ss✐ ❧✬❆❈❋ ♣♦✉r ❝♦♠♣❧ét❡r ❞❡s rés❡❛✉① ❞❡ ré❣✉❧❛t✐♦♥ ❞❡ ❣è♥❡s à ❧✬❛✐❞❡ ❞❡ ❝✐♥ét✐q✉❡s ❞✬❡①♣r❡ss✐♦♥ ❬✽✾❪ ♦✉ ❡♥❝♦r❡ ♣♦✉r ❡①♣❧♦r❡r ❞❡s ❞é♣❡♥❞❛♥❝❡s t❡♠♣♦r❡❧❧❡s s✉r ❞❡s rés❡❛✉① ❜✐♦❧♦❣✐q✉❡s ❜♦♦❧é❡♥s ❬✾✵❪✳ ▼ê♠❡ s✐ ❧✬❆❈❋ ♣❡✉t s✬❛♣♣❛r❡♥t❡r à ❞✉ ❜✐❝❧✉st❡r✐♥❣✱ ❡❧❧❡ ❛ ❧✬❛✈❛♥t❛❣❡ ❞❡ ❣é♥ér❡r ❧✬❡♥s❡♠❜❧❡ ❞❡s r❡❣r♦✉♣❡♠❡♥ts ♣♦ss✐❜❧❡s ❜❛sés s✉r ❧❡ r❡❧❛t✐♦♥ ❜✐♥❛✐r❡ ❡♥tr❡ ♦❜❥❡ts ❡t ❛ttr✐❜✉ts ❡t ♥♦♥ ♣❛s ❝♦♠♠❡ ❧❛ ♣❧✉♣❛rt ❞❡s ♠ét❤♦❞❡s ❞❡ ❜✐❝❧✉st❡r✐♥❣ ✉♥ s❡✉❧ ♣❛rt✐t✐♦♥♥❡♠❡♥t ❞❡s ❞♦♥♥é❡s✱ ❝❤❡r❝❤❛♥t à ♦♣t✐♠✐s❡r ✉♥❡ ❝❡rt❛✐♥❡ ❢♦♥❝t✐♦♥ ♦❜❥❡❝t✐❢✳ ❈❡❝✐ ♣❡r♠❡t✱ ♣❛r ❡①❡♠♣❧❡✱ ❞✬❛✈♦✐r ❞❡s ❣è♥❡s✴❆❘◆♠ q✉✐ ❛♣♣❛rt✐❡♥♥❡♥t à ♣❧✉s✐❡✉rs ❣r♦✉♣❡s✱ ❧❡s ❝♦♥❝❡♣ts✱ ❞❛♥s ❧❡ ❝❛s ❞✬ét✉❞❡ ❞❡ ♣✉❝❡s à ❆❉◆✱ ❝❡ q✉✐ ♥✬❡st ♣❛s ♦❜t❡♥✉ ♣❛r ❞✉ ❜✐❝❧✉st❡r✐♥❣ ❝❧❛ss✐q✉❡ ♦ù ❝❤❛q✉❡ é❧é♠❡♥t ❛♣♣❛rt✐❡♥t à✷✽ ■♥tr♦❞✉❝t✐♦♥ µ1 µ2 µ3 µ4 µ5 a1 a2 a3 a4 a1 a2 a3 a4 µ1 ✶ ✶ µ2 ✶ ✶ µ3 ✶ ✶ µ4 ✶ ✶ µ5 ✶ ✶ ❋✐❣✳ ✶✳✶✵ ✕ ❊①❡♠♣❧❡✱ à ❣❛✉❝❤❡✱ ❞✬✉♥ ❣r❛♣❤❡ ❜✐♣❛rt✐ R❡① = (µ❡①, ARN❡①, I❡①) ❞✬✐♥t❡r❛❝✲ t✐♦♥s ❡♥tr❡ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✭µ❡① = {µ1..5}✮ ❡t ❞❡s ❆❘◆♠ ✭ARN❡① = {a1..4}✮ ❡t✱ à ❞r♦✐t❡✱ ❧❛ ♠❛tr✐❝❡ ❞✬❛❞❥❛❝❡♥❝❡ T❡① ❛ss♦❝✐é❡✳ ✉♥ ❡t ✉♥ s❡✉❧ ❣r♦✉♣❡✳ ❈❡❝✐ ♣❡r♠❡t ❞✬✐❞❡♥t✐✜❡r ❞❡s é❧é♠❡♥ts ✐♠♣❧✐q✉és ❞❛♥s ❞✐✛ér❡♥ts ♣r♦❝❡ss✉s✱ ❝❡ q✉✐ ❡st ❧❛ ❝❛s ❡♥ ❜✐♦❧♦❣✐❡✳ ❊♥ ♣❧✉s ❞❡ ❝❡ ❝❤❡✈❛✉❝❤❡♠❡♥t ❞❡ ❝♦♥❝❡♣ts✱ ❧❡✉r ❤✐ér❛r❝❤✐s❛t✐♦♥ ♣❛r ❧❡ tr❡✐❧❧✐s ♣❡r♠❡t ❞✬♦❜s❡r✈❡r ❞❡s ❡♥s❡♠❜❧❡s q✉✐ s❡r❛✐❡♥t ✓ ❣é♥ér✐q✉❡s ✔✱ ❝♦♠♠❡ ♣❛r ❡①❡♠♣❧❡ ❞❡s ❢❛❝t❡✉rs ❞❡ tr❛♥s❝r✐♣t✐♦♥ ✐♠♣❧✐q✉és ❞❛♥s ✉♥ ❣r❛♥❞ ♥♦♠❜r❡ ❞❡ ♣r♦❝❡ss✉s✱ ❡t ❞❡s ❡♥s❡♠❜❧❡s q✉✐ s❡r❛✐❡♥t s♣é❝✐✜q✉❡s ❞✬✉♥❡ ❝♦♥❞✐t✐♦♥✱ ❞❡s ❢❛❝t❡✉rs ❞❡ tr❛♥s❝r✐♣t✐♦♥ ✐♠♣❧✐q✉és ❞❛♥s très ♣❡✉ ❞❡ ♣r♦❝❡ss✉s ❜✐♦❧♦❣✐q✉❡s✳▲✬❆♥s✇❡r ❙❡t Pr♦❣r❛♠♠✐♥❣ ✷✾ ✶✳✺ ▲✬❆♥s✇❡r ❙❡t Pr♦❣r❛♠♠✐♥❣ ❉❛♥s ❧❛ t❤ès❡✱ ❞❡ ♥♦♠❜r❡✉① ❝♦❞❡s ♦♥t été é❝r✐ts ❡♥ ❧❛♥❣❛❣❡ ❆♥s✇❡r ❙❡t Pr♦❣r❛♠♠✐♥❣ ✭❆❙P✮ ❬✾✶✱ ✾✷❪ ❡t ✉t✐❧✐sés à ❧✬❛✐❞❡ ❞❡ ❧❛ s✉✐t❡ ❧♦❣✐❝✐❡❧❧❡ P♦t❛ss❝♦ ❬✾✸❪✳ ▲✬❆❙P ❡st ✉♥❡ ❢♦r♠❡ ❞❡ ♣r♦❣r❛♠♠❛t✐♦♥ ❧♦❣✐q✉❡ ♣❛r ❝♦♥tr❛✐♥t❡s ✐ss✉ ❞✉ ❞♦♠❛✐♥❡ ❞❡ ❧❛ r❡♣rés❡♥t❛t✐♦♥ ❞❡s ❝♦♥♥❛✐ss❛♥❝❡s ❡t q✉✐ ♣❡r♠❡t ❞❡ rés♦✉❞r❡ ✉♥ ♣r♦❜❧è♠❡ ♥♦♥ ♣❛s ❡♥ ❞é❝r✐✈❛♥t ❧❛ ❢❛ç♦♥ ❞❡ ❧❡ rés♦✉❞r❡✱ ❧✬❛❧❣♦r✐t❤♠✐q✉❡✱ ♠❛✐s ❡♥ ❞é❝r✐✈❛♥t ❧❛ s♣é❝✐✜❝❛t✐♦♥ ❞✉ ♣r♦❜❧è♠❡ à ❧✬❛✐❞❡ ❞❡ ❞é❝❧❛r❛t✐♦♥s ❧♦❣✐q✉❡s✳ ❯♥ ♠♦t❡✉r ❞❡ rés♦❧✉t✐♦♥ ✭s♦❧✈❡r✮ ✈❛ ❡♥s✉✐t❡ tr♦✉✈❡r ❧✬❡♥s❡♠❜❧❡ ❞❡s ♠♦❞è❧❡s q✉✐ s❛t✐s❢♦♥t ❧❡ ♣r♦❜❧è♠❡ ♣♦sé s❛♥s q✉❡ ❧✬♦♥ ❛✐t à s❡ ♣ré♦❝❝✉♣❡r ❞❡ ❧❛ ♠❛♥✐èr❡ ❞♦♥t ❧❡ s♦❧✈❡r ✈❛ tr♦✉✈❡r ❝❡s ♠♦❞è❧❡s✳ ❊♥ ♣❧✉s ❞❡ ❧✬é♥✉♠ér❛t✐♦♥ ❞❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ♠♦❞è❧❡s✱ ❝❡rt❛✐♥s s♦❧✈❡rs ❝♦♠♠❡ ❝❧❛s♣ ❬✾✹❪ ♣❡r♠❡tt❡♥t ❞✬♦❜t❡♥✐r ❧✬✐♥t❡rs❡❝t✐♦♥ ❞❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ♠♦❞è❧❡s✱ ❧❡✉r ✉♥✐♦♥ ♦✉ ❡♥❝♦r❡ ❞❡ tr♦✉✈❡r ❞❡s ♠♦❞è❧❡s ♠❛①✐♠❛✉① ♦✉ ♠✐♥✐♠❛✉① s✉✐✈❛♥t ❞❡s ❝r✐tèr❡s ❞é✜♥✐s ♣❛r ❧✬✉t✐❧✐s❛t❡✉r✳ ▲✬✐❞é❡ ❡st ❞❡ ❢♦r♠✉❧❡r ❧❛ ❝♦♥♥❛✐ss❛♥❝❡ ♣❛r ❞❡s ❢❛✐ts ❧♦❣✐q✉❡s ♣✉✐s ❞❡ r❛✐s♦♥♥❡r s✉r ❝❡s ❢❛✐ts ❧♦❣✐q✉❡s ❡♥ ❞é✜♥✐ss❛♥t ❞❡s ❡♥s❡♠❜❧❡s ❞❡ rè❣❧❡s ❡t ❞❡ ❝♦♥tr❛✐♥t❡s✳ ▲❡s rè❣❧❡s s♦♥t ❞❡ ❧❛ ❢♦r♠❡ ✿ t ✿− c1✱. . .✱cn✳ ♦ù t ❡st ❧✬❛t♦♠❡ ❞❡ ❧❛ têt❡ ❞❡ ❧❛ rè❣❧❡✱ c1, . . . , cn ❧❡s ❛t♦♠❡s ❞✉ ❝♦r♣s✳ ▲❡ s❡♥s ❞✬✉♥❡ rè❣❧❡ ✭sé♠❛♥t✐q✉❡✮ ❡st q✉❡ ❧✬❛t♦♠❡ ❞❡ têt❡ ❡st ♥é❝❡ss❛✐r❡♠❡♥t ✈r❛✐ s✐ t♦✉s ❝❡✉① ❞✉ ❝♦r♣s ❧❡ s♦♥t✳ ▲❡s ❝♦♥tr❛✐♥t❡s s♦♥t ❞❡ ❧❛ ❢♦r♠❡ ✿ ✿− c1✱. . .✱ cn✳ ❛✈❡❝ ❧❛ sé♠❛♥t✐q✉❡ q✉✬❛✉ ♠♦✐♥s ✉♥ ❞❡s ci ❞♦✐t êtr❡ ❢❛✉①✳ ❙✐♥♦♥ ❧❡ ♠♦❞è❧❡ ❡st ❢❛✉①✳ ❯♥ ❡①❡♠♣❧❡ ❞✬✉♥ ❝♦❞❡ ❆❙P ❡st ❞♦♥♥é ✭❋✐❣✉r❡ ✶✳✶✶✮ q✉✐ r❡♥✈♦✐❡ ❧❛ ♦✉ ❧❡s ♣❧✉s ❣r❛♥❞❡s ❜✐❝❧✐q✉❡s ♠❛①✐♠❛❧❡s ❞✉ ❣r❛♣❤❡ ❜✐♣❛rt✐ ♣rés❡♥té ❋✐❣✉r❡ ✶✳✶✵✳ ▲❡s ❛t♦♠❡s ❞❡s ❧✐❣♥❡s ✷ à ✻ r❡♣rés❡♥t❡♥t ❧❡s ❢❛✐ts✱ ✐❝✐ ❧✬❡♥s❡♠❜❧❡ ❞❡s ✐♥t❡r❛❝t✐♦♥s ❞✉ ❣r❛♣❤❡✳ ▲❡s ❧✐❣♥❡s ✶✶ ❡t ✶✸ ❞é✜♥✐ss❡♥t r❡s♣❡❝t✐✈❡♠❡♥t ❧❡s ♠✐❝r♦❆❘◆ ❡t ❧❡s ❆❘◆♠ ❞✉ ❣r❛♣❤❡ à ♣❛rt✐r ❞❡s ✐♥t❡r❛❝t✐♦♥s ✿ s✐ ✉♥ é❧é♠❡♥t ❡st ❞❛♥s ✉♥❡ ✐♥t❡r❛❝t✐♦♥ ❛❧♦rs ❝✬❡st ✉♥ ♥÷✉❞ ❞✉ ❣r❛♣❤❡✳ ▲❛ ❧✐❣♥❡ ✶✻ ♣❡r♠❡t ❞❡ ❝❤♦✐s✐r ❧❡s ♠✐❝r♦❆❘◆ ❞✉ ❣r❛♣❤❡ ❛♣♣❛rt❡♥❛♥t à ❧❛ ❜✐❝❧✐q✉❡ ♦ù ❝▼✐❝r♦✭❳✮ ❡st ✈r❛✐ s✐ ❳ ❛ été ❝❤♦✐s✐✳ ▲✬❡①♣r❡ss✐♦♥ ✿♠✐❝r♦✭❳✮ ♣❡r♠❡t ❞❡ ❞é✜♥✐r ❧❡ ❞♦♠❛✐♥❡ s✉r ❧❡q✉❡❧ ❝▼✐❝r♦✭❳✮ ❡st ❞é✜♥✐✳ ▲❛ ❧✐❣♥❡ ✶✼ ❞é✜♥✐t ❧❛ ♠ê♠❡ ❝❤♦s❡ ♠❛✐s ♣♦✉r ❧❡s ❆❘◆♠✳ ▲❛ ❧✐❣♥❡ ✷✸ ❞é✜♥✐t ❧❡s ♠✐❝r♦❆❘◆ ✐♠♣♦ss✐❜❧❡✱ ❝✬❡st✲à✲❞✐r❡ ❧❡s ♠✐❝r♦❆❘◆ q✉✐ ♥❡ ♣❡✉✈❡♥t ♣❛s ❢❛✐r❡ ♣❛rt✐❡ ❞❡ ❧❛ ❜✐❝❧✐q✉❡ ❝❛r ✐❧s ♥❡ ♣♦ssè❞❡♥t ♣❛s ❞✬✐♥t❡r❛❝t✐♦♥ ♣♦✉r ❛✉ ♠♦✐♥s ✉♥ ❆❘◆♠ ❝❤♦✐s✐✳ ▲❛ ❧✐❣♥❡ ✷✹ ❞é✜♥✐t ❧❛ ♠ê♠❡ ❝❤♦s❡ ♣♦✉r ❧❡s ❆❘◆♠✳ ▲❛ ❧✐❣♥❡ ✷✽ ❡st ❧❛ ❝♦♥tr❛✐♥t❡ s✉r ❧❡s ✐♥t❡r❛❝t✐♦♥s ❛✉ s❡✐♥ ❞❡ ❧❛ ❜✐❝❧✐q✉❡ ✿ ❧❡ ♠♦❞è❧❡ ❡st r❡❥❡té s✐ ♦♥ ❛ ❝❤♦✐s✐ ❧❡ ♠✐❝r♦❆❘◆ ❳ ❡t ❧✬❆❘◆♠ ❨ ❡t q✉✬✐❧ ♥✬② ❛ ♣❛s ❞✬✐♥t❡r❛❝t✐♦♥ ❡♥tr❡ ❳ ❡t ❨✳ ▲❛ ❧✐❣♥❡ ✸✹ ❡st ❧❛ ❝♦♥tr❛✐♥t❡ s✉r ❧❛ ♠❛①✐♠❛❧✐té ❞❡ ❧❛ ❜✐❝❧✐q✉❡ ✿ ❧❡ ♠♦❞è❧❡ ❡st ❢❛✉① s✐ ✉♥ ♠✐❝r♦❆❘◆ ♣♦ssè❞❡ ✉♥❡ ✐♥t❡r❛❝t✐♦♥ ❛✈❡❝ t♦✉s ❧❡s ❆❘◆♠ ❞❡ ❧❛ ❜✐❝❧✐q✉❡ ♠❛✐s ♥✬❡♥ ❢❛✐t ♣❛s ♣❛rt✐❡✳ ▲❛ ❧✐❣♥❡ ✸✺ ❡st ❧❛ ♠ê♠❡ ❝♦♥tr❛✐♥t❡ s✉r ❧❡s ❆❘◆♠✳ ❋✐♥❛❧❡♠❡♥t✱ ❧❛ ❧✐❣♥❡ ✸✾ ♣❡r♠❡t ❞✬♦❜t❡♥✐r ❧❛ ♦✉ ❧❡s ♣❧✉s ❣r❛♥❞❡s ❜✐❝❧✐q✉❡s ♠❛①✐♠❛❧❡s ✿ ❧❡s ♠♦❞è❧❡s q✉✐ ♠❛①✐♠✐s❡♥t ❧❡ ♥♦♠❜r❡ ❞❡ ♠✐❝r♦❆❘◆ ❡t ❞✬❆❘◆♠ ❝❤♦✐s✐s✳ ➚ ♥♦t❡r q✉❡ ♣♦✉r ❛✈♦✐r ❧✬❡♥s❡♠❜❧❡ ❞❡s ❜✐❝❧✐q✉❡s ♠❛①✐♠❛❧❡s✱ ❡t ♥♦♥ ♣❧✉s ✉♥✐q✉❡♠❡♥t ❝❡❧❧❡s ❞❡ ♣❧✉s ❣r❛♥❞❡s t❛✐❧❧❡s✱ ✐❧ s✉✣t ❞✬❡♥❧❡✈❡r ❧❛ ❧✐❣♥❡ ✸✾✳✸✵ ■♥tr♦❞✉❝t✐♦♥ ✶ ✪ ❉é ❢ ✐ ♥ ✐ t ✐ ♦ ♥ ❞❡ s ❢ ❛ ✐ t s ✿ ❧ ❡ s ✐ ♥ t ❡ r ❛ ❝ t ✐ ♦ ♥ s ❞✉ r é s❡❛✉ ✷ ✐ ♥ t ❡ r ✭✧♠✉✶✧ ✱✧ ❛✶ ✧ ✮ ✳ ✐ ♥ t ❡ r ✭✧♠✉✶✧ ✱✧ ❛✷ ✧ ✮ ✳ ✸ ✐ ♥ t ❡ r ✭✧♠✉✷✧ ✱✧ ❛✶ ✧ ✮ ✳ ✐ ♥ t ❡ r ✭✧♠✉✷✧ ✱✧ ❛✷ ✧ ✮ ✳ ✹ ✐ ♥ t ❡ r ✭✧♠✉✸✧ ✱✧ ❛✶ ✧ ✮ ✳ ✐ ♥ t ❡ r ✭✧♠✉✸✧ ✱✧ ❛✷ ✧ ✮ ✳ ✺ ✐ ♥ t ❡ r ✭✧♠✉✹✧ ✱✧ ❛✸ ✧ ✮ ✳ ✐ ♥ t ❡ r ✭✧♠✉✹✧ ✱✧ ❛✹ ✧ ✮ ✳ ✻ ✐ ♥ t ❡ r ✭✧♠✉✺✧ ✱✧ ❛✸ ✧ ✮ ✳ ✐ ♥ t ❡ r ✭✧♠✉✺✧ ✱✧ ❛✹ ✧ ✮ ✳ ✼ ✽ ✪ ❳ ❡ s t ✉♥ ♠✐❝r♦❆❘◆ ♦✉ ✉♥ ❆❘◆♠ ❞✉ r é s❡❛✉ ✾ ✪ s ✐ ✐ ❧ ❡ s t ❞❛♥s ✉♥❡ ✐ ♥ t ❡ r ❛ ❝ t ✐ ♦ ♥ ✶✵ ✪ P♦✉r ❧ ❡ s ♠✐❝r♦❆❘◆ ✶✶ ♠✐❝r♦ ✭❳✮ ✿− ✐ ♥ t ❡ r ✭❳✱❴✮ ✳ ✶✷ ✪ P♦✉r ❧ ❡ s ❆❘◆♠ ✶✸ ❛r♥ ✭❳✮ ✿− ✐ ♥ t ❡ r ✭❴✱❳ ✮ ✳ ✶✹ ✶✺ ✪ ❖♥ ❝ ❤ ♦ ✐ s ✐ t ❛✉ ♠♦✐♥s ✶ é ❧ é♠❡♥t ❞❛♥s ❝❤❛❝✉♥ ❞❡ s ❡♥ s❡♠❜❧❡ s ✶✻ ✶④ ❝▼✐❝r♦ ✭❳ ✮ ✿ ♠✐❝r♦ ✭❳✮ ⑥ ✳ ✶✼ ✶④ ❝❆r♥ ✭❳ ✮ ✿ ❛r♥ ✭❳✮ ⑥ ✳ ✶✽ ✶✾ ✪ ▲❡ ♠✐❝r♦❆❘◆ ❳ ❡ s t ❝♦ ♥ s✐ ❞ é r é ❝♦♠♠❡ ♥❡ ♣♦✉✈❛♥t ♣❛s ✷✵ ✪ ❢ ❛ ✐ r ❡ ♣ ❛ r t ✐ ❡ ❞❡ ❧ ❛ ❜ ✐ ❝ ❧ ✐ q ✉ ❡ ✭ ✐♠♣ ✮ s ✐ ✐ ❧ ♥❡ ♣♦ s s è ❞❡♥t ✷✶ ✪ ♣❛s ✉♥❡ ✐ ♥ t ❡ r ❛ ❝ t ✐ ♦ ♥ ❛✈❡❝ t♦ ✉ s ❧ ❡ s ❆❘◆♠ ❞❡ ❧ ❛ ❜ ✐ ❝ ❧ ✐ q ✉ ❡ ✷✷ ✪ P ❛ r ❡ ✐ ❧ ♣♦✉r ❧ ❡ s ❆❘◆♠ ✷✸ ✐♠♣▼✐❝r♦ ✭❳✮ ✿− ♠✐❝r♦ ✭❳✮ ✱ ❝❆r♥ ✭❨✮ ✱ ♥♦t ✐ ♥ t ❡ r ✭❳✱❨ ✮ ✳ ✷✹ ✐♠♣❆r♥ ✭❨✮ ✿− ❝▼✐❝r♦ ✭❳✮ ✱ ❛r♥ ✭❨✮ ✱ ♥♦t ✐ ♥ t ❡ r ✭❳✱❨ ✮ ✳ ✷✺ ✷✻ ✪ P♦✉r ❛ ✈ ♦✐ r ✉♥❡ ❜ ✐ ❝ ❧ ✐ q ✉ ❡ ✱ ♦♥ ♥❡ ♣❡✉t ♣❛s ❛ ✈ ♦✐ r ❝ ❤ ♦ ✐ s ✐ ✷✼ ✪ ❞❡✉① ♥÷✉❞ ❳ ❡ t ❨ ❡ t q✉ ✬ ✐ ❧ s ♥❡ s ♦ ✐ ❡ ♥ t ♣❛s ❡♥ ✐ ♥ t ❡ r ❛ ❝ t ✐ ♦ ♥ ✷✽ ✿− ❝▼✐❝r♦ ✭❳✮ ✱ ❝❆r♥ ✭❨✮ ✱ ♥♦t ✐ ♥ t ❡ r ✭❳✱❨ ✮ ✳ ✷✾ ✸✵ ✪ P♦✉r q✉❡ ❧ ❛ ❜ ✐ ❝ ❧ ✐ q ✉ ❡ s ♦ ✐ t ♠❛①✐♠❛❧❡ ✱ t♦ ✉ t ❧ ❡ s ✸✶ ✪ ♠✐❝r♦❆❘◆ q✉✐ ♥❡ s♦ ♥ t ♣❛s ✐♠ ♣ ♦ s s✐ ❜❧ ❡ ❞♦✐ ✈ ❡ ♥ t ✸✷ ✪ ❢ ❛ ✐ r ❡ ♣ ❛ r t ✐ ❡ ❞❡ ❧ ❛ ❜ ✐ ❝ ❧ ✐ q ✉ ❡ ✸✸ ✪ P ❛ r ❡ ✐ ❧ ♣♦✉r ❧ ❡ s ❆❘◆♠ ✸✹ ✿− ♠✐❝r♦ ✭❳✮ ✱ ♥♦t ✐♠♣▼✐❝r♦ ✭❳✮ ✱ ♥♦t ❝▼✐❝r♦ ✭❳ ✮ ✳ ✸✺ ✿− ❛r♥ ✭❨✮ ✱ ♥♦t ✐♠♣❆r♥ ✭❨✮ ✱ ♥♦t ❝❆r♥ ✭❨ ✮ ✳ ✸✻ ✸✼ ✪ ▲❛ ♦✉ ❧ ❡ s ♣❧ ✉ s ❣ r❛♥❞❡ s ❜ ✐ ❝ ❧ ✐ q ✉ ❡ s ♠❛①✐♠❛❧❡s s♦ ♥ t ❧ ❡ s ✸✽ ✪ ❜ ✐ ❝ ❧ ✐ q ✉ ❡ s ❛✈❡❝ ❧ ❡ ♥♦♠❜r❡ ♠❛①✐♠✉♠ ❞❡ ♠✐❝r♦❆❘◆ ❡ t ❆❘◆♠ ✸✾ ★♠❛①✐♠✐③❡ ④ ❝▼✐❝r♦ ✭❳✮ ✱ ❝❆r♥ ✭❨✮ ⑥ ✳ ❋✐❣✳ ✶✳✶✶ ✕ ❊①❡♠♣❧❡ ❞✬✉♥ ❝♦❞❡ ❆❙P ♣❡r♠❡tt❛♥t ❞❡ tr♦✉✈❡r ❧❛ ❜✐❝❧✐q✉❡ ♠❛①✐♠❛❧❡ s✉r ❧❡ rés❡❛✉ ❋✐❣✉r❡ ✶✳✶✵✳ ▲❡s ❝♦♠♠❡♥t❛✐r❡s s♦♥t ♣ré❝é❞és ♣❛r ❧❡ ❝❛r❛❝tèr❡ ✪✳❊♥ rés✉♠é ✸✶ ✶✳✻ ❊♥ rés✉♠é ■❧ ❛ été ♠✐s ❡♥ é✈✐❞❡♥❝❡ ❞❛♥s ❝❡tt❡ ✐♥tr♦❞✉❝t✐♦♥ ❧✬✐♥✢✉❡♥❝❡ ♣♦t❡♥t✐❡❧❧❡ ❞❡s ♠✐❝r♦❆❘◆ s✉r ❧✬❡①♣r❡ss✐♦♥ ❞❡s ❆❘◆♠ ❡t ❧❡✉r ♣r♦❜❛❜❧❡ ✐♠♣❧✐❝❛t✐♦♥ ❞❛♥s ❧❛ ♣❧❛st✐❝✐té ❞✉ ♠♦❞❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠✳ ▲❛ t❤ès❡ ❝❤❡r❝❤❡ à ❞✐s❝r✐♠✐♥❡r ❛✉ ♥✐✈❡❛✉ ❣é♥♦♠✐q✉❡ ❡♥tr❡ ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞✬❡♠❜r②♦♥s ✈❡rs ✉♥ ♠♦❞❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ s❡①✉é ❡t ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ✈❡rs ✉♥ ♠♦❞❡ ❛s❡①✉é✳ ❈❡tt❡ ❞✐s❝r✐♠✐♥❛t✐♦♥ ♣❛ss❡ ♣❛r ❧❛ ❝ré❛t✐♦♥ ❞✉ rés❡❛✉ ❞❡ ré❣✉❧❛t✐♦♥ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ❞❡s ♠✐❝r♦❆❘◆ ❡t ❞❡s ❆❘◆♠ q✉✐ ♣♦ssè❞❡♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✬❡①♣r❡ss✐♦♥ ❞✐✛ér❡♥t❡s ❡♥tr❡ ❝❡s ❞❡✉① ❡♠❜r②♦❣❡♥ès❡s ❡t ❧✬❛♥❛❧②s❡ ❞❡s ♠♦❞✉❧❡s ❞✬✐♥t❡r❛❝t✐♦♥s ❞❡ ❝❡ rés❡❛✉ ♣❛r ❧✬✉t✐❧✐s❛t✐♦♥ ❞❡ ❧✬❆❈❋✳ P♦✉r ❝❡ ❢❛✐r❡✱ ✉♥❡ str❛té❣✐❡ ❡♥ ❝✐♥q ét❛♣❡s ❛ été ♠✐s❡ ❡♥ ♣❧❛❝❡ ✿ ✶✳ ❈ré❛t✐♦♥ ❞✬✉♥ ❝❛t❛❧♦❣✉❡ à ❥♦✉r ❞❡s ♠✐❝r♦❆❘◆ ❝❤❡③ ❆✳ ♣✐s✉♠ à ❧✬❛✐❞❡ ❞❡ ❞♦♥♥é❡s ❞❡ séq✉❡♥ç❛❣❡ ❤❛✉t✲❞é❜✐t ✭❈❤❛♣✐tr❡ ✷✮ ❀ ✷✳ ❈ré❛t✐♦♥ ❞✬✉♥ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ❡♥tr❡ ❧❡s ♠✐❝r♦❆❘◆ ♣ré❞✐ts ♣ré❝é❞❡♠♠❡♥t ❡t ❧❡s ❆❘◆♠ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ✭❈❤❛♣✐tr❡ ✷✮ ❀ ✸✳ ❊①tr❛❝t✐♦♥ ❡t ré❞✉❝t✐♦♥ ❞✉ rés❡❛✉ ❛✉① ♠✐❝r♦❆❘◆ ❡t ❆❘◆♠ q✉✐ ♣♦ssè❞❡♥t ❞❡s ❝✐✲ ♥ét✐q✉❡s ❞✐✛ér❡♥t❡s ❡♥tr❡ ❧❡s ❞❡✉① ❡♠❜r②♦❣❡♥ès❡s à ♣❛rt✐r ❞❡s ❞♦♥♥é❡s ❞✬❡①♣r❡ss✐♦♥ t✐ré❡s ❞✉ séq✉❡♥ç❛❣❡ ❤❛✉t✲❞é❜✐t ✭❈❤❛♣✐tr❡ ✸✮ ❀ ✹✳ ▲✬✉t✐❧✐s❛t✐♦♥ ❞❡ ❧✬❆❈❋ ❞❛♥s ❧❡ ❝❛❞r❡ ❞❡ ❧✬ét✉❞❡ ❞❡ rés❡❛✉① ❜✐♣❛rt✐s ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❛♣♣❧✐q✉é❡ à ❆✳ ♣✐s✉♠ ✭❈❤❛♣✐tr❡ ✹✮ ❀ ✺✳ ❆♥❛❧②s❡ ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ré❞✉✐t ❛✉① é❧é♠❡♥ts ❞✬✐♥térêt ♣❛r ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ✭❈❤❛♣✐tr❡ ✺✮✳ ▲✬ét✉❞❡ ❞✉ rés❡❛✉ ♥♦✉s ❞♦♥♥❡r❛ ❞❡s ♣✐st❡s ♣♦✉r ❧❛ ✈❛❧✐❞❛t✐♦♥ ❞❡s ✐♥t❡r❛❝t✐♦♥s ♠✐✲ ❝r♦❆❘◆✴❆❘◆♠ ♣ré❞✐t❡s ❡t ♣♦✉r ❞❡s ❡①♣ér✐❡♥❝❡s ♣♦✉✈❛♥t ✈❡♥✐r ❡♥r✐❝❤✐r ❧❡ rés❡❛✉✳ ❉❡ ♣❧✉s✱ t♦✉t❡s ❝❡s ét✉❞❡s ♥♦✉s ♣❡r♠❡ttr♦♥t ❞❡ ♣♦✉✈♦✐r ❢♦r♠✉❧❡r ❞❡s ❤②♣♦t❤ès❡s q✉❛♥t à ❧❛ ❞✐✛ér❡♥❝✐❛t✐♦♥ ❞✉ ♠♦❞❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❝❤❡③ ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✳✸✷ ■♥tr♦❞✉❝t✐♦♥❈❤❛♣✐tr❡ ✷ ❈❛t❛❧♦❣✉❡s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ➚ ❧✬♦❝❝❛s✐♦♥ ❞❡ ❧❛ ♣✉❜❧✐❝❛t✐♦♥ ❞✉ ❣é♥♦♠❡ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ❡♥ ✷✵✶✵✱ ✉♥❡ ♣r❡♠✐èr❡ ✈❡rs✐♦♥ ❞❡s ❝❛t❛❧♦❣✉❡s ❞❡s ❣è♥❡s✱ ❞❡s tr❛♥s❝r✐ts ❞✬❆❘◆♠ ❡t ❞❡ ♠✐❝r♦❆❘◆ ❛ été ♣✉❜❧✐é ❬✶✺✱ ✽✶❪✳ ❉❡♣✉✐s✱ ✉♥❡ ♥♦✉✈❡❧❧❡ ✈❡rs✐♦♥ ❞✉ ❣é♥♦♠❡ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❡st ❞✐s♣♦♥✐❜❧❡ ✭✈✷✳✶ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ▲❙❘✶✮ ❡t ❛ ♥é❝❡ss✐té q✉❡ ♥♦✉s ♠❡tt✐♦♥s à ❥♦✉r ❧❛ ❞❡s❝r✐♣t✐♦♥ à ❧❛ ❢♦✐s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆✳ ❈❡ ❝❤❛♣✐tr❡ ♣rés❡♥t❡ ❜r✐è✲ ✈❡♠❡♥t ❧❡ ❝❛t❛❧♦❣✉❡ ❞❡s ❆❘◆♠ ❡t ❞ét❛✐❧❧❡ ❧❡ ❝❛t❛❧♦❣✉❡ ❞❡s ❣è♥❡s ❝♦❞❛♥t ❧❡s ♠✐❝r♦❆❘◆✳ ❉❡ ♣❧✉s✱ ❝❡tt❡ ♣❛rt✐❡ ♣rés❡♥t❡ ♣♦✉r ❧❛ ♣r❡♠✐èr❡ ❢♦✐s ❧❡ ❝❛t❛❧♦❣✉❡ ❞❡s ✐♥t❡r❛❝t✐♦♥s ♣ré❞✐t❡s ❡♥tr❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t tr❛♥s❝r✐ts ❞✬❆❘◆♠✳ ✸✸✸✹ ❈❛t❛❧♦❣✉❡s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ✷✳✶ ▼❛tér✐❡❧s ❡t ♠ét❤♦❞❡s ✿ ❡①tr❛❝t✐♦♥✱ séq✉❡♥ç❛❣❡ ❡t ❛♥❛✲ ❧②s❡ ❞❡s ❧♦♥❣s ❡t ♣❡t✐ts ❆❘◆ ✷✳✶✳✶ ❉❡s❝r✐♣t✐♦♥ ❞❡s ❆❘◆♠ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ▲✬❛♥♥♦t❛t✐♦♥ ❞✉ ❣é♥♦♠❡ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❛ ❝♦♥❞✉✐t à ✉♥ ❈❛t❛❧♦❣✉❡ ❖✣❝✐❡❧ ❞❡s ●è♥❡s ✭❖✣❝✐❛❧ ●❡♥❡ ❙❡t✮ ❞♦♥t ♥♦✉s r❡♣r❡♥♦♥s ❧❛ ♥♦♠❡♥❝❧❛t✉r❡ ❡t à ♣❛rt✐r ❞✉q✉❡❧ ♥♦✉s ❜❛s♦♥s ❧❡ ❝❛t❛❧♦❣✉❡ ❞❡s ❆❘◆♠ ❬✶✺❪✳ ▲❛ ♣r❡♠✐èr❡ ✈❡rs✐♦♥ ❞✉ ❣é♥♦♠❡ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❛ été ❛ss❡♠❜❧é❡✱ ❛♥♥♦té❡ ❡t ❞é❝r✐t❡ ✉♥❡ ♣r❡♠✐èr❡ ❢♦✐s ❡♥ ✷✵✶✵ ♣❛r ❚❤❡ ■♥t❡r♥❛t✐♦♥❛❧ ❆♣❤✐❞ ●❡♥♦♠✐❝s ❈♦♥s♦rt✐✉♠ ❬✶✺❪✳ ❉❡♣✉✐s✱ ❧✬❛ss❡♠❜❧❛❣❡ ❡t ❧✬❡♥s❡♠❜❧❡ ❞❡s ❛♥♥♦t❛t✐♦♥s ♦♥t été ❛♠é❧✐♦rés ❛✜♥ ❞❡ ❢♦✉r♥✐r ✉♥❡ s❡❝♦♥❞❡ ✈❡rs✐♦♥ ❞❡ ❝❡ ❣é♥♦♠❡ ✭✈✷✶ ❬✼✽❪✮✳ ❈❡ tr❛✈❛✐❧ ✉t✐❧✐s❡ ❝❡tt❡ ❛♥♥♦t❛t✐♦♥✳ ❊♥ rés✉♠é✱ ❧✬❛♥♥♦t❛t✐♦♥ ❞❡ ❧❛ ♠❛❥♦r✐té ❞❡s ❣è♥❡s ❝♦❞❛♥t ♣♦✉r ❞❡s ♣r♦té✐♥❡s ❛ été é❧❛❜♦ré❡ ❡♥ ✉t✐❧✐s❛♥t ❧❡ ❝♦♥s❡♥s✉s ❞❡ ❞✐✛ér❡♥ts ♠♦❞è❧❡s ❞❡ ♣ré❞✐❝t✐♦♥ ❞❡ ❣è♥❡s✳ ❈❡s ♠♦❞è❧❡s ❞❡ ♣ré❞✐❝t✐♦♥ ❝❡ s♦♥t ❜❛sés s✉r ❞❡s ❣è♥❡s q✉✐ ét❛✐❡♥t ❞é❥à t♦t❛❧❡♠❡♥t séq✉❡♥❝és ♦✉ ❞❡s ❣è♥❡s ♣❛rt✐❡❧❧❡♠❡♥t séq✉❡♥❝és ♣♦✉r ❧❡sq✉❡❧s ✐❧ ② ❛✈❛✐t ❞❡s séq✉❡♥❝❡s ❡①♣r✐♠é❡s ✭❡①♣r❡ss❡❞ s❡q✉❡♥❝❡ t❛❣✱ ❊❙❚✮ ❝❤❡③ ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✳ ❉✉ séq✉❡♥ç❛❣❡ ❤❛✉t ❞é❜✐t ❞❡ ❧♦♥❣s ❆❘◆ ✭❘◆❆✲❙❡q✮ ❛ ❛✉ss✐ été ✉t✐❧✐sé ♣r♦✈❡♥❛♥t ❞❡ ❜❛♥q✉❡s ❞✐✛ér❡♥t❡s✳ ❈❡s ♠♦❞è❧❡s ♦♥t ♣ré❞✐t ✉♥ ❡♥s❡♠❜❧❡ ❞❡ ✸✻✳✾✾✵ tr❛♥s❝r✐ts ❡t ✸✻✳✾✼✸ ❣è♥❡s ♣♦✉r ❧✬❡♥✲ s❡♠❜❧❡ ❞✉ ❣é♥♦♠❡ ❞✬✉♥❡ t❛✐❧❧❡ ❞❡ ✺✹✶✱✻✾ ▼❜✳ ▲✬ét✉❞❡ ❞❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❣è♥❡s ❝♦❞❛♥t ♣♦✉r ❞❡s ♣r♦té✐♥❡s ❛ ♠✐s ❡♥ é✈✐❞❡♥❝❡ ❧✬❡①♣❛♥s✐♦♥ ❞✬✉♥ ❣r❛♥❞ ♥♦♠❜r❡ ❞❡ ❢❛♠✐❧❧❡s ❞❡ ❣è♥❡s ❡t ♥♦t❛♠♠❡♥t ❞❡s ❣è♥❡s ✐♠♣❧✐q✉és ❞❛♥s ❧❛ s②♥t❤ès❡ ❡t ❧✬❛❝t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆✳ ▲❡ ♥♦♠❜r❡ ❞❡ ❢❛♠✐❧❧❡s ❞❡ ❣è♥❡s ❞✉♣❧✐q✉és s✬é❧❡✈❛✐t à ✷✳✹✺✾ ♣♦✉r ❧❛ ♣r❡♠✐èr❡ ✈❡rs✐♦♥ ❞❡ ❧✬❛♥♥♦t❛t✐♦♥ ❞✉ ❣é♥♦♠❡ ❬✶✺✱ ✾✺❪✳ ❆♥♥♦t❛t✐♦♥s ❢♦♥❝t✐♦♥♥❡❧❧❡s ❞❡s ❆❘◆♠ ▲✬❛♥♥♦t❛t✐♦♥ ❢♦♥❝t✐♦♥♥❡❧❧❡ ♣❛r ❧❡s t❡r♠❡s ❞❡ ❧❛ ●❡♥❡ ❖♥t♦❧♦❣② ✭●❖✮ ❞❡s tr❛♥s❝r✐ts ❞✬❆❘◆♠ ❛ été ré❛❧✐sé❡ ❞❛♥s ❧✬éq✉✐♣❡ ➱❝♦❧♦❣✐❡ ❡t ●é♥ét✐q✉❡ ❞❡s ■♥s❡❝t❡s à ❧✬■●❊PP ♣❛r ❋❛❜r✐❝❡ ▲❡❣❡❛✐ ❡t ❆♥t❤♦♥② ❇r❡t❛✉❞❡❛✉ à ❧✬❛✐❞❡ ❞✉ ❧♦❣✐❝✐❡❧ ❇❧❛st✷●❖ q✉✐ ♣❡r♠❡t ❞✬❛♥♥♦✲ t❡r ♣❛r ❞❡s t❡r♠❡s ●❖ ✉♥ ❡♥s❡♠❜❧❡ ❞❡ ❣è♥❡s ♦✉ ❞❡ tr❛♥s❝r✐ts ❡♥ r❡♣ér❛♥t ♣❛r ❤♦♠♦❧♦❣✐❡ ❞❡s séq✉❡♥❝❡s ❡t ❞❡s ❞♦♠❛✐♥❡s ♣r♦té✐q✉❡s ❝♦♥♥✉s✳ P♦✉r ❧❛ r❡❝❤❡r❝❤❡ ❞❡ séq✉❡♥❝❡s s✐♠✐✲ ❧❛✐r❡s ♣❛r ❇▲❆❙❚✱ s❡✉❧❡s ❧❡s ✹✵ ♠❡✐❧❧❡✉rs séq✉❡♥❝❡s ❛✈❡❝ ✉♥❡ ❊✲✈❛❧✉❡ ✐♥❢ér✐❡✉r❡ ♦✉ é❣❛❧❡ ❛✉ s❡✉✐❧ ❞❡ ✶✵✲✽ ♦♥t été ❣❛r❞é❡s✳ ❯♥❡ ♣ré❞✐❝t✐♦♥ ❞❡ ❞♦♠❛✐♥❡s ♣r♦té✐q✉❡s ❛ été ♦❜t❡♥✉❡ ❛✈❡❝ ■♥t❡rPr♦❙❝❛♥ ❛✜♥ ❞✬❡♥r✐❝❤✐r ❧✬❛♥♥♦t❛t✐♦♥ ❢♦♥❝t✐♦♥♥❡❧❧❡ ♦❜t❡♥✉❡ ♣❛r ❇❧❛st✷●❖✳ ▲❡ ❚❛❜❧❡❛✉ ✷✳✶ ♣rés❡♥t❡ ❧❡ ♥♦♠❜r❡ ❞❡ tr❛♥s❝r✐ts ❞✬❆❘◆♠ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ♣♦ssé❞❛♥t ✉♥❡ ♦✉ ♣❧✉s✐❡✉rs séq✉❡♥❝❡s ❤♦♠♦❧♦❣✉❡s✱ ❧❡ ♥♦♠❜r❡ ❞❡ tr❛♥s❝r✐ts ❛✈❡❝ ✉♥ ❞♦♠❛✐♥❡ ♣r♦✲ té✐q✉❡ ❡t ❧❡ ♥♦♠❜r❡ ❞❡ tr❛♥s❝r✐ts ♣♦✉r ❧❡sq✉❡❧s ✉♥❡ ❛♥♥♦t❛t✐♦♥ ❢♦♥❝t✐♦♥♥❡❧❧❡ ●❖ ❛ ♣✉ êtr❡ ♦❜t❡♥✉❡ ♣❛r ❇❧❛st✷●❖✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ✸✻✳✾✾✵ tr❛♥s❝r✐ts✱ ✶✵✳✵✻✷ ♦♥t ♣✉ êtr❡ ❛♥♥♦tés ❢♦♥❝t✐♦♥♥❡❧❧❡♠❡♥t ♣❛r ✹✶✳✵✸✶ ❛♥♥♦t❛t✐♦♥ ●❖✱ s♦✐t à ❧✬❛✐❞❡ ❞❡ séq✉❡♥❝❡s ❤♦♠♦❧♦❣✉❡s ✭✸✶✳✶✺✶ ♣r♦té✐♥❡s ❛✈❡❝ ❞❡s séq✉❡♥❝❡s ❤♦♠♦❧♦❣✉❡s ♦❜t❡♥✉❡s ♣❛r ❇▲❆❙❚P✮✱ s♦✐t à ❧✬❛✐❞❡ ❞❡ ❧✬✐❞❡♥t✐✜❝❛t✐♦♥ ❞❡ ❞♦♠❛✐♥❡s ♣r♦té✐q✉❡s ✭✷✽✳✾✹✺ ♣r♦té✐♥❡s ❛✈❡❝ ❞❡s ❞♦♠❛✐♥❡s ♣r♦té✐q✉❡s ❛♥♥♦tés ❢♦♥❝t✐♦♥✲ ♥❡❧❧❡♠❡♥t à ❧✬❛✐❞❡ ■♥t❡rPr♦❙❝❛♥✮✳ ✶ ❤tt♣✿✴✴✇✇✇✳❛♣❤✐❞❜❛s❡✳❝♦♠✴❊①tr❛❝t✐♦♥✱ séq✉❡♥ç❛❣❡ ❡t ❛♥❛❧②s❡ ❞❡s ❧♦♥❣s ❡t ♣❡t✐ts ❆❘◆ ✸✺ ❚②♣❡ ◆♦♠❜r❡ P♦✉r❝❡♥t❛❣❡ ❚♦t❛❧ ✸✻✳✾✾✵ ✶✵✵ ✪ ❆✈❡❝ ✉♥ ❤♦♠♦❧♦❣✉❡ ♣❛r ❇▲❆❙❚P ✸✶✳✶✺✶ ✽✹ ✪ ❆✈❡❝ ✉♥ ❞♦♠❛✐♥❡ ♣r♦té✐q✉❡ ♣❛r ■♥t❡rPr♦❙❝❛♥ ✷✽✳✾✹✺ ✼✽ ✪ ❆✈❡❝ ✉♥❡ ❛♥♥♦t❛t✐♦♥ ❢♦♥❝t✐♦♥♥❡❧❧❡ ●❖ ✶✵✳✵✻✷ ✷✼ ✪ ❚❛❜❧❡❛✉ ✷✳✶ ✕ ❆♥♥♦t❛t✐♦♥ ❞❡s ❣è♥❡s ❝♦❞❛♥t ❞❡s ❆❘◆♠ ❞❛♥s ❧❡ ❣é♥♦♠❡ ❞✬❆✳ ♣✐s✉♠✳ ▲❡s ♥♦♠❜r❡s ❞❡ tr❛♥s❝r✐ts ❞✬❆❘◆♠ ❛✈❡❝ ✉♥❡ séq✉❡♥❝❡ ❤♦♠♦❧♦❣✉❡✱ ✉♥❡ ❛♥♥♦t❛t✐♦♥ ■♥✲ t❡rPr♦❙❝❛♥ ❡t ✉♥❡ ❛♥♥♦t❛t✐♦♥ ❢♦♥❝t✐♦♥♥❡❧❧❡ ✐ss✉❡s ❞❡ ❧❛ ●❡♥❡ ❖♥t♦❧♦❣② s♦♥t ✐♥❞✐q✉és✳ ✷✳✶✳✷ ➱❧❡✈❛❣❡ ❞❡s ♣✉❝❡r♦♥s✱ ❡①tr❛❝t✐♦♥ ❡t séq✉❡♥ç❛❣❡ ❞❡s ❧♦♥❣s ❆❘◆ ❡t ❞❡s ♣❡t✐ts ❆❘◆ ▲❡s ♣r♦t♦❝♦❧❡s ❞é❝r✐ts ❝✐✲❞❡ss♦✉s ♦♥t été ♠✐s ❛✉ ♣♦✐♥t ❡t s✉✐✈✐s ♣❛r ●❛ë❧ ▲❡ ❚r✐♦♥♥❛✐r❡✱ ❙②❧✈✐❡ ❚❛♥❣✉②✱ ❙②❧✈✐❡ ❍✉❞❛✈❡r❞✐❛♥ ❡t ◆❛t❤❛❧✐❡ ▲❡t❡r♠❡✳ ■❧s s♦♥t ❛❞❛♣tés ❞❡ ❝❡✉① ❞é❝r✐ts ♣❛r ❆✉r♦r❡ ●❛❧❧♦t ❬✼✼❪✳ ➱❧❡✈❛❣❡ ❞❡s ♣✉❝❡r♦♥s ▲✬♦❜❥❡❝t✐❢ ❡st ❞❡ ♣r♦❞✉✐r❡ ❞❡ ❢❛ç♦♥ s②♥❝❤r♦♥❡ ❞❡s ❡♠❜r②♦♥s q✉✐✱ ❛❞✉❧t❡s✱ s❡r♦♥t s♦✐t ❞❡s ❢❡♠❡❧❧❡s ♣❛rt❤é♥♦❣é♥ét✐q✉❡s✱ s♦✐t ❞❡s ❢❡♠❡❧❧❡s s❡①✉é❡s✳ ▲❛ s②♥❝❤r♦♥✐❡ ❡st ♥é❝❡ss❛✐r❡ ❝❛r ❧❡s ✈✐t❡ss❡s ❞❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞❡ ❝❡s ❞✐✛ér❡♥ts t②♣❡s ❞✬❡♠❜r②♦♥s ♣❡✉✈❡♥t ✈❛r✐❡r s♦✉s ❧❡s ❞✐✛ér❡♥t❡s ♣❤♦t♦♣ér✐♦❞❡s ❝♦✉rt❡s ♦✉ ❧♦♥❣✉❡s✳ ●❛❧❧♦t ❡t ❛❧✳ ❬✼✼❪ ♦♥t ❛❞❛♣té ♣♦✉r ❝❡❧❛ ✉♥ ♣r♦t♦❝♦❧❡ q✉✐ ♣❡r♠❡t s♦✉s ✉♥❡ ♠ê♠❡ ♣❤♦t♦♣ér✐♦❞❡ ❞❡ ♣r♦❞✉✐r❡ s♦✐t ❞❡s ❡♠❜r②♦♥s s❡①✉és✱ s♦✐t ❞❡s ❡♠❜r②♦♥s ❛s❡①✉és ❞❡ ❢❛ç♦♥ s②♥❝❤r♦♥❡✳ ❈❡tt❡ s②♥❝❤r♦♥✐❡ ❡st ♦❜t❡♥✉❡ ♣❛r ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞❡ ❦✐♥♦♣rè♥❡✱ ♠♦❧é❝✉❧❡ ❛♥❛❧♦❣✉❡ ❞❡ ❧✬❤♦r♠♦♥❡ ❥✉✈é♥✐❧❡ ❡t q✉✐ ♣❡r♠❡t ❞❡ r❡♥✈❡rs❡r ❧✬❡✛❡t ❞✬✉♥❡ ♣❤♦t♦♣ér✐♦❞❡ ❝♦✉rt❡ ❬✾✻❪✳ ●❛❧❧♦t ❡t ❛❧✳ ❬✼✼✱ ✽✸❪ ♦♥t ❞ét❡r♠✐♥é ❧❡ ♠♦♠❡♥t ❞✬❛♣♣❧✐❝❛t✐♦♥ ❞✉ ❦✐♥♦♣rè♥❡ ♣♦✉r ❞é✈✐❡r ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t s❡①✉é ❛tt❡♥❞✉ ✭♣❤♦t♦♣ér✐♦❞❡ ❝♦✉rt❡✮ ❡♥ ❞é✈❡❧♦♣♣❡♠❡♥t ❛s❡①✉é✳ ▲❡ ♣r♦t♦❝♦❧❡ ❡st ❞é❝r✐t s✉r ❧❛ ❋✐❣✉r❡ ✷✳✶✳ ➚ ❝❛✉s❡ ❞❡ ❧❛ ✈✐✈✐♣❛r✐té✱ ❝❡ ♣r♦❝❡ss✉s s❡ ❞ér♦✉❧❡ s✉r ♣❧✉s✐❡✉rs ❣é♥ér❛t✐♦♥s✳ ❉❡s ❧❛r✈❡s ❛✉ st❛❞❡ ▲✶ s♦♥t ✐s♦❧é❡s ❡t ♣❧❛❝é❡s ❡♥ ♣❤♦t♦♣ér✐♦❞❡ ❧♦♥❣✉❡ ✭✶✻❤✮ ❥✉sq✉✬à ❧❡✉r ♠✉❡ ❛✉ st❛❞❡ ▲✸ ✿ ❝✬❡st ❧❛ ❣é♥ér❛t✐♦♥ ●✵✳ ▲❡s ▲✸ ❞✉ ♠ê♠❡ â❣❡ s♦♥t ❛❧♦rs ♣❧❛❝é❡s s✉r ❞❡s ♣❧❛♥t❡s ❡♥ ♣❤♦t♦♣ér✐♦❞❡ ❝♦✉rt❡ ✭✶✷❤✮ ♣♦✉r ❡♥❝❧❡♥❝❤❡r ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞✬❡♠❜r②♦♥s s❡①✉és✳ ▲♦rsq✉❡ ❧❡s ❛❞✉❧t❡s ❛♣♣❛r❛✐ss❡♥t✱ ❡❧❧❡s ❝♦♠♠❡♥❝❡♥t à ♣r♦❞✉✐r❡ ❧❡✉rs ❞❡s❝❡♥❞❛♥ts✱ ❞❡s ❧❛r✈❡s ❞❡ st❛❞❡ ▲✶ ❞❡ ❧❛ ❣é♥ér❛t✐♦♥ ●✶✳ ◗✉❡❧q✉❡s ❧❛r✈❡s ❞❡ ❝❡s ❣é♥ér❛t✐♦♥s s♦♥t ✐s♦❧é❡s✱ ❛✉ ♠ê♠❡ â❣❡ ❡t ♣❧❛❝é❡s s✉r ❞❡ ♥♦✉✈❡❧❧❡s ♣❧❛♥t❡s✱ t♦✉❥♦✉rs ❡♥ ♣❤♦t♦♣ér✐♦❞❡ ❝♦✉rt❡✳ ▲♦rsq✉❡ ❝❡s ❧❛r✈❡s ❛rr✐✈❡♥t ❛✉ st❛❞❡ ▲✹ ✰ ✷✹❤ ✭✷✹❤ ❛♣rès ❧❡✉r ♠✉❡ ▲✸ ✈❡rs ▲✹✮✱ ❡❧❧❡s s♦♥t sé♣❛ré❡s ❡♥ ❞❡✉① ❧♦ts ✿ ❧❡ ♣r❡♠✐❡r ❧♦t s❡ ✈♦✐t ❛♣♣❧✐q✉❡r ❞❡ ❧✬❛❝ét♦♥❡ ✭✺✵ ♥▲✮ s✉r ❧❡✉r ❛❜❞♦♠❡♥✳ ▲❡ s❡❝♦♥❞ ❧♦t s❡ ✈♦✐t ❛♣♣❧✐q✉❡r ❞❛♥s ❧❡s ♠ê♠❡s ❝♦♥❞✐t✐♦♥s ✺✵ ♥▲ ❞❡ ❦✐♥♦♣rè♥❡ ✭✹✵✵ ♥❣✱ ❙✐❣♠❛ ❆❧❞r✐❝❤✮ ❞✐❧✉é ❞❛♥s ❧✬❛❝ét♦♥❡✳ ▲❡s ❞❡✉① ❧♦ts s♦♥t ❧❛✐ssés ❡♥ ♣❤♦t♦♣ér✐♦❞❡ ❝♦✉rt❡✳ ▲♦rsq✉❡ ❝❡s ▲✹ ❞❡✈✐❡♥♥❡♥t ❛❞✉❧t❡s✱ ❡❧❧❡s ❞♦♥♥❡♥t ♥❛✐ss❛♥❝❡ à ❧❛ ❣é♥ér❛t✐♦♥ ✷ ✭●✷✮ q✉✐ s❡r❛ s♦✐t s❡①✉é❡ ✭♣❛s ❞✬❛♣♣❧✐❝❛t✐♦♥ ❞❡ ❦✐♥♦♣rè♥❡✮ s♦✐t ❛s❡①✉é❡ ✭❛♣♣❧✐❝❛t✐♦♥ ❞❡ ❦✐♥♦♣rè♥❡✮✳ ▼❛✐s ❧❡s é❝❤❛♥t✐❧❧♦♥s s♦♥t ré❝♦❧tés ❛✈❛♥t q✉❡ ❝❡tt❡ ●✷ s♦✐t ♠✐s❡ ❜❛s✳ ▲❡s ❢❡♠❡❧❧❡s ❞❡ ❧❛ ●✶ s♦♥t ❞✐sséq✉é❡s ❛♣rès ❛♣♣❧✐❝❛t✐♦♥ ❞❡ ❧✬❛❝ét♦♥❡ ♦✉ ❞✉ ❦✐♥♦♣rè♥❡✱ ❛✜♥ ❞✬❡①tr❛✐r❡ ❡t ❞✬✐s♦❧❡r ❧❡s ❡♠❜r②♦♥s ✭❢✉t✉rs ●✷✮✳ ◗✉❛tr❡ st❛❞❡s ❞✬❡♠❜r②♦♥s s♦♥t ❞✐sséq✉és ✿ ❧❡ st❛❞❡ ✶✼ ✭▲✹ ✰ ✷✹❤✱ ❛✉ ♠♦♠❡♥t ❞❡ ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞❡ ❧✬❛❝ét♦♥❡ ❛✈❡❝ ♦✉ s❛♥s ❦✐♥♦♣rè♥❡✮✱✸✻ ❈❛t❛❧♦❣✉❡s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ❧❡ st❛❞❡ ✶✽ ✭▲✹ ✰ ✹✽❤✮✱ ❧❡ st❛❞❡ ✶✾ ✭❆❞✉❧t❡ ✰ ✷✹❤✮ ❡t ❧❡ st❛❞❡ ✷✵ ✭❛❞✉❧t❡ ✰ ✹✽❤✮✳ ▲❡s ❞✐ss❡❝t✐♦♥s ❛✉① st❛❞❡s ✶✽✱ ✶✾ ❡t ✷✵ s♦♥t ré❛❧✐sé❡s ♣♦✉r ❧❡s ❧♦ts s❛♥s ❡t ❛✈❡❝ ❦✐♥♦♣rè♥❡✳ P♦✉r ❝❤❛q✉❡ ❞✐ss❡❝t✐♦♥✱ s❡✉❧s ❧❡s ❡♠❜r②♦♥s ❞❡s st❛❞❡s ✐♥❞✐q✉és s♦♥t ❞✐sséq✉és✱ ❡♥ s❡ ré❢ér❛♥t ❛✉① ♠♦r♣❤♦❧♦❣✐❡s ❞é❝r✐t❡s ❞❛♥s ▼✐✉r❛ ❡t ❛❧✳ ❬✼✻❪✳ ▲❡s ❞✐✛ér❡♥ts ❧♦ts ❞✬❡♠❜r②♦♥s ✭✼ ❛✉ t♦t❛❧✮ s♦♥t ❝♦♥❣❡❧és ✐♠♠é❞✐❛t❡♠❡♥t ❞❛♥s ❧✬❛③♦t❡ ❧✐q✉✐❞❡ ❡t ❝♦♥s❡r✈és à ✲✽✵✝❈✳ Génération G0 Génération G1 L3 Adulte L1 L4 Induction de la production de descendants sexupares en jours courts (G1). Jours longs Jours courts 17 18 19 20 Application d'acétone (A) ou de kinoprène (K). F Femeles virginipares Femeles sexupares Embryons sexués (A) F ou asexués (K) Embryons flexibles Descendants Génération G2 F Extraction de l'ARN Embryons L1 Adulte ❋✐❣✳ ✷✳✶ ✕ ❙❝❤é♠❛ ❡①♣ér✐♠❡♥t❛❧ ❞❡ ❧❛ ♣r♦❞✉❝t✐♦♥ ❞✬❡♠❜r②♦♥s ❢❡♠❡❧❧❡s à ❧✬❛✈❡♥✐r s❡①✉é ♦✉ ❛s❡①✉é à ♣❛rt✐r ❞❡ ❢❡♠❡❧❧❡s ♣❛rt❤é♥♦❣é♥ét✐q✉❡s✳ ▲❛ ❞✉ré❡ ❞✉ ❥♦✉r✱ ❧♦♥❣ ♦✉ ❝♦✉rt✱ ❡st ✐♥❞✐q✉é❡ ❡♥ ❤❛✉t ❀ ❧❛ ❣é♥ér❛t✐♦♥ ●✵ ❡st r❡♣rés❡♥té❡ ❡♥ ❤❛✉t ❡♥ r♦✉❣❡ ❀ ❧❛ ❣é♥ér❛t✐♦♥ ●✶ ❡st r❡♣rés❡♥té❡ ❛✉ ♠✐❧✐❡✉ ❡♥ ❜❧❡✉ ❀ ❧❛ ❣é♥ér❛t✐♦♥ ●✷ ❡st r❡♣rés❡♥té❡ ❡♥ ❜❛s ❡♥ ♥♦✐r✳ ▲❡ ♠♦r♣❤❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❡t ❧❡ t②♣❡ ❞❡ ❞❡s❝❡♥❞❛♥❝❡ s♦♥t ✐♥❞✐q✉és à ❝ôté ❞❡s ❣é♥ér❛t✐♦♥s ●✵ ❡t ●✶✳ P♦✉r ❧❛ ❣é♥ér❛t✐♦♥ ●✷✱ ❧✬ét❛t ✢❡①✐❜❧❡ ❡t ❧❡s ❞❡✉① ♠♦❞❡s ❞❡ r❡♣r♦❞✉❝t✐♦♥s s♦♥t ✐♥❞✐q✉és✳ ▲❡s ♣♦✐♥ts ❞✬❡①tr❛❝t✐♦♥ ❞❡s ❆❘◆ s♦♥t ✐♥❞✐q✉és ♣♦✉r ❧❡s st❛❞❡s ❡♠❜r②♦♥♥❛✐r❡s ✶✼✱ ✶✽✱ ✶✾ ❡t ✷✵ ❞❡ ❧❛ ❣é♥ér❛t✐♦♥ ●✷✳ ■❧ ❡st à ♥♦t❡r q✉❡ ❧❡ s❝❤é♠❛ ♥✬❡st ♣❛s à ❧✬é❝❤❡❧❧❡ t❡♠♣♦r❡❧❧❡✳ ❊①tr❛❝t✐♦♥ ❡t séq✉❡♥ç❛❣❡ ❞❡s ❆❘◆ ▲✬❡♥s❡♠❜❧❡ ❞✉ ♣r♦t♦❝♦❧❡ ❞é❝r✐t ♣ré❝é❞❡♠♠❡♥t ❛ été ❡✛❡❝t✉é sé♣❛ré♠❡♥t ♣♦✉r ❧✬❡①✲ tr❛❝t✐♦♥ ❞❡s ❧♦♥❣s ❡t ❞❡s ♣❡t✐ts ❆❘◆ ❡t à ❞✐✛ér❡♥t❡s r❡♣r✐s❡s ❛✜♥ ❞✬♦❜t❡♥✐r ❞❡s ré♣❧✐❝❛ts ❜✐♦❧♦❣✐q✉❡s ✿ ✕ ✶ ré♣❧✐❝❛t ❜✐♦❧♦❣✐q✉❡ ♣♦✉r ❧✬❡①tr❛❝t✐♦♥ ❞❡s ❧♦♥❣s ❆❘◆ ❛✉ st❛❞❡ ✶✼ ❀ ✕ ✸ ré♣❧✐❝❛ts ❜✐♦❧♦❣✐q✉❡s ♣♦✉r ❝❤❛❝✉♥ ❞❡s ♣♦✐♥ts ❞✬❡①tr❛❝t✐♦♥ ❞❡s ❧♦♥❣s ❆❘◆ ❛✉① st❛❞❡s ✶✽✱ ✶✾ ❡t ✷✵ ❡t ♣♦✉r ❝❤❛❝✉♥ ❞❡s ❞❡✉① ❣r♦✉♣❡s ✿ ❢✉t✉rs ❛s❡①✉és ❡t ❢✉t✉rs s❡①✉és ❀ ✕ ✸ ré♣❧✐❝❛ts ❜✐♦❧♦❣✐q✉❡s ♣♦✉r ❝❤❛❝✉♥ ❞❡s ♣♦✐♥ts ❞✬❡①tr❛❝t✐♦♥ ❞❡s ♣❡t✐ts ❆❘◆ ❛✉ st❛❞❡ ✶✼ ❛✐♥s✐ q✉✬❛✉① st❛❞❡s ✶✽✱ ✶✾ ❡t ✷✵ ♣♦✉r ❝❤❛❝✉♥ ❞❡s ❞❡✉① ❣r♦✉♣❡s ✿ ❢✉t✉rs❊①tr❛❝t✐♦♥✱ séq✉❡♥ç❛❣❡ ❡t ❛♥❛❧②s❡ ❞❡s ❧♦♥❣s ❡t ♣❡t✐ts ❆❘◆ ✸✼ ❛s❡①✉és ❡t ❢✉t✉rs s❡①✉és✳ ▲✬❡①tr❛❝t✐♦♥ à ♣❛rt✐r ❞❡s é❝❤❛♥t✐❧❧♦♥s ❝♦♥❣❡❧és ❡t ❧❡ séq✉❡♥ç❛❣❡ ❞❡s ❆❘◆ ♦♥t été ❡✛❡❝t✉és ❞❡ ❧❛ ❢❛ç♦♥ s✉✐✈❛♥t❡ ✿ ✕ ▲♦♥❣s ❆❘◆✱ st❛❞❡ ✶✼ ✿ ▲❡s ❆❘◆ ♦♥t été séq✉❡♥❝és s✉r ✉♥❡ ♠❛❝❤✐♥❡ ■❧❧✉♠✐♥❛ ❍✐s❡q ✷✵✵✵ ❛✈❡❝ ❞❡s ❧❡❝t✉r❡s ♣❛✐r❡❞ ❡♥❞✳ ❉❡ ♣❧✉s✱ ❧❡ séq✉❡♥ç❛❣❡ ❛ été ❡✛❡❝t✉é s✉r ✸ ♣✐st❡s ❞✐✛ér❡♥t❡s✱ ❞♦♥♥❛♥t ❧✐❡✉ à ✸ ré♣❧✐❝❛ts ❞❡ séq✉❡♥ç❛❣❡ ♣♦✉r ❧❡ ♠ê♠❡ é❝❤❛♥t✐❧❧♦♥ ❀ ✕ ▲♦♥❣s ❆❘◆✱ st❛❞❡s ✶✽✱ ✶✾ ❡t ✷✵ ✿ à ❧✬❛✐❞❡ ❞✉ ❦✐t ❘◆❡❛s② ✭◗✐❛❣❡♥✮ ❡♥ s✉✐✈❛♥t ❧❡s ✐♥str✉❝t✐♦♥s ❞✉ ❢❛❜r✐❝❛♥t✳ ❈❡s ❆❘◆ ✭✷ µ❣✮ ♦♥t été séq✉❡♥❝és s✉r ✉♥❡ ♠❛❝❤✐♥❡ ■❧❧✉♠✐♥❛ ❍✐s❡q ✷✵✵✵ ❛✈❡❝ ❞❡s ❧❡❝t✉r❡s ♣❛✐r❡❞ ❡♥❞ ❡t ♦r✐❡♥té❡s ❀ ✕ P❡t✐ts ❆❘◆ st❛❞❡s ✶✼✱ ✶✽✱ ✶✾ ❡t ✷✵ ✿ ▲❡s ❆❘◆ t♦t❛✉① ❡♥r✐❝❤✐s ❡♥ ♣❡t✐ts ❆❘◆ ♦♥t été ❡①tr❛✐ts à ❧✬❛✐❞❡ ❞✉ ❦✐t ♠✐❘❱❆◆❆ ✭▲✐❢❡ ❚❡❝❤♥♦❧♦❣✐❡s✮✳ ▲❡ ♣r♦t♦❝♦❧❡ ❛ été ré❛❧✐sé ❡♥ s✉✐✈❛♥t ❧❡s ✐♥str✉❝t✐♦♥s ❞✉ ❢❛❜r✐❝❛♥t✳ ▲❡s ♣❡t✐ts ❆❘◆ ♦♥t été sé❧❡❝t✐♦♥♥é ❞❛♥s ✺ µ❣ ❞✬❆❘◆ ♣✉✐s séq✉❡♥❝és s✉r ✉♥❡ ♠❛❝❤✐♥❡ ■❧❧✉♠✐♥❛ ❍✐❙❡q ✷✵✵✵ ❛✈❡❝ ❞❡s ❧❡❝t✉r❡s ♦r✐❡♥té❡s ❞❡ ✺✵ ♥✉❝❧é♦t✐❞❡s✳ ❉❡ ♣❧✉s✱ ❝❤❛q✉❡ ré♣❧✐❝❛t ❜✐♦❧♦❣✐q✉❡ ❛ été séq✉❡♥❝é s✉r ✸ ♣✐st❡s ❞✐✛ér❡♥t❡s✱ ❞♦♥♥❛♥t ❧✐❡✉ à ✸ ré♣❧✐❝❛ts ❞❡ séq✉❡♥ç❛❣❡ ♣♦✉r ❝❤❛❝✉♥ ❞❡s ré♣❧✐❝❛ts ❜✐♦❧♦❣✐q✉❡s✳ ❊♥ rés✉♠é✱ ❧❡ ♥♦♠❜r❡ t♦t❛❧ ❞❡ ❜❛♥q✉❡s ❞❡ séq✉❡♥❝❡s ♦❜t❡♥✉ ❡st ❧❡ s✉✐✈❛♥t ✿ ✕ ✸ ❜❛♥q✉❡s ♣♦✉r ❧❡ st❛❞❡ ✶✼ ♣♦✉r ❧❡s ❧♦♥❣s ❆❘◆ ❀ ✕ ✶✽ ❜❛♥q✉❡s ♣♦✉r ❧❡s st❛❞❡s ✶✽✱ ✶✾ ❡t ✷✵ ♣♦✉r ❧❡s ❧♦♥❣s ❆❘◆ ❞♦♥t ✾ ❜❛♥q✉❡s ♣♦✉r ❧❡ ❣r♦✉♣❡ ❞❡s ❢✉t✉rs ❛s❡①✉és ❡t ❧❡s ✾ ❛✉tr❡s ♣♦✉r ❧❡ ❣r♦✉♣❡ ❞❡s ❢✉t✉rs s❡①✉és ❀ ✕ ✻✸ ❜❛♥q✉❡s ♣♦✉r ❧❡s st❛❞❡s ✶✼✱ ✶✽✱ ✶✾ ❡t ✷✵ ♣♦✉r ❧❡s ♣❡t✐ts ❆❘◆ ❞♦♥t ✾ ❜❛♥q✉❡s ♣♦✉r ❧❡ st❛❞❡ ✶✼ ♦ù ❧❡s ❡♠❜r②♦♥s s♦♥t ✢❡①✐❜❧❡s✱ ✷✼ ❜❛♥q✉❡s ♣♦✉r ❧❡ ❣r♦✉♣❡ ❞❡s ❢✉t✉rs ❛s❡①✉és ❡t ❧❡s ✷✼ ❛✉tr❡s ♣♦✉r ❧❡ ❣r♦✉♣❡ ❞❡s ❢✉t✉rs s❡①✉és✳ ▲❡ ♥♦♠❜r❡ t♦t❛❧ ❞❡ séq✉❡♥❝❡s ❜r✉t❡s ❡st ✐♥❞✐q✉é s✉r ❧❡ ❚❛❜❧❡❛✉ ✷✳✷✳ ✷✳✶✳✸ ▼ét❤♦❞❡s ❜✐♦✲✐♥❢♦r♠❛t✐q✉❡s ❈❡tt❡ s♦✉s✲♣❛rt✐❡ ♣rés❡♥t❡ ❧❡s ♠ét❤♦❞❡s ❜✐♦✲✐♥❢♦r♠❛t✐q✉❡s ✉t✐❧✐sé❡s ♣♦✉r ❛♥♥♦t❡r ❡t ❛♥❛❧②s❡r ❧❡s ❥❡✉① ❞✬❆❘◆♠ ❡t ❞❡ ♠✐❝r♦❆❘◆✳ ❆♥♥♦t❛t✐♦♥ ♣❛r ❇❧❛st✷●❖ ❞❡s ❆❘◆♠ ❇❧❛st✷●❖ ❬✾✼✱ ✾✽❪ ♣❡r♠❡t ❞✬❛♥♥♦t❡r ❢♦♥❝t✐♦♥♥❡❧❧❡♠❡♥t ❞❡s ♣r♦té✐♥❡s ♣❛r ❞❡s t❡r♠❡s ❞❡ ❧❛ ●❡♥❡ ❖♥t♦❧♦❣② ✭●❖✮ ❬✾✾❪✳ P♦✉r ❝❡❧❛✱ ❇❧❛st✷●❖ ✉t✐❧✐s❡ ❧✬❛♥♥♦t❛t✐♦♥ ❞❡ séq✉❡♥❝❡s ❤♦♠♦❧♦❣✉❡s ❞ét❡❝té❡s à ❧✬❛✐❞❡ ❞✬✉♥ ❇▲❆❙❚ ❬✶✵✵❪ ❝♦♠♣❛r❛♥t ❧❡s séq✉❡♥❝❡s ❝✐❜❧❡s ✭❝❡❧❧❡s q✉❡ ❧✬♦♥ s♦✉❤❛✐t❡ ❛♥♥♦t❡r✮ ❛✈❡❝ ❝❡❧❧❡s ❞✬✉♥❡ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ❞✬✐♥térêt✳ P♦✉r ✉♥❡ séq✉❡♥❝❡ ❝✐❜❧❡✱ ❇❧❛st✷●❖ ♣r♦❝è❞❡ ❡♥ tr♦✐s ét❛♣❡s ✿ ✕ ■❞❡♥t✐✜❝❛t✐♦♥ ❞❡s séq✉❡♥❝❡s s✐♠✐❧❛✐r❡s à ❧✬❛✐❞❡ ❞✬✉♥ ❇▲❆❙❚P✱ ♣❛r❛♠étr❛❜❧❡ ♣❛r ❧✬✉t✐❧✐s❛t❡✉r ❀ ✕ ❖❜t❡♥t✐♦♥ ❞❡s ❛♥♥♦t❛t✐♦♥s ●❖ ❞❡s séq✉❡♥❝❡s ❤♦♠♦❧♦❣✉❡s ❞❡ ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ❀ ✕ ❆ss♦❝✐❛t✐♦♥ ❞✬✉♥❡ ❛♥♥♦t❛t✐♦♥ ✐ss✉❡ ❞❡s séq✉❡♥❝❡s ❤♦♠♦❧♦❣✉❡s à ❧❛ séq✉❡♥❝❡ ❝✐❜❧❡✳ P♦✉r ❧❛ tr♦✐s✐è♠❡ ét❛♣❡✱ ✉♥ s❝♦r❡ ❡st ❛ss♦❝✐é à ❝❤❛❝✉♥❡ ❞❡s ❛♥♥♦t❛t✐♦♥s q✉✐ ♣r❡♥❞ ❡♥ ❝♦♠♣t❡ ❞✐✛ér❡♥ts ❢❛❝t❡✉rs ✿ ✕ ▲❛ s✐♠✐❧❛r✐té ❡♥tr❡ ❧❛ séq✉❡♥❝❡ ❝✐❜❧❡ ❡t ❧❛ séq✉❡♥❝❡ ❤♦♠♦❧♦❣✉❡ ❀ ✕ ▲✬♦r✐❣✐♥❡ ❞❡ ❧✬❛♥♥♦t❛t✐♦♥ ❞❡ ❧❛ séq✉❡♥❝❡ ❤♦♠♦❧♦❣✉❡✱ ❛♥♥♦t❛t✐♦♥ ♠❛♥✉❡❧❧❡ ❞é❝r✐✈❛♥t ✉♥ rés✉❧t❛t ❞✬❡①♣ér✐♠❡♥t❛t✐♦♥ ♦✉ ❛♥♥♦t❛t✐♦♥ ❛✉t♦♠❛t✐q✉❡ ♣❛r ❤♦♠♦❧♦❣✐❡✳✸✽ ❈❛t❛❧♦❣✉❡s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ♣❡t✐ts ❆❘◆ ❧♦♥❣s ❆❘◆ ❜❛♥q✉❡s ♥♦♠❜r❡ ❞❡ séq✉❡♥❝❡s ❜❛♥q✉❡s ♥♦♠❜r❡ ❞❡ séq✉❡♥❝❡s ❚✵ ✷✽✳✾✶✵✳✵✾✾ ✷✹✳✼✶✻✳✹✸✼ ❚✵ ✺✺✳✽✽✾✳✻✻✸ ✸✷✳✽✹✼✳✺✼✺ ❚✶❆ ✷✾✳✼✷✶✳✷✹✺ ❚✶❆ ✶✹✳✾✹✾✳✸✸✵ ✹✶✳✷✸✻✳✸✷✹ ✶✹✳✼✶✼✳✼✽✺ ✸✵✳✺✹✶✳✸✸✹ ✶✺✳✽✹✾✳✼✺✸ ❚✷❆ ✸✷✳✶✵✶✳✵✾✼ ❚✷❆ ✷✺✳✾✼✹✳✵✻✷ ✸✸✳✼✾✾✳✹✺✼ ✶✽✳✸✸✽✳✹✾✻ ✸✷✳✸✾✻✳✷✸✹ ✶✽✳✸✺✹✳✵✾✾ ❚✸❆ ✸✼✳✵✺✽✳✽✶✸ ❚✸❆ ✶✹✳✹✺✻✳✹✽✽ ✷✼✳✶✹✼✳✾✶✺ ✷✵✳✷✸✻✳✷✼✹ ✹✸✳✻✺✷✳✸✷✷ ✶✳✼✶✸✳✽✻✶✸ ❚✶❑ ✸✵✳✷✺✵✳✺✹✽ ❚✶❑ ✶✽✳✼✹✷✳✵✸✺ ✷✾✳✻✽✼✳✸✷✵ ✶✹✳✼✶✶✳✺✵✷ ✸✸✳✶✼✷✳✼✽✷ ✶✼✳✷✽✻✳✻✺✹ ❚✷❑ ✸✺✳✼✷✾✳✷✹✽ ❚✷❑ ✶✻✳✼✸✼✳✾✹✹ ✹✷✳✼✽✵✳✹✺✸ ✶✻✳✺✹✸✳✼✸✼ ✸✵✳✸✸✸✳✶✵✻ ✶✸✳✼✺✽✳✺✷✽ ❚✸❑ ✷✾✳✶✶✼✳✸✹✸ ❚✸❑ ✶✻✳✽✸✵✳✽✻✺ ✷✺✳✾✸✺✳✶✽✶ ✶✺✳✺✵✻✳✺✺✼ ✷✾✳✺✾✺✳✽✺✻ ✶✺✳✾✽✻✳✸✺✶ ❚❛❜❧❡❛✉ ✷✳✷ ✕ ◆♦♠❜r❡ t♦t❛❧ ❞❡ séq✉❡♥❝❡s ♣❛r ❜❛♥q✉❡ ♦❜t❡♥✉❡s ♣❛r ❡①tr❛❝t✐♦♥ ❞✬❆❘◆ s✉r ❞❡s ❡♠❜r②♦♥s ❛✉① st❛❞❡s ✶✼✱ ✶✽✱ ✶✾ ♦✉ ✷✵ ✭❚✵✱ ❚✶✱ ❚✷✱ ❚✸✮ ❢✉t✉rs s❡①✉és ✭❆✮ ♦✉ ❛s❡①✉és ✭❑✮ ♣♦✉r ❧❡s tr♦✐s ré♣❧✐❝❛ts ❜✐♦❧♦❣✐q✉❡s✳ P♦✉r ❧❡s ♣❡t✐ts ❆❘◆✱ ❧❡ ♥♦♠❜r❡ t♦t❛❧ ❞❡ séq✉❡♥❝❡s ❡st ❧❛ s♦♠♠❡ ❞✉ ♥♦♠❜r❡ ❞❡ séq✉❡♥❝❡s ♦❜t❡♥✉❡s s✉r ❧❡s ✸ ♣✐st❡s ❞❡ séq✉❡♥ç❛❣❡✳ P♦✉r ❧❡ ❚✵ ❞❡s ❧♦♥❣s ❆❘◆✱ ❧❡ ♥♦♠❜r❡ t♦t❛❧ ❞❡ séq✉❡♥❝❡s ❡st ❧❛ s♦♠♠❡ ❞❡s tr♦✐s ré♣❧✐❝❛ts ❞❡ séq✉❡♥ç❛❣❡✳ ▲❛ ♦✉ ❧❡s ❛♥♥♦t❛t✐♦♥s ♣♦ssé❞❛♥t ❧❡ ♠❡✐❧❧❡✉r s❝♦r❡ s♦♥t ❡♥s✉✐t❡ ❛ss♦❝✐é❡s à ❧❛ séq✉❡♥❝❡ ❝✐❜❧❡✳ ❇❧❛st✷●❖ ♣❡✉t ❛✉ss✐ ❛ss♦❝✐❡r à ❧❛ séq✉❡♥❝❡ ❝✐❜❧❡ ✉♥❡ ❛♥♥♦t❛t✐♦♥ ❝♦♠♠✉♥❡ ❛✉① séq✉❡♥❝❡s ❤♦♠♦❧♦❣✉❡s ✿ s✐ ❧❡s séq✉❡♥❝❡s ❤♦♠♦❧♦❣✉❡s ❞❡ ❧❛ séq✉❡♥❝❡ ❝✐❜❧❡✱ ♦✉ ✉♥ s♦✉s ❡♥s❡♠❜❧❡ ❞❡ ❝❡s séq✉❡♥❝❡s✱ ♣♦ssè❞❡♥t ❞❡s t❡r♠❡s ●❖ ❛✈❡❝ ✉♥ ♣❧✉s ♣❡t✐t ❛♥❝êtr❡ ❝♦♠♠✉♥ ❞❛♥s ❧❛ ❤✐ér❛r❝❤✐❡ ●❖ q✉✐ ♥❡ s♦✐t ♣❛s tr♦♣ ❣é♥ér❛❧ ✭tr♦♣ ❤❛✉t ❞❛♥s ❧❛ ❤✐ér❛r❝❤✐❡✮✱ ✐❧ ♣♦✉rr❛ ❛✉ss✐ êtr❡ ❛ss♦❝✐é à ❧❛ séq✉❡♥❝❡ ❝✐❜❧❡✳ ❊♥ ♣❧✉s ❞❡ ❧✬❛♥♥♦t❛t✐♦♥ ✐ss✉❡ ❞❡s séq✉❡♥❝❡s ❤♦♠♦❧♦❣✉❡s ♦❜t❡♥✉❡s ♣❛r ❧❛ r❡❝❤❡r❝❤❡ ❇▲❆❙❚✱ ❇❧❛st✷●❖ ❛♥♥♦t❡ é❣❛❧❡♠❡♥t ❧❡s séq✉❡♥❝❡s ❝✐❜❧❡s ❡♥ ✉t✐❧✐s❛♥t ■♥t❡rPr♦❙❝❛♥ ❬✶✵✶❪✳ ■♥t❡rPr♦❙❝❛♥ ♣❡r♠❡t ❞❡ ❞ét❡❝t❡r ❞❡s ❞♦♠❛✐♥❡s ♣r♦té✐q✉❡s ❝♦♥♥✉s ❞❛♥s ✉♥❡ séq✉❡♥❝❡ ❝✐❜❧❡✳ ❈❡s ❞♦♠❛✐♥❡s ❝♦♥♥✉s ♣❡✉✈❡♥t ❛✈♦✐r ❞❡s ❛♥♥♦t❛t✐♦♥s ●❖ ❛ss♦❝✐é❡s q✉✐ s❡r♦♥t ❛❧♦rs r❡♣♦rté❡s s✉r ❧❛ séq✉❡♥❝❡ ❝✐❜❧❡ ♣❛r ❇❧❛st✷●❖✱ ❝❡ q✉✐ ❝♦♠♣❧èt❡ ❛✐♥s✐ ❧✬❛♥♥♦t❛t✐♦♥ ✐♥✐t✐❛❧❡✳❊①tr❛❝t✐♦♥✱ séq✉❡♥ç❛❣❡ ❡t ❛♥❛❧②s❡ ❞❡s ❧♦♥❣s ❡t ♣❡t✐ts ❆❘◆ ✸✾ P♦✉r ❧✬❛♥♥♦t❛t✐♦♥ ♦❜t❡♥✉❡ ❞❛♥s ❧❛ ♣❛rt✐❡ ✷✳✶✳✶✱ ❧❡ ❇▲❆❙❚ ✉t✐❧✐sé ❡st ✉♥ ❇▲❆❙❚P ❡t ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ✉t✐❧✐sé❡ ❡st ❧❛ ❜❛s❡ ♥r✷ ✭✈❡rs✐♦♥ ✷✾✴✵✼✴✷✵✶✸✮ ❞✉ ◆❛t✐♦♥❛❧ ❈❡♥t❡r ❢♦r ❇✐♦t❡❝❤♥♦❧♦❣② ■♥❢♦r♠❛t✐♦♥ ✭◆❈❇■✮ ❛✈❡❝ ❧❡ ❧♦❣✐❝✐❡❧ ❜❧❛st✰ ✭✈❡rs✐♦♥ ✷✳✷✳✷✽✮ ❬✶✵✵❪✳ P♦✉r ❧❛ r❡❝❤❡r❝❤❡ ❞❡s ❞♦♠❛✐♥❡s ♣r♦té✐q✉❡s ♣❛r ■♥t❡rPr♦❙❝❛♥✱ ❧❡ ❧♦❣✐❝✐❡❧ ✐♣rs❝❛♥ ✭✈❡rs✐♦♥ ✹✳✽✮ ❛ été ✉t✐❧✐sé ❝♦♥tr❡ ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ■♥t❡rPr♦ ✭✈❡rs✐♦♥ ✵✺✴✵✻✴✷✵✶✸✮ ❬✶✵✷❪✳ ▲❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ❞❡ ❇❧❛st✷●❖ ✉t✐❧✐sé❡ ét❛✐t ❧❛ ✈❡rs✐♦♥ ❞✬❛♦ût ✷✵✶✷✳ ❈❡tt❡ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ❛ss♦❝✐❡ ❛✉① ♣r♦té✐♥❡s ♣rés❡♥t❡s ❞❛♥s ♥r ✉♥❡ ♦♥t♦❧♦❣✐❡ ●❖ s✐ ❝❡tt❡ ♦♥t♦❧♦❣✐❡ ❡①✐st❡✳ ■❞❡♥t✐✜❝❛t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ✿ ♠✐❘❉❡❡♣✷ ▼✐❘❉❡❡♣✷ ❬✶✵✸❪ ♣❡r♠❡t ❞✬✐❞❡♥t✐✜❡r ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡①♣r✐♠és ❞❛♥s ✉♥ ❥❡✉ ❞❡ ❞♦♥♥é❡s ❞❡ séq✉❡♥ç❛❣❡ ❡t ❧❡✉r ❣è♥❡s ❡t ♣ré❝✉rs❡✉rs à ❧✬❛✐❞❡ ❞✬✉♥ ❣é♥♦♠❡ ❞❡ ré❢ér❡♥❝❡✳ ▲❛ ❋✐❣✉r❡ ✷✳✷ r❛♣♣❡❧❧❡ ❧❡s ❞✐✛ér❡♥t❡s str✉❝t✉r❡s ❛ss♦❝✐é❡s ❛✉① ♠✐❝r♦❆❘◆ ♣♦✉r ♣❧✉s ❞❡ ❝❧❛rté✳ ❋✐❣✳ ✷✳✷ ✕ ❘❛♣♣❡❧❧❡ ❞❡s ❞✐✛ér❡♥t❡s str✉❝t✉r❡s tr❛♥s✐t♦✐r❡s ❞❡s ♠✐❝r♦❆❘◆ ✿ ❣è♥❡ ❞❡ ♠✐❝r♦❆❘◆✱ ♣ré✲♠✐❝r♦❆❘◆✱ ♣r✐✲♠✐❝r♦❆❘◆ ❡t ♠✐❝r♦❆❘◆ ♠❛t✉r❡✳ ❋✐❣✉r❡ ❛❞❛♣té❡ ❞❡ ■❆●❈ ❬✶✺❪✳ ❆♣rès ♥❡tt♦②❛❣❡ ❞❡s ❧❡❝t✉r❡s ✐ss✉❡s ❞✉ séq✉❡♥ç❛❣❡✱ ❧❡s ❧❡❝t✉r❡s ❞❡ ♣❡t✐ts ❆❘◆ s♦♥t ❛❧✐❣♥é❡s s✉r ❧❡ ❣é♥♦♠❡ ❞❡ ré❢ér❡♥❝❡ ❡t s❡✉❧❡s ❧❡s séq✉❡♥❝❡s ❞✬✉♥❡ t❛✐❧❧❡ ❞✬❛✉ ♠✐♥✐♠✉♠ ✷ ❤tt♣✿✴✴❜❧❛st✳♥❝❜✐✳♥❧♠✳♥✐❤✳❣♦✈✴❇❧❛st✳❝❣✐❄❈▼❉❂❲❡❜✫P❆●❊❴❚❨P❊❂❇❧❛st❉♦❝s✫❉❖❈❴❚❨P❊❂ Pr♦❣❙❡❧❡❝t✐♦♥●✉✐❞❡✹✵ ❈❛t❛❧♦❣✉❡s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ✶✽ ♥✉❝❧é♦t✐❞❡s s✬❛❧✐❣♥❛♥t ♣❛r❢❛✐t❡♠❡♥t s✉r ❧❡ ❣é♥♦♠❡ s♦♥t ❝♦♥s❡r✈é❡s✳ ▲❡s séq✉❡♥❝❡s s✬❛❧✐❣♥❛♥t ♣❛r❢❛✐t❡♠❡♥t à ♣❧✉s ❞❡ ❝✐♥q ♣♦s✐t✐♦♥s ❣é♥♦♠✐q✉❡s ❞✐✛ér❡♥t❡s s♦♥t s✉♣♣r✐♠é❡s✳ ❊♥s✉✐t❡ ✉♥❡ r❡❝❤❡r❝❤❡ ❞❡s ♣ré❝✉rs❡✉rs ♣♦t❡♥t✐❡❧s s✬❡✛❡❝t✉❡ ♣♦✉r ❝❤❛❝✉♥ ❞❡s ❜r✐♥s ❞✉ ✺✬ ✈❡rs ❧❡ ✸✬ ❞❡ ❧❛ ❢❛ç♦♥ s✉✐✈❛♥t❡ ✿ ✶✳ ❘❡❝❤❡r❝❤❡ ❞❡ ❜❧♦❝s ❞❡ ❧❡❝t✉r❡ ❛❧✐❣♥é❡s ❛✈❡❝ ✉♥ ♥♦♠❜r❡ ❞❡ ❧❡❝t✉r❡ ❛✉ ♠♦✐♥s é❣❛❧❡ à ✶ ✭❤❛✉t❡✉r✮✳ ❙✐ ✉♥ ❛✉tr❡ ❜❧♦❝ ❡st tr♦✉✈é ❛✈❡❝ ✉♥❡ ❤❛✉t❡✉r s✉♣ér✐❡✉r❡ ❞❛♥s ❧❡s ✼✵ ♥✉❝❧é♦t✐❞❡s s✉✐✈❛♥ts✱ ❛❧♦rs ✐❧ ❡st ❝❤♦✐s✐ à ❧❛ ♣❧❛❝❡✳ ❈❡tt❡ r❡❝❤❡r❝❤❡ ❞❡ ❜❧♦❝ ❞❡ t❛✐❧❧❡ ♠❛①✐♠❛❧❡ ❡st ❢❛✐t❡ t❛♥t q✉✬❛✉❝✉♥ ♥♦✉✈❡❛✉ ❜❧♦❝ ❞❡ t❛✐❧❧❡ s✉♣ér✐❡✉r❡ ♥✬❡st tr♦✉✈é ❀ ✷✳ ❖❜t❡♥t✐♦♥ ❞❡ ❞❡✉① ♣ré❝✉rs❡✉rs ♣♦t❡♥t✐❡❧s ✐ss✉s ❞✉ ❜❧♦❝ ✐❞❡♥t✐✜é✳ ▲❡s ♣ré❝✉rs❡✉rs s♦♥t ♦❜t❡♥✉s ❡♥ ❡①tr❛②❛♥t ❧❡ ❜❧♦❝ ❛✐♥s✐ q✉❡ ❧❡s ✼✵ ♥✉❝❧é♦t✐❞❡s ❡♥ ❛♠♦♥t ❡t ❧❡s ✷✵ ♥✉❝❧é♦t✐❞❡s ❡♥ ❛✈❛❧ ❞✉ ❜❧♦❝ ♣♦✉r ❧❡ ♣r❡♠✐❡r ❡t ❧❡s ✷✵ ♥✉❝❧é♦t✐❞❡s ❡♥ ❛♠♦♥t ❡t ❧❡s ✼✵ ♥✉❝❧é♦t✐❞❡s ❡♥ ❛✈❛❧ ❞✉ ❜❧♦❝ ♣♦✉r ❧❡ s❡❝♦♥❞ ♣ré❝✉rs❡✉r✳ ▲❡ ❜❧♦❝ ✐❞❡♥t✐✜é s❡r❛ s♦✐t ❧❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ✸✬ ♣♦✉r ❧❡ ♣r❡♠✐❡r ♣ré❝✉rs❡✉r✱ s♦✐t ❧❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ✺✬ ♣♦✉r ❧❡ s❡❝♦♥❞ ✭✈♦✐r ❋✐❣✉r❡ ✷✳✸ ♣♦✉r ✉♥❡ ✐♥t✉✐t✐♦♥ ❞❡ ❝❡s ❡①tr❛❝t✐♦♥s✮✳ ❈❡tt❡ ❡①tr❛❝t✐♦♥ ❡st ré♣été❡ ♣♦✉r ❧✬❡♥s❡♠❜❧❡ ❞✉ ❣é♥♦♠❡ ❞♦♥♥é ❡♥ ré❢ér❡♥❝❡✳ ❙✐ ❧❡ ♥♦♠❜r❡ ❞❡ ♣ré❝✉rs❡✉rs ♣♦t❡♥t✐❡❧s ✐❞❡♥t✐✜és ❡st ✐♥❢ér✐❡✉r à ✺✵✳✵✵✵✱ ❛❧♦rs ❧✬✐❞❡♥t✐✜❝❛t✐♦♥ ❞❡s ♠✐✲ ❝r♦❆❘◆ ❝♦♥t✐♥✉❡✱ s✐♥♦♥ ❧❡ s❡✉✐❧ ❞❡ t❛✐❧❧❡ ♣♦✉r ❞ét❡❝t❡r ✉♥ ❜❧♦❝ ❡st ❛✉❣♠❡♥té ❞❡ ✶✳ ❋✐❣✳ ✷✳✸ ✕ ▲❡s ❞✐✛ér❡♥❝❡s ❞❡ séq✉❡♥ç❛❣❡ ❡t ❞✬❛❧✐❣♥❡♠❡♥t ❞❡ séq✉❡♥❝❡ ❛tt❡♥❞✉❡s ❡♥tr❡ ❞❡s t✐❣❡✲❜♦✉❝❧❡s q✉✐ s♦♥t ❞❡s ♣ré✲♠✐❝r♦❆❘◆ ✭❆✮ ❡t ❞❡s t✐❣❡✲❜♦✉❝❧❡s q✉✐ ♥❡ s♦♥t ♣❛s ❞❡s ♣ré✲♠✐❝r♦❆❘◆ ✭❇✮✳ ❋✐❣✉r❡ t✐ré❡ ❞❡ ❋r✐❡❞❧❛♥❞❡r ❡t ❛❧✳ ❬✶✵✹❪✳ ❯♥❡ ❢♦✐s ❧❡s ♣ré❝✉rs❡✉rs ♦❜t❡♥✉s✱ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❧❡❝t✉r❡s ❡st ré❛❧✐❣♥é s✉r ❧❡s ♣ré✲ ❝✉rs❡✉rs ♣♦t❡♥t✐❡❧s✱ ❝❡tt❡ ❢♦✐s✲❝✐ ❡♥ ❛✉t♦r✐s❛♥t ❛✉ ♠❛①✐♠✉♠ ✉♥ ♠és❛♣♣❛r✐❡♠❡♥t ♣❛r ❛❧✐❣♥❡♠❡♥t✳ ❙✐ ✉♥❡ ❧❡❝t✉r❡ s✬❛❧✐❣♥❡ ♣❛r❢❛✐t❡♠❡♥t s✉r ✉♥ ♣ré❝✉rs❡✉r ♣♦t❡♥t✐❡❧✱ ❛❧♦rs s❡✉❧ ❧✬❛❧✐❣♥❡♠❡♥t ♣❛r❢❛✐t ❡st ❣❛r❞é✳ ❈❡t ❛❧✐❣♥❡♠❡♥t ❡st ❛✉ss✐ ♠❡♥é s✉r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❞é❥à ✐❞❡♥t✐✜és ♣♦✉r ❝❡tt❡ ❡s♣è❝❡ s✬✐❧s s♦♥t ❢♦✉r♥✐s ♠❛✐s s❛♥s ♠és❛♣♣❛r✐❡♠❡♥t ❛✉t♦r✐sé✳ ➚ ♥♦t❡r q✉❡ s❡✉❧s ❧❡s ❛❧✐❣♥❡♠❡♥ts s✉r ❧❡ ♠ê♠❡ ❜r✐♥ q✉❡ ❧❡ ♣ré❝✉rs❡✉r s♦♥t ❣❛r❞és✳❊①tr❛❝t✐♦♥✱ séq✉❡♥ç❛❣❡ ❡t ❛♥❛❧②s❡ ❞❡s ❧♦♥❣s ❡t ♣❡t✐ts ❆❘◆ ✹✶ ▲✬ét❛♣❡ s✉✐✈❛♥t❡ ❡st ❧❛ ♣ré❞✐❝t✐♦♥ ❞❡s str✉❝t✉r❡s s❡❝♦♥❞❛✐r❡s ❞❡s ♣ré❝✉rs❡✉rs ♣♦t❡♥✲ t✐❡❧s ♣❛r ❘◆❆❢♦❧❞ ❬✶✵✺❪✳ ❯♥❡ ❢♦✐s ❧❛ str✉❝t✉r❡ s❡❝♦♥❞❛✐r❡ ❧❛ ♣❧✉s ♣r♦❜❛❜❧❡ ♦❜t❡♥✉❡ ♣♦✉r ❝❤❛❝✉♥ ❞❡s ♣ré❝✉rs❡✉rs ♣♦t❡♥t✐❡❧s✱ ❧❡s séq✉❡♥❝❡s ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞❡ ❧❛ ❜♦✉❝❧❡ s♦♥t ❞é✜♥✐❡s ❞❡ ❧❛ ❢❛ç♦♥ s✉✐✈❛♥t❡ ✿ ✉♥ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❡st ❞é✜♥✐ ❡♥ ❢♦♥❝t✐♦♥ ❞✉ ❜❧♦❝ q✉✐ ❛ s❡r✈✐ à ✐❞❡♥t✐✜❡r ❝❡ ♣ré❝✉rs❡✉r✱ ❧❡ s❡❝♦♥❞ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❡st ❧❛ séq✉❡♥❝❡ ❝♦♠♣❧é♠❡♥t❛✐r❡ ❞✉ ♣r❡♠✐❡r ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❛ str✉❝t✉r❡ s❡❝♦♥❞❛✐r❡ ♦❜t❡♥✉❡ ❡t ❧❛ ❜♦✉❝❧❡ ❝♦♠♠❡ ❧❛ séq✉❡♥❝❡ ❡♥tr❡ ❝❡s ❞❡✉① séq✉❡♥❝❡s✳ ❉❡ ♣❧✉s✱ ❧❡s ❧❡❝t✉r❡s q✉✐ ♥❡ s✬❛❧✐❣♥❡♥t ♣❛s ❞❡ ❢❛ç♦♥ ❝♦❤ér❡♥t❡ ❛✈❡❝ ❧❡ ❝❧✐✈❛❣❡ ❞✉ ♣ré❝✉rs❡✉r ♣❛r ❉✐❝❡r s♦♥t s✉♣♣r✐♠é❡s✱ ❝✬❡st✲à✲❞✐r❡ q✉❡ ❧❡s ❧❡❝t✉r❡s ❞♦✐✈❡♥t s✬❛❧✐❣♥❡r ✉♥✐q✉❡♠❡♥t s✉r ❧✬✉♥ ❞❡s ❞❡✉① ❜r✐♥s ♦✉ s✉r ❧❛ ❜♦✉❝❧❡ ✭✈♦✐r ❋✐❣✉r❡ ✷✳✸✮ ❛✈❡❝ ✉♥❡ t♦❧ér❛♥❝❡ ❞❡ ❞❡✉① ♥✉❝❧é♦t✐❞❡s✳ ❉❡s ✜❧tr❡s s✉♣♣❧é♠❡♥t❛✐r❡s s♦♥t ❡♥s✉✐t❡ ♠✐s ❡♥ ♣❧❛❝❡ ✿ ✕ ▲❛ t✐❣❡✲❜♦✉❝❧❡ ❢♦r♠é❡ ♥❡ ❞♦✐t ♣❛s ❛✈♦✐r ❞❡ ❜✐❢✉r❝❛t✐♦♥ ❀ ✕ ✻✵ ✪ ♦✉ ♣❧✉s ❞❡s ♥✉❝❧é♦t✐❞❡s ❞✉ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❞é✜♥✐ ♣❛r ❧❡ ❜❧♦❝ ❞♦✐✈❡♥t êtr❡ ❛♣♣❛r✐és ❀ ✕ ▼♦✐♥s ❞❡ ✶✵ ✪ ❞❡s ❧❡❝t✉r❡s ❞♦✐✈❡♥t ♥❡ ♣❛s êtr❡ ❛❧✐❣♥é❡s ❞❡ ❢❛ç♦♥ ❝♦❤ér❡♥t❡ ❛✈❡❝ ❧❡ ❝❧✐✈❛❣❡ ♣❛r ❉✐❝❡r✳ ▲❛ ♣r♦❜❛❜✐❧✐té ♣♦✉r ✉♥❡ séq✉❡♥❝❡ ❞✬❆❘◆ ❞♦♥♥é❡ q✉❡ ❧✬é♥❡r❣✐❡ ❧✐❜r❡ ♠✐♥✐♠✉♠ ❞❡ s❛ str✉❝t✉r❡ s❡❝♦♥❞❛✐r❡ s♦✐t ❞✐✛ér❡♥t❡ ❞❡ ❝❡❧❧❡ ❞✬✉♥❡ séq✉❡♥❝❡ ❛❧é❛t♦✐r❡ ❡st ❡st✐♠é❡ à ❧✬❛✐❞❡ ❞✉ ❧♦❣✐❝✐❡❧ r❛♥❞❢♦❧❞ ❬✶✵✻❪✳ P✉✐s✱ ♣♦✉r ❝❤❛❝✉♥ ❞❡s ♣ré❝✉rs❡✉rs✱ ✉♥ s❝♦r❡ ❡st ❝❛❧❝✉❧é q✉✐ r❡♣rés❡♥t❡ ❧❛ ♣r♦❜❛❜✐❧✐té q✉❡ ❧❡ ♣ré❝✉rs❡✉r ♣♦t❡♥t✐❡❧ s♦✐t ✉♥ ✈r❛✐ ♣ré✲♠✐❝r♦❆❘◆✳ P♦✉r ♣❧✉s ❞❡ ❞ét❛✐❧ s✉r ❧❡ ❝❛❧❝✉❧ ❞❡ ❝❡ s❝♦r❡✱ ✈♦✐r ❧❛ ♣✉❜❧✐❝❛t✐♦♥ ❞❡ ♠✐❘❉❡❡♣ ♣❛r ❋r✐❡❞❧❛♥❞❡r ❡t ❛❧✳ ❬✶✵✹❪✳ ❆✜♥ ❞❡ ♣ré❞✐r❡ ❧❡s ♠✐❝r♦❆❘◆ ❝❤❡③ ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✱ ❧❡s séq✉❡♥❝❡s ❞❡ ♣❡t✐ts ❆❘◆ ♦❜t❡♥✉❡s s✉r ❧❡s ❡♠❜r②♦♥s ❛s❡①✉és ❡t s❡①✉és ♦♥t été ✉t✐❧✐sé❡s✳ ▼✐❘❉❡❡♣✷ ❛ été ✉t✐❧✐sé s✉r ❝❡s ❧❡❝t✉r❡s ❛✈❡❝ ❧❡ ❣é♥♦♠❡ ❞❡ ré❢ér❡♥❝❡ ❞✬❆✳ ♣✐s✉♠ ❡t ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♣ré✲ ❝é❞❡♠♠❡♥t ✐❞❡♥t✐✜és ♣❛r ▲❡❣❡❛✐ ❡t ❛❧✳ ❬✽✶❪✳ ❘❡❣r♦✉♣❡♠❡♥t ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ✿ ❧✬♦✉t✐❧ ❝❧✉st❡r ❞❡ ❧❛ s✉✐t❡ ❧♦❣✐❝✐❡❧❧❡ ❜❡❞t♦♦❧s ❇❡❞❚♦♦❧s ❡st ✉♥❡ s✉✐t❡ ❧♦❣✐❝✐❡❧❧❡ ❞é✈❡❧♦♣♣é❡ ♣❛r ◗✉✐♥❧❛♥ ❡t ❍❛❧❧ ❬✶✵✼❪ ♣❡r♠❡tt❛♥t ❞✬❡✛❡❝t✉❡r ✉♥ ❣r❛♥❞ ♥♦♠❜r❡ ❞✬❛♥❛❧②s❡s ❣é♥♦♠✐q✉❡s✳ ◆♦t❛♠♠❡♥t✱ ♥♦✉s ❛✈♦♥s ✉t✐❧✐sé ❧✬♦✉t✐❧ ❝❧✉st❡r q✉✐ ♣❡r♠❡t ❞❡ r❡❣r♦✉♣❡r ❞❡s é❧é♠❡♥ts ❣é♥♦♠✐q✉❡s ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❡✉rs ♣♦s✐t✐♦♥s s✉r ❧❡ ❣é♥♦♠❡✳ ❈❡t ♦✉t✐❧ r❡❣r♦✉♣❡ ❧❡s ❣è♥❡s ❛✉ s❡✐♥ ❞✉ ♠ê♠❡ ❝❧✉st❡r s✐✱ ❞❡ ♣r♦❝❤❡ ❡♥ ♣r♦❝❤❡✱ ✐❧s s♦♥t à ✉♥❡ ❞✐st❛♥❝❡ q✉✐ ❡st ✐♥❢ér✐❡✉r❡ à ✉♥ s❡✉✐❧ ✜①é ♣❛r ❧✬✉t✐❧✐s❛t❡✉r✳ ▼❛t❤é♠❛t✐q✉❡♠❡♥t✱ ❝✬❡st ✉♥❡ ❛♣♣r♦❝❤❡ q✉✐ ♣❡r♠❡t ❞✬♦❜t❡♥✐r ❧❡s ❝♦♠♣♦s❛♥t❡s ❝♦♥♥❡①❡s ❞✉ ❣r❛♣❤❡ ❞❡s é❧é♠❡♥ts à ✉♥❡ ❞✐st❛♥❝❡ ✐♥❢ér✐❡✉r ❛✉ s❡✉✐❧✳ ❯♥ ❛✉tr❡ ♣❛r❛♠ètr❡ ♣❡r♠❡t ❞❡ ❝❤♦✐s✐r s✐ ❧❡ r❡❣r♦✉♣❡♠❡♥t ❡st ❡✛❡❝t✉é ♣♦✉r ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ q✉✐ s♦♥t s✉r ❧❡ ♠ê♠❡ ❜r✐♥ ♦✉ ♥♦♥✳ ❈❡ ❧♦❣✐❝✐❡❧ ❛ été ✉t✐❧✐sé ♣♦✉r ❞é✜♥✐r ❧❡s ❝❧✉st❡rs ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ s✉r ✉♥ ♠ê♠❡ ❜r✐♥ ❡t ❛✈❡❝ ✉♥❡ ❞✐st❛♥❝❡ s❡✉✐❧ ❞❡ ✷ ❦❜ à ❧❛ ❢♦✐s ♣♦✉r ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ❡t ♣♦✉r ❉r♦s♦♣❤✐❧❛ ♠❡❧❛♥♦❣❛st❡r✳✹✷ ❈❛t❛❧♦❣✉❡s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ Pré❞✐❝t✐♦♥ ❞❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✿ ❚❛r❣❡t❙❝❛♥ ✈❡rs✐♦♥ ✺ ▲❛ ♠ét❤♦❞❡ ❚❛r❣❡t❙❝❛♥ ❬✺✶❪ ♣❡r♠❡t ❞❡ ♣ré❞✐r❡ ❞❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s✉r ❞❡s séq✉❡♥❝❡s✱ ❝❧❛ss✐q✉❡♠❡♥t ❧❡s ✸✬❯❚❘ ❞✬❆❘◆♠✱ ♣✉✐s ❞❡ ❧❡✉r ❛ss♦❝✐❡r ✉♥ s❝♦r❡ q✉✐ r❡♣rés❡♥t❡ ❧✬❡✣❝❛❝✐té ❞❡ ❧❛ ré♣r❡ss✐♦♥ ❞✉ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ s✉r ❧✬❆❘◆♠✳ P♦✉r ❝❡ ❢❛✐r❡✱ ❧❛ ♠ét❤♦❞❡ ♣r♦❝è❞❡ ❞✬❛❜♦r❞ à ❧❛ ❞ét❡❝t✐♦♥ ❞❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ♣♦t❡♥t✐❡❧s ♣❛r ❝♦♠♣❧é♠❡♥t❛r✐té ❞❡ séq✉❡♥❝❡ ❡♥tr❡ ✉♥❡ s♦✉s séq✉❡♥❝❡ ❞✉ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❡t ❧❛ séq✉❡♥❝❡ ❞✉ ✸✬❯❚❘ ❞❡ ❧✬❆❘◆♠✳ ❚r♦✐s t②♣❡s ❞❡ ❝♦♠♣❧é♠❡♥t❛r✐té s♦♥t ❝♦♥s✐❞érés ❝♦♠♠❡ ❞❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ♣♦t❡♥t✐❡❧s ❞é❝r✐s ❝✐✲❞❡ss♦✉s ❡t ♣rés❡♥tés ❋✐❣✉r❡ ✷✳✹ ✿ ✕ ❯♥❡ ❝♦♠♣❧é♠❡♥t❛r✐té ❞✉ ✷è♠❡ ❛✉ ✼è♠❡ ♥✉❝❧é♦t✐❞❡ ❞✉ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ s✉r ❧❡ ✸✬❯❚❘ ❞❡ ❧✬❆❘◆♠ ❡t ✉♥❡ ❛❞é♥✐♥❡ ❞✐r❡❝t❡♠❡♥t ❡♥ ❛✈❛❧ ❞✉ s✐t❡ ❞❡ ✜①❛t✐♦♥ s✉r ❧❡ ✸✬❯❚❘ ❛♣♣❡❧é ✼♠❡r✲❆✶ ❀ ✕ ❯♥❡ ❝♦♠♣❧é♠❡♥t❛r✐té ❞✉ ✷è♠❡ ❛✉ ✽è♠❡ ♥✉❝❧é♦t✐❞❡ ❞✉ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ s✉r ❧❡ ✸✬❯❚❘ ❞❡ ❧✬❆❘◆♠ ❛♣♣❡❧é ✼♠❡r✲♠✽ ❀ ✕ ❯♥❡ ❝♦♠♣❧é♠❡♥t❛r✐té ❞✉ ✷è♠❡ ❛✉ ✽è♠❡ ♥✉❝❧é♦t✐❞❡ ❞✉ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ s✉r ❧❡ ✸✬❯❚❘ ❞❡ ❧✬❆❘◆♠ ❡t ✉♥❡ ❛❞é♥✐♥❡ ❞✐r❡❝t❡♠❡♥t ❡♥ ❛✈❛❧ ❞✉ s✐t❡ ❞❡ ✜①❛t✐♦♥ s✉r ❧❡ ✸✬❯❚❘ ❛♣♣❡❧é ✽♠❡r✳ ❋✐❣✳ ✷✳✹ ✕ ▲❡s ❞✐✛ér❡♥ts s✐t❡s ❞❡ ✜①❛t✐♦♥ ✉t✐❧✐sés ♣❛r ❚❛r❣❡t❙❝❛♥✳ ■♠❛❣❡ ❛❞❛♣té❡ ❞❡ ●r✐♠s♦♥ ❡t ❛❧✳ ❬✺✶❪✳ ▲❡s ❛✉t❡✉rs ❞❡ ❧❛ ♠ét❤♦❞❡ ♦♥t ❞é✜♥✐ ✉♥ ♠♦❞è❧❡ ❛✜♥ ❞❡ ❝❛❧❝✉❧❡r✱ ♣♦✉r ❝❤❛❝✉♥ ❞❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❞ét❡❝tés✱ ✉♥ s❝♦r❡ ❣❧♦❜❛❧ à ♣❛rt✐r ❞❡ ✹ ❝r✐tèr❡s ✿ ✕ ▲❡ t②♣❡ ❞❡ s✐t❡ ❞❡ ✜①❛t✐♦♥ ✿ ❧✬❡✣❝❛❝✐té ❞❡ ❧❛ ré♣r❡ss✐♦♥ ❡st ❧❛ ♣❧✉s é❧❡✈é❡ ♣♦✉r ❧❡s s✐t❡s ❞❡ t②♣❡ ✽♠❡r✱ ♣✉✐s ✼♠❡r✲♠✽ ❡t ✼♠❡r✲❆✶ ❛ ❧❛ ré♣r❡ss✐♦♥ ❧❛ ♣❧✉s ❢❛✐❜❧❡ ❀ ✕ ▲❛ ♣♦s✐t✐♦♥ ❞✉ s✐t❡ ❞❡ ✜①❛t✐♦♥ s✉r ❧❡ ✸✬❯❚❘ ✿ ❧❛ ré♣r❡ss✐♦♥ ❡st ♣❧✉s é❧❡✈é❡ s✬✐❧ s❡ s✐t✉❡ à ❧✬✉♥❡ ❞❡s ❡①tré♠✐tés ❀ ✕ ▲❡ ♣♦✉r❝❡♥t❛❣❡ ❡♥ ❆✴❯ ❛✉t♦✉r ❞✉ s✐t❡ ❞❡ ✜①❛t✐♦♥ ✿ ♣❧✉s ❝❡ ♣♦✉r❝❡♥t❛❣❡ ❡st é❧❡✈é ♣❧✉s ❧❛ ré♣r❡ss✐♦♥ ❡st ❢♦rt❡ ❀ ✕ ▲❛ ❝♦♠♣❧é♠❡♥t❛r✐té ❞✉ ✸✬ ❞✉ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❛✈❡❝ ❧❡ ✸✬❯❚❘ ✿ ❧❛ ré♣r❡ss✐♦♥ ❡st ❞✬❛✉t❛♥t ♣❧✉s é❧❡✈é❡ q✉❡ ❧❛ ❝♦♠♣❧é♠❡♥t❛r✐té ❡st ❢♦rt❡✳ ▲❡ s❝♦r❡ ❣❧♦❜❛❧ ♦❜t❡♥✉ r❡✢èt❡ ❧✬❡✣❝❛❝✐té ❞❡ ❧❛ ✜①❛t✐♦♥ ❞✉ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ s✉r ❧✬❆❘◆♠ à ❧✬❛✐❞❡ ❞❡ ❝❡ s✐t❡ ❞❡ ✜①❛t✐♦♥✳ ➚ ♥♦t❡r q✉❡ ♣❧✉s ❧❡ s❝♦r❡ ❣❧♦❜❛❧ ❡st ❜❛s✱ ♣❧✉s ❧✬❡✣❝❛❝✐té❊①tr❛❝t✐♦♥✱ séq✉❡♥ç❛❣❡ ❡t ❛♥❛❧②s❡ ❞❡s ❧♦♥❣s ❡t ♣❡t✐ts ❆❘◆ ✹✸ ♣ré❞✐t❡ ❡st é❧❡✈é❡✳ ❉❡ ♣❧✉s✱ s✐ ✉♥ s✐t❡ ❞❡ ✜①❛t✐♦♥ ❡st à ✶✵ ♥✉❝❧é♦t✐❞❡s ♦✉ ♠♦✐♥s ❞✉ ❝♦❞♦♥ st♦♣ ✭❧❡ ❞é❜✉t ❞✉ ✸✬❯❚❘✮ ❛❧♦rs ❚❛r❣❡t❙❝❛♥ ♥❡ ❝❛❧❝✉❧❡ ♣❛s ❞❡ s❝♦r❡ ❣❧♦❜❛❧✳ ■❧ ✐♥❞✐q✉❡ q✉❡ ❧❡ s✐t❡ ❞❡ ✜①❛t✐♦♥ ❡st tr♦♣ ♣r♦❝❤❡ ♣❛r r❛♣♣♦rt à ❧✬❡♥❝♦♠❜r❡♠❡♥t stér✐q✉❡ ❞✉ ❝♦♠♣❧❡①❡ ♣r♦té✐q✉❡ ❘■❙❈ ✭♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❡t ♣r♦té✐♥❡s ❛r❣♦♥❛✉t❡s✮ ❡t ❞❡ ❧❛ ♠❛❝❤✐♥❡r✐❡ ❞❡ ❧❛ tr❛❞✉❝t✐♦♥✳ ❆✜♥ ❞❡ ♣ré❞✐r❡ ❧❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠✱ ❧✬❡♥s❡♠❜❧❡ ❞❡s ✸✬❯❚❘ ❞✐s♣♦♥✐❜❧❡s ✭✸✺✳✹✻✷✮ ❡t ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✭✽✵✷✮ ♦♥t été ✉t✐❧✐sés ❛✈❡❝ ❧❛ ✈❡rs✐♦♥ ✺✳✵ ❞❡ ❚❛r❣❡t❙❝❛♥✳ ❚❛r❣❡t❙❝❛♥ ♣ré❞✐t ✉♥ ❡♥s❡♠❜❧❡ ❞❡ ✹✳✷✸✵✳✶✻✽ s✐t❡s ❞❡ ✜①❛t✐♦♥ ❞♦♥t ✾✵✳✹✶✵ s♦♥t ♥♦tés ❝♦♠♠❡ tr♦♣ ♣r♦❝❤❡s ✭✈♦✐r ❝✐✲❞❡ss✉s✮✳ ▲❡s ✹✳✶✸✾✳✼✺✽ s✐t❡s ❞❡ ✜①❛t✐♦♥ r❡st❛♥ts s♦♥t ✉t✐❧✐sés ♣♦✉r ❧❛ s✉✐t❡ ❞❡s ❛♥❛❧②s❡s✳ ■❧ ❡st à ♥♦t❡r q✉❡ ❚❛r❣❡t❙❝❛♥ ♣❡r♠❡t ❞❡ ♥❡ ❣❛r❞❡r q✉❡ ❧❡s ❝♦♠♣❧é♠❡♥t❛r✐tés ❡♥tr❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ✸✬❯❚❘ q✉✐ s♦♥t ❝♦♥s❡r✈é❡s ❝❤❡③ ♣❧✉s✐❡✉rs ❡s♣è❝❡s✳ P♦✉r ❝❡ ❢❛✐r❡✱ ❚❛r❣❡t❙❝❛♥ ✉t✐❧✐s❡ ❧❡s ❛❧✐❣♥❡♠❡♥ts ♠✉❧t✐♣❧❡s ❞❡s séq✉❡♥❝❡s ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞❡s ✸✬❯❚❘ ♣♦✉r ❞é✜♥✐r ❧❡s é❧é♠❡♥ts ❝♦♥s❡r✈és✳ ◆♦✉s ♥✬❛✈♦♥s ♣❛s ♣✉ ✉t✐❧✐s❡r ❝❡tt❡ ♣♦ss✐❜✐❧✐té ❝❛r ♥♦✉s ♥✬❛✈✐♦♥s ♣❛s ❞❡ ♣ré❞✐❝t✐♦♥s ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞❡ ✸✬❯❚❘ ♣♦✉r ❞❡s ❡s♣è❝❡s ❞❡ ♣✉❝❡r♦♥ ❛✉tr❡s q✉✬❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠✳ ✷✳✶✳✹ ❇❛s❡s ❞❡ ❞♦♥♥é❡s ✉t✐❧✐sé❡s ▼✐❘❇❛s❡ ▼✐❘❇❛s❡ ❬✶✾✱ ✷✵✱ ✷✶✱ ✷✷✱ ✷✸❪ ❡st ✉♥❡ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ré♣❡rt♦r✐❛♥t ❞❡s séq✉❡♥❝❡s ❞❡ ♠✐❝r♦❆❘◆ ♣✉❜❧✐é❡s✱ ❛♥♥♦té❡s ❡t ♠✐s❡s à ❥♦✉r ♣❛r ❧❛ ❝♦♠♠✉♥❛✉té s❝✐❡♥t✐✜q✉❡✳ ❈❡s ❛♥♥♦✲ t❛t✐♦♥s ❝♦♠♣♦rt❡♥t à ❧❛ ❢♦✐s ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ❧❡s ♣ré❝✉rs❡✉rs ❞❡ ♠✐❝r♦❆❘◆ ❛✈❡❝ ❧❡✉r str✉❝t✉r❡ s❡❝♦♥❞❛✐r❡✱ ❧❡s ♣♦s✐t✐♦♥s ❝♦rr❡s♣♦♥❞❛♥t ❛✉① ♣ré❝✉rs❡✉rs ❞❡ ♠✐❝r♦❆❘◆ ❡t s✐ ❞✐s♣♦♥✐❜❧❡✱ ❧❡ ♥♦♠❜r❡ ❞❡ ❜❛♥q✉❡s ❞❡ séq✉❡♥ç❛❣❡✱ ❧❡ ♥♦♠❜r❡ ❞❡ ❧❡❝t✉r❡s ❝♦rr❡s♣♦♥✲ ❞❛♥t ❛✉① ❞✐✛ér❡♥ts ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❧❡s ❝✐❜❧❡s ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♣ré❞✐t❡s ♣❛r ❞✐✛ér❡♥t❡s ♠ét❤♦❞❡s✳ ❊♥ ♣❧✉s ❞❡ ❝❡s ❛♥♥♦t❛t✐♦♥s✱ ♠✐❘❇❛s❡ ❢♦✉r♥✐t ❞❡s rè❣❧❡s ♣♦✉r ♥♦♠♠❡r ❧❡s ♥♦✉✈❡❛✉① ♠✐❝r♦❆❘◆ ✐❞❡♥t✐✜és✳ ▲❛ ✈❡rs✐♦♥ ❞❡ ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s q✉❡ ♥♦✉s ❛✈♦♥s ✉t✐❧✐sé❡ ét❛✐t ❧❛ ✈❡rs✐♦♥ ✷✵ ❞❛t❛♥t ❞❡ ❏✉✐♥ ✷✵✶✸✳ ❯♥❡ ✈❡rs✐♦♥ ♣❧✉s ré❝❡♥t❡ ❡①✐st❡ ✭❏✉✐♥ ✷✵✶✹✮ ♠❛✐s ❧❡s rés✉❧t❛ts ♦♥t été ♦❜t❡♥✉s ❛✈❛♥t ❝❡tt❡ ♠✐s❡ à ❥♦✉r✳ ❘❡❢❙❡q ❘❡❢❙❡q ❬✶✵✽❪ ❡st ✉♥❡ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ❞✉ ◆❈❇■ ❞❡ séq✉❡♥❝❡s ♥♦♥✲r❡❞♦♥❞❛♥t❡s ❡t ❛♥♥♦té❡s ♣❛r ❧❡s ♠❡♠❜r❡s ❞✉ ◆❈❇■✳ ❙✉✐✈❛♥t ❧❡s séq✉❡♥❝❡s✱ ❝❡s ❛♥♥♦t❛t✐♦♥s s♦♥t à ❧❛ ❢♦✐s ♦❜t❡♥✉❡s ♣❛r ✉♥ ♣r♦❝❡ss✉s ❞✬❛♥♥♦t❛t✐♦♥ ❛✉t♦♠❛t✐q✉❡ ❡t ♣❛r ✉♥❡ ❛♥♥♦t❛t✐♦♥ ❡①♣❡rt❡✳ ❆♣❤✐❞❇❛s❡ ❆♣❤✐❞❇❛s❡ ❬✼✽❪✱ ❞é✈❡❧♦♣♣é❡ ❡♥ ♣❛rt✐❡ ❞❛♥s ❧✬éq✉✐♣❡ ➱❝♦❧♦❣✐❡ ❡t ●é♥ét✐q✉❡ ❞❡s ■♥✲ s❡❝t❡s✱ r❡❣r♦✉♣❡ ✉♥ ❡♥s❡♠❜❧❡ ❞❡ r❡ss♦✉r❝❡s ❞✐s♣♦♥✐❜❧❡s ♣♦✉r ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ t❡❧❧❡s q✉❡ ❧✬❛♥♥♦t❛t✐♦♥ ❞❡s ❣è♥❡s✱ ❧✬❛♥♥♦t❛t✐♦♥ ❞❡s ♣r♦té✐♥❡s ♦✉ ❡♥❝♦r❡ ❧❛ ✈✐s✉❛❧✐s❛t✐♦♥ ❞✉ ❣é♥♦♠❡ ❞✬❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ❡t ❞❡s ❣è♥❡s✳✹✹ ❈❛t❛❧♦❣✉❡s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ P❤②❧♦♠❡❉❇ ▲❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s P❤②❧♦♠❡❉❇ ✈❡rs✐♦♥ ✹ ❬✶✵✾❪ r❡❣r♦✉♣❡ ❧❡s ❛r❜r❡s ♣❤②❧♦❣é♥ét✐q✉❡s ❞❡ ❣è♥❡s ❞✬❆❘◆♠ ♣❡r♠❡tt❛♥t ❞❡ ❞é✜♥✐r ❞❡s r❡❧❛t✐♦♥s ❞✬♦rt❤♦❧♦❣✐❡ ❡t ❞❡ ♣❛r❛❧♦❣✐❡✳ ❆✐♥s✐✱ ✐❧ ❡st ♣♦ss✐❜❧❡ ❞❡ s❛✈♦✐r s✐ ❞❡✉① ❣è♥❡s s♦♥t ✐ss✉s ❞❡ ❧❛ ❞✉♣❧✐❝❛t✐♦♥ ❞✬✉♥ ♠ê♠❡ ❣è♥❡ ❛♥❝❡str❛❧ ♣♦✉r ❞✐✛ér❡♥t❡s ❡s♣è❝❡s✳ ❋❧②❇❛s❡ ❋❧②❇❛s❡ ❬✶✶✵❪ ❡st ✉♥❡ ❜❛s❡ ❞❡ ❞♦♥♥é❡s q✉✐ r❡❣r♦✉♣❡ ❧❡s ❣é♥♦♠❡s✱ ❧❡s ❣è♥❡s ❡t ❧❡✉rs ❛♥✲ ♥♦t❛t✐♦♥s ♣♦✉r ❞✐✛ér❡♥t❡s ❡s♣è❝❡s ❞❡ ❉r♦s♦♣❤✐❧❛✳ ❊❧❧❡ ♣❡r♠❡t ♥♦t❛♠♠❡♥t ❞❡ té❧é❝❤❛r❣❡r ❧❡s séq✉❡♥❝❡s ❞❡s ❣è♥❡s✱ ❞❡s tr❛♥s❝r✐ts ♦✉ ❡♥❝♦r❡ ❞❡s ✸✬❯❚❘ ❞❡s ❣è♥❡s✳❈❛t❛❧♦❣✉❡ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡s ❆❘◆♠✱ ❞❡s ♠✐❝r♦❆❘◆ ❡t ❞❡ ❧❡✉rs ✐♥t❡r❛❝t✐♦♥s ✹✺ ✷✳✷ ❘és✉❧t❛ts ✿ ❝❛t❛❧♦❣✉❡ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡s ❆❘◆♠✱ ❞❡s ♠✐❝r♦❆❘◆ ❡t ❞❡ ❧❡✉rs ✐♥t❡r❛❝t✐♦♥s ❈❡tt❡ ♣❛rt✐❡ ♣rés❡♥t❡ ❧✬❡①tr❛❝t✐♦♥ ❞❡s ✸✬❯❚❘ ❞❡s ❆❘◆♠✱ ❧✬❛♥❛❧②s❡ ❞✉ ♥♦✉✈❡❛✉ ❝❛✲ t❛❧♦❣✉❡ ❞❡s ❣è♥❡s ❝♦❞❛♥t ♣♦✉r ❞❡s ♠✐❝r♦❆❘◆ ❡t ❧❡s ✐♥t❡r❛❝t✐♦♥s ❡♥tr❡ ❝❡s ❆❘◆♠ ❡t ❝❡s ♠✐❝r♦❆❘◆ ♣♦✉r ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠✳ ❈❡s ❧✐st❡s ♦♥t été ét❛❜❧✐❡s ❡♥ s❡ ❜❛s❛♥t s✉r ❧❛ ✈❡rs✐♦♥ ✷✳✶ ❞✉ ❣é♥♦♠❡ ❞✬❆✳ ♣✐s✉♠ ▲❙❘✶ ❛✐♥s✐ q✉❡ s✉r ❞❡s ❞♦♥♥é❡s ❞❡ séq✉❡♥ç❛❣❡ ❞é❝r✐t❡s ❞❛♥s ❧❛ ♣❛rt✐❡ ✷✳✶✳✷✳ ✷✳✷✳✶ ▲❡s ❆❘◆♠ Pré❞✐❝t✐♦♥ ❞❡s ✸✬❯❚❘ ▲❡s ♠✐❝r♦❆❘◆ r❡❝♦♥♥❛✐ss❛♥t ❞❡ ❢❛ç♦♥ ♣ré❢ér❡♥t✐❡❧❧❡ ❧❡s ré❣✐♦♥s ✸✬❯❚❘ ❞❡s ❆❘◆♠✱ ❋❛❜r✐❝❡ ▲❡❣❡❛✐ ❛ ré❛❧✐sé ❧✬✐♥✈❡♥t❛✐r❡ ❞❡ ❝❡s ré❣✐♦♥s✳ ❉❡✉① ❝❛s ❞❡ ♣ré❞✐❝t✐♦♥ ❞❡ ✸✬❯❚❘ s❡ ♣rés❡♥t❡♥t ♣♦✉r ✉♥ ❆❘◆♠ ✿ s♦✐t ❧❡ ✸✬❯❚❘ ♣❡✉t êtr❡ ♣ré❞✐t ❡♥ ✐♥té❣r❛♥t ❞❡s ❧❡❝t✉r❡s ✐ss✉❡s ❞❡ ❘◆❆✲❙❡q s✬❛❧✐❣♥❛♥t ❡♥ ❛✈❛❧ ❞✉ ❝♦❞♦♥ st♦♣ ♣ré❞✐t✱ s♦✐t ❧❡s ✶✳✵✵✵ ❜❛s❡s ❡♥ ❛✈❛❧ ❞✉ ❝♦❞♦♥ st♦♣ ♣ré❞✐t ♦♥t été ❞é✜♥✐❡s ❝♦♠♠❡ ❧❡ ✸✬❯❚❘ ♣ré❞✐t✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ✸✻✳✾✾✵ ❆❘◆♠✱ ✶✳✺✷✽ ♥✬♦♥t ♣❛s ❞❡ ✸✬❯❚❘ ❝❛r ✐❧s s♦♥t à ❧❛ ❧✐♠✐t❡ ❞✬✉♥ s❝❛✛♦❧❞✳ ✷✳✷✳✷ ▲❡s ♠✐❝r♦❆❘◆ ❉é✜♥✐t✐♦♥s ◆♦✉s ❞✐st✐♥❣✉❡r♦♥s ✉♥ ❣è♥❡ ❞❡ ♠✐❝r♦❆❘◆✱ ✉♥ ♣ré❝✉rs❡✉r ❞❡ ♠✐❝r♦❆❘◆ ❡t ✉♥ ♠✐✲ ❝r♦❆❘◆ ♠❛t✉r❡ ❝♦♠♠❡ s✉✐t ✿ ✕ ●è♥❡ ❞❡ ♠✐❝r♦❆❘◆ ✿ ❝✬❡st ❧❛ ♣♦s✐t✐♦♥ ❞❡ ❞é❜✉t ❡t ❞❡ ✜♥ s✉r ❧❡ ❣é♥♦♠❡ ❞❡ ❧❛ séq✉❡♥❝❡ ❝♦❞❛♥t ♣♦✉r ✉♥ ♣ré❝✉rs❡✉r ❞❡ ♠✐❝r♦❆❘◆ ❀ ✕ Pré❝✉rs❡✉r ❞❡ ♠✐❝r♦❆❘◆ ✿ ❝✬❡st ❧❛ séq✉❡♥❝❡ ❞✬❆❘◆ q✉✐ ❡st tr❛♥s❝r✐t❡ à ♣❛rt✐r ❞✉ ❣è♥❡ ❞✉ ♠✐❝r♦❆❘◆ ❡t q✉✐ s❡ r❡♣❧✐❡ ❡♥ ✉♥❡ str✉❝t✉r❡ ❡♥ t✐❣❡✲❜♦✉❝❧❡ ❀ ✕ ▼✐❝r♦❆❘◆ ♠❛t✉r❡s ✺♣ ❡t ✸♣ ✿ ❝❡ s♦♥t ❧❡s ♠✐❝r♦❆❘◆ q✉✐ ✈♦♥t s❡ ✜①❡r s✉r ❧❡ ✸✬❯❚❘ ❞❡ ❧✬❆❘◆♠ ❡t ♣♦t❡♥t✐❡❧❧❡♠❡♥t ré♣r✐♠❡r s❛ tr❛❞✉❝t✐♦♥ ♦✉ ✐♥❞✉✐r❡ s♦♥ ❝❧✐✈❛❣❡✳ ■❧s s♦♥t t♦✉s ❞❡✉① ✐ss✉s ❞❡ ❧❛ t✐❣❡ ❞✉ ♣ré❝✉rs❡✉r ❞✉ ♠✐❝r♦❆❘◆✳ ▲❡s ♠✐❝r♦❆❘◆ ♠❛✲ t✉r❡s ✺♣ ❡t ✸♣ s♦♥t r❡s♣❡❝t✐✈❡♠❡♥t s✐t✉és ❡♥ ❛♠♦♥t ❡t ❡♥ ❛✈❛❧ ❞❡ ❧❛ ❜♦✉❝❧❡ ❞✉ ♣ré❝✉rs❡✉r✳ ❉❡✉① ❣è♥❡s ❞✐✛ér❡♥ts ✭à ❞❡s ♣♦s✐t✐♦♥s ❞✐✛ér❡♥t❡s s✉r ❧❡ ❣é♥♦♠❡✮ ♣❡✉✈❡♥t ♣rés❡♥t❡r ❧❛ ♠ê♠❡ séq✉❡♥❝❡ ❡t ❞♦♥❝ ♣r♦❞✉✐r❡ ❧❡ ♠ê♠❡ ♣ré❝✉rs❡✉r✳ ▲❡s ♥♦♠s ❞❡s ♠✐❝r♦❆❘◆ s♦♥t ❝♦♥st✐t✉és ❞❡ ♣❧✉s✐❡✉rs ♣❛rt✐❡s✱ t♦✉t❡s sé♣❛ré❡s ♣❛r ✉♥ ✓ ✲ ✔✱ ❝♦♠♠❡ ♣❛r ❡①❡♠♣❧❡ ❛♣✐✲♠✐r✲✶✲✺♣ ✿ ✕ ▲❛ ♣r❡♠✐èr❡ ♣❛rt✐❡ r❡♣rés❡♥t❡ ❧✬❡s♣è❝❡✱ ✐❝✐ ✓ ❛♣✐ ✔ ♣♦✉r ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ❀ ✕ ▲❛ ❞❡✉①✐è♠❡ ♣❛rt✐❡ ❡st s♦✐t ✓ ♠✐r ✔ ♣♦✉r ✉♥ ♣ré❝✉rs❡✉r s♦✐t ✓ ♠✐❘ ✔ ♣♦✉r ✉♥ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❀ ✕ ▲❛ tr♦✐s✐è♠❡ ♣❛rt✐❡ r❡♣rés❡♥t❡ ❧❡ ♥✉♠ér♦ ❞✉ ♣ré❝✉rs❡✉r ❞❡ ♠✐❝r♦❆❘◆ ❛ss♦❝✐é✳ ❙✐ ❧❛ séq✉❡♥❝❡ ❞✉ ♣ré❝✉rs❡✉r ❛ ❞é❥à été ✐❞❡♥t✐✜é❡ ❞❛♥s ✉♥❡ ❛✉tr❡ ❡s♣è❝❡ ✭❞♦♥❝ ❡st ♣rés❡♥t❡ ❞❛♥s ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ♠✐❘❇❛s❡✮✱ ❛❧♦rs ❧❡ ♥✉♠ér♦ s❡r❛ ✐❞❡♥t✐q✉❡ à ❝❡❧✉✐ ❞❡ ❧✬❛✉tr❡ ❡s♣è❝❡✳ ❙✐♥♦♥ ❝❡ ♥✉♠ér♦ ❡st ✐♥❝ré♠❡♥t❛❧ à ♣❛rt✐r ❞✬✉♥ ♥✉♠ér♦ q✉✐ ♥✬❡st ♣❛s ♣rés❡♥t ❞❛♥s ❧❛ ❜❛s❡ ♠✐❘❇❛s❡ ❀✹✻ ❈❛t❛❧♦❣✉❡s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ✕ ▲❛ q✉❛tr✐è♠❡ ♣❛rt✐❡ ❡st s♣é❝✐✜q✉❡ ❛✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✳ ▲❡s ♥♦♠s s❡r♦♥t s✉✐✈✐s ♣❛r ✓ ✲✺♣ ✔ ❡t ✓ ✲✸♣ ✔ r❡s♣❡❝t✐✈❡♠❡♥t ♣♦✉r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✺♣ ❡t ✸♣✳ ➚ ♥♦t❡r q✉❡ ✐❝✐✱ ❧❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ q✉✐ s♦♥t ♥♦✉✈❡❧❧❡♠❡♥t ✐❞❡♥t✐✜és ♣❛r ❧❡s ♥♦✉✈❡❛✉① ❥❡✉① ❞❡ séq✉❡♥ç❛❣❡ ❝❤❡③ ❆✳ ♣✐s✉♠ ♣♦rt❡r♦♥t ❝♦♠♠❡ ✐❞❡♥t✐✜❛♥t ✓ ♥♦✈❡❧❳ ✔ ❛✈❡❝ ❳ ❛❧❧❛♥t ❞❡ ✶ ❛✉ ♥♦♠❜r❡ ♠❛①✐♠✉♠ ❞❡ ♥♦✉✈❡❛✉① ❣è♥❡s ✐❞❡♥t✐✜és✳ P❛r ❡①❡♠♣❧❡✱ ❛♣✐✲♠✐r✲♥♦✈❡❧✷ ❡st ❧❡ ❞❡✉①✐è♠❡ ♥♦✉✈❡❛✉ ❣è♥❡ ❞❡ ♠✐❝r♦❆❘◆ ✐❞❡♥t✐✜é ❝❤❡③ ❆✳ ♣✐s✉♠ ❛✈❡❝ ❧❡s ♥♦✉✈❡❛✉① ❥❡✉① ❞❡ ❞♦♥♥é❡s✳ ■❧ ❛ été ❞é❝✐❞é ❞❡ ♣r❡♥❞r❡ ❝❡tt❡ ♥♦t❛t✐♦♥ ❝❛r ❝❡❧❛ ♣❡r♠❡t ❞❡ ♥❡ ❞é❝✐❞❡r ❞❡ ❧❛ ♥✉♠ér♦t❛t✐♦♥ ✜♥❛❧❡ ✉♥✐q✉❡♠❡♥t ❛✉ ♠♦♠❡♥t ❞❡ s♦♥ ✐♥té❣r❛t✐♦♥ ❡✛❡❝t✐✈❡ ❞❡ ♠✐❘❇❛s❡✳ ➚ ♥♦t❡r q✉❡ ❧❡s ❣è♥❡s ♣ré❝é❞❡♠♠❡♥t ✐❞❡♥t✐✜és ❡t q✉✐ s♦♥t s♣é❝✐✜q✉❡s à ❆✳ ♣✐s✉♠ ♣♦rt❡♥t ✉♥ ✐❞❡♥t✐✜❛♥t s✉♣ér✐❡✉r à ✸✵✵✵ ❞♦♥♥é ♣❛r ♠✐❘❇❛s❡✳ ■❧ ❡①✐st❡ ❞❡s ❝❛s ♣❛rt✐❝✉❧✐❡rs ♦ù ❞❡s ♣ré❝✉rs❡✉rs ❞❡ ♠✐❝r♦❆❘◆ ❞✐✛ér❡♥ts ♣r♦❞✉✐s❡♥t ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❛✈❡❝ ❞❡s séq✉❡♥❝❡s ✐❞❡♥t✐q✉❡s ♦✉ ♣r♦❝❤❡s✳ ▼✐❘❇❛s❡ ❬✷✸❪ ❢♦✉r♥✐t ✉♥ ❡♥s❡♠❜❧❡ ❞❡ rè❣❧❡s ♣♦✉r ❞✐s❝r✐♠✐♥❡r ❝❡s ❞✐✛ér❡♥ts ❝❛s ✿ ✕ ❙✐ ❞❡s ♣ré❝✉rs❡✉rs s♦♥t ✐❞❡♥t✐q✉❡s ❡t q✉❡ ❧❡s ❣è♥❡s ❛ss♦❝✐és s♦♥t à ❞❡s ♣♦s✐t✐♦♥s ❞✐✛ér❡♥t❡s ♦✉ q✉❡ ❧❡s ♣ré❝✉rs❡✉rs s♦♥t ❞✐✛ér❡♥ts ♠❛✐s q✉❡ ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♦♥t ❞❡s séq✉❡♥❝❡s str✐❝t❡♠❡♥t ✐❞❡♥t✐q✉❡s✱ ❛❧♦rs ❧❡s ♣ré❝✉rs❡✉rs ❛✉r♦♥t ❧❡ ♠ê♠❡ ♥✉♠ér♦ ♠❛✐s s❡r♦♥t ❞✐✛ér❡♥❝✐és ♣❛r ❧✬❛❥♦✉t ❡♥ ✜♥ ❞❡ ♥♦♠ ❞✬✉♥ ✓ ✲ ✔ s✉✐✈✐ ♣❛r ✉♥ ♥✉♠ér♦ ❀ ✕ ❙✐ ❞❡s ♣ré❝✉rs❡✉rs ❞✐✛ér❡♥ts ♦♥t ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❛✈❡❝ ❞❡s séq✉❡♥❝❡s ♣r♦❝❤❡s✱ ❛❧♦rs ❧❡s ♣ré❝✉rs❡✉rs ♣♦rt❡r♦♥t ❧❡ ♠ê♠❡ ♥✉♠ér♦ ♠❛✐s s❡r♦♥t ❞✐✛ér❡♥❝✐és ♣❛r ✉♥❡ ❧❡ttr❡ ❡♥ ✜♥ ❞❡ ♥♦♠✳ P❛r ❡①❡♠♣❧❡✱ ❧❡s ♣ré❝✉rs❡✉rs ❛♣✐✲♠✐r✲✸✵✺✶✲✶ ❡t ❛♣✐✲♠✐r✲✸✵✺✶✲✷ ♦♥t ❞❡s séq✉❡♥❝❡s ❞✐❢✲ ❢ér❡♥t❡s ♠❛✐s ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❛♣✐✲♠✐r✲✸✵✺✶✲✶✲✺♣ ❡t ❛♣✐✲♠✐r✲✸✵✺✶✲✷✲✺♣ ♦♥t ❞❡s séq✉❡♥❝❡s ✐❞❡♥t✐q✉❡s✱ ❞❡ ♠ê♠❡ ♣♦✉r ❛♣✐✲♠✐r✲✸✵✺✶✲✶✲✸♣ ❡t ❛♣✐✲♠✐r✲✸✵✺✶✲✷✲✸♣✳ ▲❡s ♣ré✲ ❝✉rs❡✉rs ❛♣✐✲♠✐r✲✷✻✸❛ ❡t ❛♣✐✲♠✐r✲✷✻✸❜ ♦♥t ❞❡s séq✉❡♥❝❡s ❞✐✛ér❡♥t❡s ❡t ❧❡s séq✉❡♥❝❡s ❞❡ ❛♣✐✲♠✐r✲✷✻✸❛✲✺♣ ❡t ❛♣✐✲♠✐r✲✷✻✸❜✲✺♣ s♦♥t ♣r♦❝❤❡s✱ ❞❡ ♠ê♠❡ ♣♦✉r ❛♣✐✲♠✐r✲✷✻✸❛✲✸♣ ❡t ❛♣✐✲ ♠✐r✲✷✻✸❜✲✸♣✳ ▲❡s ♣ré❝✉rs❡✉rs ❞❡ ♠✐❝r♦❆❘◆ ❛✈❡❝ ❧❡ ♠ê♠❡ ♥✉♠ér♦ s♦♥t ❞é✜♥✐s ❝♦♠♠❡ ét❛♥t ❞❡ ❧❛ ♠ê♠❡ ❢❛♠✐❧❧❡✳ ■❝✐ ❛♣✐✲♠✐r✲✸✵✺✶✲✶ ❡t ❛♣✐✲♠✐r✲✸✵✺✶✲✷ ❢♦♥t ♣❛rt✐❡ ❞❡ ❧❛ ♠ê♠❡ ❢❛♠✐❧❧❡✳ P♦✉r ❞é✜♥✐r s✐ ❞❡✉① séq✉❡♥❝❡s ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s♦♥t ♣r♦❝❤❡s✱ ❛✉❝✉♥❡ rè❣❧❡ str✐❝t❡ ♥✬ét❛♥t ❢♦✉r♥✐❡ ♣❛r ♠✐❘❇❛s❡✱ ♥♦✉s ❛✈♦♥s ❞é✜♥✐ ❧❡s rè❣❧❡s s✉✐✈❛♥t❡s✳ ❉❡✉① ♠✐✲ ❝r♦❆❘◆ ♠❛t✉r❡s ❞✐✛ér❡♥ts ♦♥t ❞❡s séq✉❡♥❝❡s ❞✐t❡s ♣r♦❝❤❡s s✐ ✿ ✕ ▲❡✉rs ♥✉❝❧é♦t✐❞❡s ❛✉① ♣♦s✐t✐♦♥s ❛❧❧❛♥t ❞❡ ✷ à ✼ s♦♥t ✐❞❡♥t✐q✉❡s✱ ♣♦s✐t✐♦♥s q✉✐ ❝♦rr❡s♣♦♥❞ ❝❧❛ss✐q✉❡♠❡♥t à ❧❛ ❞é✜♥✐t✐♦♥ ❞❡ ❧❛ ❣r❛✐♥❡ ❞✉ ♠✐❝r♦❆❘◆ ❀ ✕ ❙✉r ❧❡ r❡st❡ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ s❡✉❧❡♠❡♥t ❞❡✉① ❞é❧ét✐♦♥s✱ ✐♥s❡rt✐♦♥s ❡t✴♦✉ ♠és❛♣♣❛r✐❡♠❡♥ts ❡①✐st❡♥t ❛✉ ♠❛①✐♠✉♠ ❛♣rès ❛❧✐❣♥❡♠❡♥t ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✳ ❈❡s rè❣❧❡s ♦♥t été ❞é✜♥✐❡s ♣♦✉r ❛✈♦✐r ✉♥❡ ♥♦t✐♦♥ ✓ ❢♦♥❝t✐♦♥♥❡❧❧❡ ✔ ❞❛♥s ❧❡s ❢❛♠✐❧❧❡s✱ ❝✬❡st à ❞✐r❡ q✉❡ ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✐ss✉s ❞✬✉♥❡ ♠ê♠❡ ❢❛♠✐❧❧❡ ❝✐❜❧❡r♦♥t ♣♦t❡♥t✐❡❧❧❡♠❡♥t ❧❡s ♠ê♠❡s ❆❘◆♠✳ ➚ ♥♦t❡r q✉❡✱ ❝♦♥tr❛✐r❡♠❡♥t à ❧❛ ❝♦♥✈❡♥t✐♦♥ ❞❡ ♠✐❘❇❛s❡✱ ✐❧ ❛ été ❞é❝✐❞é ❞❡ s❡ ré❢ér❡r ❛✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♣❛r ❧❛ ♥♦t❛t✐♦♥ ✓ ♠✐r ✔ ❡t ♥♦♥ ♣❛s ✓ ♠✐❘ ✔✳ ▲❛ ♥♦t❛t✐♦♥ ❛✈❡❝ ❡t s❛♥s ♠❛❥✉s❝✉❧❡ ❡st ✉t✐❧✐sé❡ ♣♦✉r ♥❡ ♣❛s ❝♦♥❢♦♥❞r❡ ❧❡ ♣ré✲♠✐❝r♦❆❘◆ ❡t ❧❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡✱ ♠❛✐s ✐❝✐ ♥♦✉s ♥♦✉s ré❢ér❡r♦♥s ❛✉ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❡♥ ❛❥♦✉t❛♥t t♦✉❥♦✉rs ✓ ✲✺♣ ✔ ♦✉ ✓ ✲✸♣ ✔ ❝❡ q✉✐ ❡♠♣ê❝❤❡ ❧❛ ❝♦♥❢✉s✐♦♥ ❡♥tr❡ ♣ré❝✉rs❡✉r ❡t ♠❛t✉r❡✳❈❛t❛❧♦❣✉❡ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡s ❆❘◆♠✱ ❞❡s ♠✐❝r♦❆❘◆ ❡t ❞❡ ❧❡✉rs ✐♥t❡r❛❝t✐♦♥s ✹✼ ■❞❡♥t✐✜❝❛t✐♦♥ ❞❡s ❣è♥❡s✱ ♣ré❝✉rs❡✉rs ❡t ♠♦❧é❝✉❧❡s ♠❛t✉r❡s ❞❡ ♠✐❝r♦❆❘◆ ❡t ❞❡ ❧❡✉rs ❢❛♠✐❧❧❡s P♦✉r ✐❞❡♥t✐✜❡r ❧❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆✱ ❧❡ ❧♦❣✐❝✐❡❧ ♠✐❘❉❡❡♣✷ ❬✶✵✸❪ ❛ été ✉t✐❧✐sé ♣❛r ❋❛❜r✐❝❡ ▲❡❣❡❛✐✳ P♦✉r ❝❡ tr❛✈❛✐❧✱ ❧✬❛♥♥♦t❛t✐♦♥ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❞✬❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ s✬❡st ❜❛sé❡ s✉r ❧❡s séq✉❡♥❝❡s ❞❡s ♣❡t✐ts ❆❘◆ ❞❡s ✻✸ ❜❛♥q✉❡s ♦❜t❡♥✉❡s ❛✉ ❧❛❜♦r❛✲ t♦✐r❡ ✭✈♦✐r ✷✳✶✳✷✮✳ ➚ ♣❛rt✐r ❞❡ ❝❡ ❥❡✉ ❞❡ ❞♦♥♥é❡s✱ ♠✐❘❉❡❡♣✷ ♣ré❞✐t ✉♥ ❡♥s❡♠❜❧❡ ❞❡ ✹✹✺ ❣è♥❡s ❝♦❞❛♥t ♣♦✉r ❞❡s ♠✐❝r♦❆❘◆✳ ❙❡✉❧❡♠❡♥t ✹✵✶ ❞❡s ♣ré❝✉rs❡✉rs ❛ss♦❝✐és à ❝❡s ❣è♥❡s ♣♦ssè❞❡♥t ✉♥❡ str✉❝t✉r❡ s❡❝♦♥❞❛✐r❡ ❝♦♥❢♦r♠❡ ❛✈❡❝ ❧❛ str✉❝t✉r❡ s❡❝♦♥❞❛✐r❡ ❡♥ t✐❣❡✲❜♦✉❝❧❡ ❞❡s ♣ré✲ ♠✐❝r♦❆❘◆✱ ❝✬❡st✲à✲❞✐r❡ ❛✈❡❝ ✉♥❡ ♣r♦❜❛❜✐❧✐té ♦❜t❡♥✉❡ ♣❛r r❛♥❞❢♦❧❞ ✐♥❢ér✐❡✉r❡ à ✵✱✵✺✳ ■❧ ❛ ❞♦♥❝ été ❞é❝✐❞é ❞❡ ♥❡ ❣❛r❞❡r q✉❡ ❝❡s ✹✵✶ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ♣♦✉r ❧❛ s✉✐t❡ ❞❡ ❧✬❛♥❛❧②s❡✳ ❈❡s ✹✵✶ ❣è♥❡s ❝♦rr❡s♣♦♥❞❡♥t à ✸✷✾ séq✉❡♥❝❡s ❞❡ ♣ré❝✉rs❡✉rs ❡t ♣r♦❞✉✐s❡♥t ✷✽✽ séq✉❡♥❝❡s ✉♥✐q✉❡s ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✺♣ ❡t ✷✽✺ séq✉❡♥❝❡s ✉♥✐q✉❡s ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✸♣ ✭✺✼✸ séq✉❡♥❝❡s ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❛✉ t♦t❛❧✮✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡ ❝❡s ✹✵✶ ❣è♥❡s✱ ✸✾ ✭∼✶✵ ✪✮ s♦♥t ❞❡s ❣è♥❡s ❞é❥à ❝♦♥♥✉s ♣♦✉r ❞✬❛✉tr❡s ❡s♣è❝❡s ❡t ✸✻✷ s♦♥t ❞❡s ❣è♥❡s ❞❡ ♠✐✲ ❝r♦❆❘◆ ✐❞❡♥t✐✜és s♣é❝✐✜q✉❡♠❡♥t ❝❤❡③ ❆✳ ♣✐s✉♠✳ ❙✉r ❝❡s ✸✻✷ ❣è♥❡s✱ ✹✵ ✭∼✶✶ ✪✮ ét❛✐❡♥t ❞é❥à ✐❞❡♥t✐✜és ❞❛♥s ▲❡❣❡❛✐ ❡t ❛❧✳ ❬✽✶❪ ❡t ✸✷✷ ♦♥t été ✐❞❡♥t✐✜és à ❧✬❛✐❞❡ ❞❡ ❝❡s ♥♦✉✈❡❛✉① ❥❡✉① ❞❡ séq✉❡♥ç❛❣❡✳ ▲❡ ♣♦✉r❝❡♥t❛❣❡ ♣❡✉ é❧❡✈é ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ✐❞❡♥t✐✜és ❝❤❡③ ❞✬❛✉tr❡s ❡s♣è❝❡s ♣❡✉t s✬❡①♣❧✐q✉❡r ♣❛r ❧❡s ❝r✐tèr❡s ♣❧✉s str✐❝ts ✉t✐❧✐sés ✐❝✐ ♣♦✉r ❞é✜♥✐r ❧❛ s✐♠✐❧❛r✐té ❡♥tr❡ ❞❡✉① ❣è♥❡s✴♣ré❝✉rs❡✉rs ❞❡ ♠✐❝r♦❆❘◆ q✉❡ ❝❡✉① ♣♦t❡♥t✐❡❧❧❡♠❡♥t ✉t✐❧✐sés ♣❛r ♠✐❘❇❛s❡✳ ➚ ♥♦t❡r q✉❡ ❧❡s ♠✐❝r♦❆❘◆ ❛♣✐✲♠✐r✲❧❡t✲✼ ❡t ❛♣✐✲♠✐r✲❜❛♥t❛♠ s♦♥t r❡tr♦✉✈és✱ ♠ê♠❡ ❛✈❡❝ ♥♦s ❝r✐tèr❡s ♣❧✉s str✐❝ts✳ P❛r♠✐ ❧❡s ❡s♣è❝❡s ❞✉ ♣❤②❧✉♠ ❍❡①❛♣♦❞❛ ♣rés❡♥t❡s ❞❛♥s ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s ♠✐❘❇❛s❡ ✭✈❡r✳ ✷✵✮ ❬✷✸❪ ❡t ❡♥ s❡ ❜❛s❛♥t s✉r ❧❡ ❞❡r♥✐❡r ❝❛t❛❧♦❣✉❡✱ ❆✳ ♣✐s✉♠ s❡ ♣❧❛❝❡ ♣❛r♠✐ ❧❡s ❡s♣è❝❡s ♣♦ssé❞❛♥t ✉♥ ♥♦♠❜r❡ ✐♠♣♦rt❛♥t ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✉♥✐q✉❡s✳ ▲❡ ❚❛❜❧❡❛✉ ✷✳✸ ♠♦♥tr❡ ❧❡ ♥♦♠❜r❡ ❞❡ séq✉❡♥❝❡s ✉♥✐q✉❡s ❞❡ ♣ré❝✉rs❡✉rs ❞❡ ♠✐❝r♦❆❘◆ ❡t ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✺♣ ❡t ✸♣ ♣♦✉r ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ❡t ❝❡rt❛✐♥❡s ❡s♣è❝❡s ❞✉ ♣❤②❧✉♠ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ✭❍❡①❛♣♦❞❛✮ ✐ss✉❡ ❞❡ ♠✐❘❇❛s❡✳ ❡s♣è❝❡s ♥♦♠❜r❡ ❞❡ ♣ré❝✉rs❡✉r ♥♦♠❜r❡ ❞❡ ♠✐❝r♦❆❘◆ ♠❛✲ t✉r❡s ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ✹✵✶ ✺✼✸ ❇♦♠❜②① ♠♦r✐ ✹✽✾ ✺✻✼ ❚r✐❜♦❧✐✉♠ ❝❛st❛♥❡✉♠ ✷✷✵ ✹✸✵ ❉r♦s♦♣❤✐❧❛ ♠❡❧❛♥♦❣❛st❡r ✷✸✽ ✹✷✻ ❉r♦s♦♣❤✐❧❛ ♣s❡✉❞♦♦❜s❝✉r❛ ✷✶✵ ✷✼✸ ❆❡❞❡s ❛❡❣②♣t✐ ✶✵✶ ✶✷✹ ❆♥♦♣❤❡❧❡s ❣❛♠❜✐❛❡ ✻✼ ✻✺ ❚❛❜❧❡❛✉ ✷✳✸ ✕ ◆♦♠❜r❡ ❞❡ séq✉❡♥❝❡s ✉♥✐q✉❡s ❞❡ ♣ré❝✉rs❡✉rs ❡t ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✺♣ ❡t ✸♣ ♣♦✉r ♣❧✉s✐❡✉rs ❡s♣è❝❡s ❞✉ ♣❤②❧✉♠ ❍❡①❛♣♦❞❛✳ ❉♦♥♥é❡s ✐ss✉❡s ❞❡ ♠✐❘❇❛s❡ ❬✷✸❪✳ ❆✉ s❡✐♥ ❞✉ ♣❤②❧✉♠ ❍❡①❛♣♦❞❛✱ ❧❡s ♥♦♠❜r❡s ❞❡ séq✉❡♥❝❡s ✉♥✐q✉❡s ♣♦✉r ❧❡s ♣ré❝✉r✲ s❡✉rs ❞❡ ♠✐❝r♦❆❘◆ ❡t ♣♦✉r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s♦♥t ✈❛r✐❛❜❧❡s✱ ❝❡ q✉✐ ♣❡✉t r❡✢ét❡r s♦✐t ❞❡s ♥✐✈❡❛✉① ❞✬❛♥♥♦t❛t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ❞❡ q✉❛❧✐tés ❞✐✛ér❡♥t❡s ❞❛♥s ❧❡s ❡s♣è❝❡s ❝✐té❡s✱ s♦✐t ❞❡s ❞✐✛ér❡♥❝❡s ❜✐♦❧♦❣✐q✉❡s ❡♥❝♦r❡ ♥♦♥ ❡①♣❧✐q✉é❡s✳ ❈❡♣❡♥❞❛♥t✱ ♦♥ ♣❡✉t ❢❛✐r❡✹✽ ❈❛t❛❧♦❣✉❡s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ❧✬❤②♣♦t❤ès❡ q✉❡ ❧❡ ❣é♥♦♠❡ ❞❡ ❉✳ ♠❡❧❛♥♦❣❛st❡r ❡st ❜✐❡♥ ❛♥♥♦té ❛❧♦rs q✉✬✐❧ ♣rés❡♥t❡ ✉♥ ♥♦♠❜r❡ ✐♥❢ér✐❡✉r ❞❡ ♠✐❝r♦❆❘◆ ❝♦♠♣❛ré ❛✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✳ ❈❡tt❡ ❞✐✛ér❡♥❝❡ ♣♦✉rr❛✐t s✬❡①♣❧✐q✉❡r ♣❛r ✉♥ ♥✐✈❡❛✉ ❞❡ ❞✉♣❧✐❝❛t✐♦♥ ❞❡s ❣è♥❡s ❝❤❡③ ❆✳ ♣✐s✉♠ ♣❧✉s é❧❡✈é ✭✈♦✐r ♣❧✉s ❧♦✐♥ ♣❛rt✐❡ ✷✳✷✳✷✮✳ ❋❛♠✐❧❧❡s ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❙✉r ❧❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❞✬❆✳ ♣✐s✉♠✱ ✷✵✵ ❣è♥❡s s✉r ❧❡s ✹✵✶ ✭✺✵ ✪✮ s❡ ré♣❛rt✐ss❡♥t s✉r ✻✻ ❢❛♠✐❧❧❡s ❛✈❡❝ ❛✉ ♠♦✐♥s ❞❡✉① ❣è♥❡s✳ ▲❛ ❋✐❣✉r❡ ✷✳✹ ♣rés❡♥t❡ ❧❛ ré♣❛rt✐t✐♦♥ ❞❡s ✷✵✵ ❣è♥❡s ❞❛♥s ❧❡s ✻✻ ❢❛♠✐❧❧❡s✳ ❙✉r ❝❡s ✻✻ ❢❛♠✐❧❧❡s✱ ✻✸ ✭✾✺ ✪✮ s♦♥t ❝♦♥st✐t✉é❡s ❞❡ ♠✐❝r♦❆❘◆ ✐❞❡♥t✐✜és ✉♥✐q✉❡♠❡♥t ❝❤❡③ ❆✳ ♣✐s✉♠✳ ▲❡s tr♦✐s ❢❛♠✐❧❧❡s ❛✈❡❝ ❞❡s ❣è♥❡s ❝♦♥♥✉s s♦♥t ❧❡s ❢❛♠✐❧❧❡s ❛♣✐✲♠✐r✲✷✱ ❛♣✐✲♠✐r✲✾✷ ❡t ❛♣✐✲♠✐r✲✷✻✸ t♦✉t❡s tr♦✐s ❝♦♥st✐t✉é❡s ❞❡ ❞❡✉① ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆✳ ❈❡s tr♦✐s ❢❛♠✐❧❧❡s ❡①✐st❡♥t ❛✉ss✐ ❝❤❡③ ❞✬❛✉tr❡s ❡s♣è❝❡s✱ ❝♦♠♠❡ ❉✳ ♠❡❧❛♥♦❣❛st❡r ✳ ▲❡ ❚❛❜❧❡❛✉ ♣rés❡♥t❡ ❛✉ss✐ ❧❛ ré♣❛rt✐t✐♦♥ ❡♥ ❢❛♠✐❧❧❡s ♣♦✉r ❧❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❝❤❡③ ❉✳ ♠❡❧❛♥♦❣❛st❡r ✱ ❜❛sé❡ s✉r ❧❡s ♠✐❝r♦❆❘◆ ❛♥♥♦tés ❞❛♥s ♠✐❘❇❛s❡✳ ❖♥ ♣❡✉t ✈♦✐r q✉❡ ❧❛ ♣r♦♣♦rt✐♦♥ ❞❡ ❣è♥❡s ❛✉ s❡✐♥ ❞✬✉♥❡ ❢❛♠✐❧❧❡ ❝❤❡③ ❉✳ ♠❡❧❛♥♦❣❛st❡r ❡st ❧❛r❣❡♠❡♥t ✐♥❢ér✐❡✉r❡ à ❝❡❧❧❡ ❝❤❡③ ❆✳ ♣✐s✉♠ ✭✸✵ ❣è♥❡s s✉r ✷✸✽ ✭∼✶✸ ✪✮ ❝♦♥tr❡ ✺✵ ✪✮✱ ❡t q✉❡ ❧❡s ♥♦♠❜r❡s ❞❡ ❢❛♠✐❧❧❡s ❞✐✛èr❡♥t ✭✶✷ ❝♦♥tr❡ ✻✻✮✳ ❉❡ ♣❧✉s ❧❛ ❞✐✈❡rs✐té ❞❛♥s ❧❡s t❛✐❧❧❡s ❞❡s ❢❛♠✐❧❧❡s ❝❤❡③ ❆✳ ♣✐s✉♠ ❡st s✉♣ér✐❡✉r❡ à ❝❡❧❧❡ ❞❡ ❉✳ ♠❡❧❛♥♦❣❛st❡r ✳ ▲❡s ❞✐✛ér❡♥❝❡s ❡♥ ♥♦♠❜r❡ ❞❡ ❢❛♠✐❧❧❡s✱ ❡♥ ♥♦♠❜r❡ ❞❡ ❣è♥❡s ✐♠♣❧✐q✉és ❞❛♥s ❞❡s ❢❛♠✐❧❧❡s ❡t s✉r ❧❛ t❛✐❧❧❡ ❞❡s ❞✐✛ér❡♥t❡s ❢❛♠✐❧❧❡s ♣♦✉rr❛✐t êtr❡ ❡①♣❧✐q✉é❡s ♣❛r ✉♥ ❞✉♣❧✐❝❛t✐♦♥ ✐♠♣♦rt❛♥t❡ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❛♣rès ❧❛ s♣é❝✐❛t✐♦♥ ❡♥tr❡ ❧❡s ❞❡✉① ❜r❛♥❝❤❡s é✈♦❧✉t✐✈❡s ❝♦rr❡s♣♦♥❞❛♥t à ❆✳ ♣✐s✉♠ ❡t ❉✳ ♠❡❧❛♥♦❣❛st❡r ✳ ❉❡✉① ❢❛✐ts s✉♣♣♦rt❡♥t ❝❡tt❡ ❤②♣♦t❤ès❡✳ ❉✬✉♥❡ ♣❛rt ✾✺ ✪ ❞❡s ❢❛♠✐❧❧❡s s♦♥t ❝♦♥st✐t✉é❡s ❞❡ ❣è♥❡s ✐❞❡♥t✐✜és ♣♦✉r ❧✬✐♥st❛♥t ✉♥✐q✉❡♠❡♥t ❝❤❡③ ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✱ ❡t ❞✬❛✉tr❡ ♣❛rt ✐❧ ❛ été ♠♦♥tré q✉✬✉♥ ❣r❛♥❞ ♥♦♠❜r❡ ❞❡ ❣è♥❡s ❝♦❞❛♥t ♣♦✉r ❞❡s ♣r♦té✐♥❡s ♦♥t été ❞✉♣❧✐q✉és ❝❤❡③ ❧❡ ♣✉❝❡r♦♥ ❬✶✺❪✳ ❖♥ ♣❡✉t ❞♦♥❝ ❢❛✐r❡ ❧✬❤②♣♦t❤ès❡ q✉❡ ❝❡tt❡ ❞✉♣❧✐❝❛t✐♦♥ ❛ ❛✉ss✐ ❡✉ ❧✐❡✉ ♣♦✉r ❧❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆✳ ❡s♣è❝❡ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ❉r♦s♦♣❤✐❧❛ ♠❡❧❛♥♦❣❛st❡r t❛✐❧❧❡ ♥♦♠❜r❡ ❞❡ ❢❛♠✐❧❧❡s ♥♦♠❜r❡ ❞❡ ❣è♥❡s ♥♦♠❜r❡ ❞❡ ❢❛♠✐❧❧❡s ♥♦♠❜r❡ ❞❡ ❣è♥❡s ✷ ✸✵ ✻✵ ✽ ✶✻ ✸ ✷✵ ✻✵ ✸ ✾ ✹ ✼ ✷✽ ✵ ✵ ✺ ✹ ✷✵ ✶ ✺ ✻ ✹ ✷✹ ✵ ✵ ✽ ✶ ✽ ✵ ✵ t♦t❛❧ ✻✻ ✷✵✵ ✶✷ ✸✵ ❚❛❜❧❡❛✉ ✷✳✹ ✕ ❘é♣❛rt✐t✐♦♥ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❛♣♣❛rt❡♥❛♥t à ❞❡s ❢❛♠✐❧❧❡s ❞✬❛✉ ♠♦✐♥s ❞❡✉① ❣è♥❡s ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ❡t ❉✳ ♠❡❧❛♥♦❣❛st❡r ✳ ▲♦❝❛❧✐s❛t✐♦♥ ❣é♥♦♠✐q✉❡ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❈❧❛ss✐✜❝❛t✐♦♥ ❞❡s ♣♦s✐t✐♦♥s ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❖♥ r❛♣♣❡❧❧❡ ✐❝✐ q✉❡ ❧❡s ♣♦s✐t✐♦♥s ❣é♥♦♠✐q✉❡s ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ♣❡✉✈❡♥t êtr❡ sé♣❛ré❡s ❡♥ ❞❡✉① ❝❧❛ss❡s ♣r✐♥❝✐♣❛❧❡s ✿❈❛t❛❧♦❣✉❡ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡s ❆❘◆♠✱ ❞❡s ♠✐❝r♦❆❘◆ ❡t ❞❡ ❧❡✉rs ✐♥t❡r❛❝t✐♦♥s ✹✾ ✕ ■♥t❡r❣é♥✐q✉❡ ✿ ❧❡ ❣è♥❡ ❞✉ ♠✐❝r♦❆❘◆ ❡st s✐t✉é ❡♥tr❡ ❞❡✉① ❣è♥❡s ❞✬❆❘◆♠ ❀ ✕ ■♥tr❛❣é♥✐q✉❡ ✿ ❧❡ ❣è♥❡ ❞✉ ♠✐❝r♦❆❘◆ ❡st s✐t✉é ❛✉ s❡✐♥ ❞✬✉♥ ❣è♥❡ ❞✬❆❘◆♠✳ P❛r ❧❛ s✉✐t❡ ♦♥ ❛♣♣❡❧❧❡r❛ ✓ ❆❘◆♠ ❤ôt❡ ✔ ♦✉ ✓ ❣è♥❡ ❤ôt❡ ✔ ❞❡s ❆❘◆♠ ♦✉ ❣è♥❡s ❝♦♥t❡♥❛♥t ✉♥ ♦✉ ♣❧✉s✐❡✉rs ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆✳ ❯♥ ❣è♥❡ ❞❡ ♠✐❝r♦❆❘◆ ✐♥tr❛❣é♥✐q✉❡ s❡r❛ s♦✉s ❧❡ ♠ê♠❡ ❝♦♥trô❧❡ tr❛♥s❝r✐♣t✐♦♥♥❡❧ q✉❡ s♦♥ ❣è♥❡ ❤ôt❡✳ ❯♥ ❣è♥❡ ❞❡ ♠✐❝r♦❆❘◆ ✐♥t❡r❣é♥✐q✉❡ s❡r❛ s♦✉s ❧❡ ❝♦♥trô❧❡ tr❛♥s❝r✐♣t✐♦♥♥❡❧ ❞❡ s❛ ♣r♦♣r❡ séq✉❡♥❝❡ ♣r♦♠♦tr✐❝❡✳ P♦✉r ❧❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ✐♥tr❛❣é♥✐q✉❡s✱ ♦♥ ♣❡✉t s✬❛tt❡♥❞r❡ à ❝❡ q✉❡ ❝❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❡t ❧❡✉r ❣è♥❡ ❞✬❆❘◆♠ ❤ôt❡ s♦✐❡♥t ❝♦✲❡①♣r✐♠és ❝❛r ✐❧s s❡r♦♥t tr❛♥s❝r✐ts ❡♥s❡♠❜❧❡✳ ❖♥ ❞✐st✐♥❣✉❡ ❞❡✉① s♦✉s✲❝❧❛ss❡s ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ✐♥tr❛❣é♥✐q✉❡s ✿ ✕ ■♥tr♦♥✐q✉❡ ✿ ❧❡ ❣è♥❡ ❞✉ ♠✐❝r♦❆❘◆ ❡st s✐t✉é ❞❛♥s ✉♥ ✐♥tr♦♥ ❞✉ ❣è♥❡ ❤ôt❡ ❀ ✕ ❊①♦♥✐q✉❡ ✿ ❧❡ ❣è♥❡ ❡st s✐t✉é ❞❛♥s ✉♥ ❡①♦♥ ❞✉ ❣è♥❡ ❤ôt❡✳ ▲❡ ❚❛❜❧❡❛✉ ✷✳✺ rés✉♠❡ ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ✐♥t❡r❣é♥✐q✉❡✱ ✐♥tr♦♥✐q✉❡ ❡t ❡①♦♥✐q✉❡ ❞❡s ✹✵✶ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ♣♦✉r ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠✳ ♣♦s✐t✐♦♥ ❞✉ ❣è♥❡ ❞✉ ♠✐❝r♦❆❘◆ ♥♦♠❜r❡ ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ✐♥t❡r❣é♥✐q✉❡ ✷✺✸ ✐♥tr♦♥✐q✉❡ ✶✵✷ ❡①♦♥✐q✉❡ ✹✻ t♦t❛❧ ✹✵✶ ❚❛❜❧❡❛✉ ✷✳✺ ✕ ❈❧❛ss✐✜❝❛t✐♦♥ ❞❡s ✹✵✶ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ✐♥t❡r❣é♥✐q✉❡s✱ ✐♥tr♦♥✐q✉❡s ♦✉ ❡①♦♥✐q✉❡s✱ ❝❤❡③ ❆✳ ♣✐s✉♠✳ ❙✉r ❧❡s ✹✵✶ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆✱ ✻✸ ✪ ❞❡s ❣è♥❡s s♦♥t ✐♥t❡r❣é♥✐q✉❡s✱ ✷✺ ✪ ❞❡s ❣è♥❡s s♦♥t ✐♥tr♦♥✐q✉❡s ❡t ✶✷ ✪ ❞❡s ❣è♥❡s s♦♥t ❡①♦♥✐q✉❡s✳ ❈♦♠♠❡ ❛tt❡♥❞✉✱ ❧❛ ♠❛❥♦r✐té ❞❡s ❣è♥❡s ❡st ❧♦❝❛❧✐sé❡ ❛✉ ♥✐✈❡❛✉ ✐♥t❡r❣é♥✐q✉❡ ♦✉ ✐♥tr♦♥✐q✉❡ ✭✽✽ ✪✮✳ ▲❛ ré♣❛rt✐t✐♦♥ ❞❡s ❧♦❝❛❧✐s❛t✐♦♥s ♦❜s❡r✈é❡ ❡st ❡♥ ❛❝❝♦r❞ ❛✈❡❝ ❧❛ ré♣❛rt✐t✐♦♥ ❞❡ ❧✬❛♥❝✐❡♥♥❡ ❛♥♥♦t❛t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ♦❜t❡♥✉❡ s✉r ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❛✈❛♥t ❧❡ ❞é❜✉t ❞❡ ❝❡ tr❛✈❛✐❧ ❬✽✶❪✳ ◆é❛♥♠♦✐♥s✱ ❧❛ ♣r♦♣♦rt✐♦♥ ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❡①♦♥✐q✉❡s ❡st s✉♣ér✐❡✉r❡ à ❝❡❧❧❡ ♦❜s❡r✈é❡ ❝❤❡③ ❞✬❛✉tr❡s ❡s♣è❝❡s ❬✸✻✱ ✶✶✶✱ ✶✶✷✱ ✶✶✸❪✳ ❈❧✉st❡rs ❞❡ ♠✐❝r♦❆❘◆ ▲❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ s♦♥t ♣❛r❢♦✐s r❡❣r♦✉♣és ❡♥ ❝❧✉st❡rs ❞❛♥s ✉♥ ♠ê♠❡ ❡♥✈✐r♦♥♥❡♠❡♥t ❣é♥♦♠✐q✉❡✳ ❖♥ ❛♣♣❡❧❧❡ ❝❧✉st❡r ❣é♥♦♠✐q✉❡ ❞❡ ♠✐❝r♦❆❘◆ ✉♥ ❡♥s❡♠❜❧❡ ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ q✉✐ s❡ s✉✐✈❡♥t s✉r ❧❡ ❣é♥♦♠❡ à ❞❡s ♣♦s✐t✐♦♥s ❣é♥♦✲ ♠✐q✉❡s ♣r♦❝❤❡s✳ ▲❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❛♣♣❛rt❡♥❛♥t ❛✉ ♠ê♠❡ ❝❧✉st❡r s♦♥t ❞❡s ❣è♥❡s q✉✐ s♦♥t ♣♦t❡♥t✐❡❧❧❡♠❡♥t s♦✉s ❧❡ ❝♦♥trô❧❡ ❞✉ ♠ê♠❡ ♣r♦♠♦t❡✉r ❡t q✉✐ ♣❡✉✈❡♥t êtr❡ tr❛♥s✲ ❝r✐ts ❛✉ s❡✐♥ ❞✉ ♠ê♠❡ ♣r✐✲♠✐❝r♦❆❘◆ ♣♦❧②❝✐str♦♥✐q✉❡ ❬✶✶✹✱ ✶✶✺❪✳ ▲❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♣r♦✈❡♥❛♥t ❞❡ ❝❡s ❞✐✛ér❡♥ts ❣è♥❡s ❝❧✉st❡r✐sés s♦♥t ❞♦♥❝ ♣♦t❡♥t✐❡❧❧❡♠❡♥t ❝♦✲❡①♣r✐♠és✳ P♦✉r ❛♥♥♦t❡r ❝❡s ❝❧✉st❡rs ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✱ ❧✬♦✉t✐❧ ❝❧✉st❡r ❞❡ ❧❛ s✉✐t❡ ❞✬♦✉t✐❧s ❜❡❞t♦♦❧s ❬✶✵✼❪ ❛ été ✉t✐❧✐sé ✭♣❛rt✐❡ ✷✳✶✳✸ ♣♦✉r ♣❧✉s ❞❡ ❞ét❛✐❧s✮✳ ❯♥❡ ❞✐st❛♥❝❡ s❡✉✐❧ ♠❛①✐♠❛❧❡ ❡♥tr❡ ❞❡✉① ❣è♥❡s ❝♦♥sé❝✉t✐❢s ❞❡ ♠✐❝r♦❆❘◆ ❞❡ ✷❦❜ ❛ été ✉t✐❧✐sé❡ ❡t ❧❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ♦♥t ❞❡ ♣❧✉s été r❡❣r♦✉♣és ✉♥✐q✉❡♠❡♥t s✬✐❧s ét❛✐❡♥t s✉r ❧❡ ♠ê♠❡ ❜r✐♥ ❣é♥♦♠✐q✉❡✳ ▲❡ ❚❛❜❧❡❛✉ ✷✳✻ ♣rés❡♥t❡ ❧❡ ♥♦♠❜r❡ ❞❡ ❝❧✉st❡rs ❞❡ ♠✐❝r♦❆❘◆ ❡♥ ❢♦♥❝t✐♦♥ ❞✉ ♥♦♠❜r❡ ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ♣rés❡♥ts ❞❛♥s ❧❡s ❝❧✉st❡rs ♦❜t❡♥✉s ❛✈❡❝ ❧✬♦✉t✐❧ ❝❧✉st❡r✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ✹✵✶ ❣è♥❡s✱ ✷✵✼ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ✭✺✶✱✻ ✪✮ s♦♥t ré♣❛rt✐s ❞❛♥s ✺✷ ❝❧✉st❡rs✳ ❈❡s ❝❧✉st❡rs ♦♥t ✉♥❡ t❛✐❧❧❡ ❣é♥♦♠✐q✉❡ ♠♦②❡♥♥❡ ❞❡ ✷✱✷ ❦❜ ❡t s♦♥t ❝♦♥st✐t✉és✺✵ ❈❛t❛❧♦❣✉❡s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ t❛✐❧❧❡ ❞❡s ❝❧✉st❡rs ❡♥ ♥♦♠❜r❡ ❞❡ ❣è♥❡s ♥♦♠❜r❡ ❞❡ ❝❧✉st❡rs ✷ ❣è♥❡s ✷✶ ✸ ❣è♥❡s ✶✵ ✹ ❣è♥❡s ✺ ✺ ❣è♥❡s ✻ ✻ ❣è♥❡s ✻ ✼ ❣è♥❡s ✶ ✶✷ ❣è♥❡s ✶ ✶✹ ❣è♥❡s ✶ ✶✻ ❣è♥❡s ✶ t♦t❛❧ ✺✷ ❚❛❜❧❡❛✉ ✷✳✻ ✕ ◆♦♠❜r❡ ❞❡ ❝❧✉st❡rs ❞❡ ♠✐❝r♦❆❘◆ ❡♥ ❢♦♥❝t✐♦♥ ❞✉ ♥♦♠❜r❡ ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ♣rés❡♥ts ❞❛♥s ❧❡s ❝❧✉st❡rs ♣♦✉r ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠✳ ■❧ ❢❛✉t ♥♦t❡r q✉❡ ❝❡rt❛✐♥s ❝❧✉st❡rs ♣❡✉✈❡♥t ♥❡ ♣❛s ❛✈♦✐r été ✐❞❡♥t✐✜és ♦✉ êtr❡ ✐♥❝♦♠♣❧❡ts s✐ ✉♥ ❣è♥❡ ♦✉ ✉♥ ❝❧✉st❡r ❡st à ❧✬✉♥❡ ❞❡s ❡①tré♠✐tés ❞✬✉♥ s❝❛✛♦❧❞✳ ❡♥ ♠♦②❡♥♥❡ ❞❡ ✹ ❣è♥❡s✳ ▲❛ ♠❛❥♦r✐té ❞❡s ❝❧✉st❡rs r❡❣r♦✉♣❡♥t ❡♥tr❡ ✷ ❡t ✻ ❣è♥❡s ❛✈❡❝ ♣❧✉s ❞❡ ❧❛ ♠♦✐t✐é ❞❡s ❝❧✉st❡rs q✉✐ ✐♥❝❧✉❡♥t ✷ ♦✉ ✸ ❣è♥❡s✳ ▲❡ ♥♦♠❜r❡ ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❡♥ ❝❧✉st❡r ❡st s✉♣ér✐❡✉r à ❝❡❧✉✐ tr♦✉✈é ❝❤❡③ ❞✬❛✉tr❡s ❡s♣è❝❡s ❛♥✐♠❛❧❡s ♦ù ❧❡ ♣♦✉r❝❡♥t❛❣❡ ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❡♥ ❝❧✉st❡r ❡st ❛✉ ♠❛①✐♠✉♠ ❞❡ ✹✵ ✪ ❬✶✶✻❪✳ ❆✜♥ ❞❡ ❝♦♠♣❛r❡r ❧❡s ❝❧✉st❡rs ♦❜t❡♥✉s s✉r ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ❛✈❡❝ ❝❡✉① ❞✬✉♥❡ ❛✉tr❡ ❡s♣è❝❡✱ ❧❡ ♠ê♠❡ ♣r♦t♦❝♦❧❡ ❛ été ❛♣♣❧✐q✉é à ❉r♦s♦♣❤✐❧❛ ♠❡❧❛♥♦❣❛st❡r✳ ▲❛ ❋✐❣✉r❡ ✷✳✺ ♣rés❡♥t❡ ❧✬❤✐st♦❣r❛♠♠❡ ❝♦♠♣❛r❛t✐❢ ❡♥tr❡ ❧❡ ♥♦♠❜r❡ ❞❡ ❝❧✉st❡rs ❡♥ ❢♦♥❝t✐♦♥ ❞✉ ♥♦♠❜r❡ ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❛✉ s❡✐♥ ❞✉ ❝❧✉st❡r ♣♦✉r ❆✳ ♣✐s✉♠ ❡t ❉r♦s♦♣❤✐❧❛ ♠❡❧❛♥♦❣❛st❡r ❡♥ ❛♣♣❧✐q✉❛♥t ❧❡ ♠ê♠❡ ♣r♦t♦❝♦❧❡ ✭❛✈❡❝ ❧❡s ❞♦♥♥é❡s ❞❡ ♠✐❘❇❛s❡ ❬✷✸❪✮✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ✷✸✽ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❞❡ ❉r♦s♦♣❤✐❧❛ ♠❡❧❛♥♦❣❛st❡r✱ ❧❛ ré♣❛rt✐♦♥ ❞❡s ❣è♥❡s ❡♥ ❝❧✉st❡rs ❡st ❞✐✛ér❡♥t❡ ❛✈❡❝ ✼✵✱✻ ✪ q✉✐ s♦♥t ❡♥ s✐♥❣❧❡t♦♥ ✭♣❛s ❞❛♥s ✉♥ ❝❧✉st❡r✮ ❡t ✷✾✱✹ ✪ r❡♣❛rt✐s ❞❛♥s ✉♥ t♦t❛❧ ❞❡ ✷✷ ❝❧✉st❡rs✳ ❉❡ ❧❛ ♠ê♠❡ ❢❛ç♦♥ q✉❡ ♣♦✉r ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✱ ♣❧✉s ❞❡ ❧❛ ♠♦✐t✐é ❞❡s ❝❧✉st❡rs r❡❣r♦✉♣❡♥t ✷ ♦✉ ✸ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆✳ ◆é❛♥♠♦✐♥s✱ ❧❡s ❝❧✉st❡rs ❞❡ t❛✐❧❧❡ ♣❧✉s ✐♠♣♦rt❛♥t❡ s♦♥t ❡♥ ♣❧✉s ♣❡t✐t ♥♦♠❜r❡ ❛✈❡❝ s❡✉❧❡♠❡♥t ✶ ❝❧✉st❡r ♣♦✉r ❝❤❛❝✉♥❡ ❞❡s t❛✐❧❧❡s ❞❡ ✹ ❣è♥❡s✱ ✺ ❣è♥❡s ❡t ✻ ❣è♥❡s ♣♦✉r ❉r♦s♦♣❤✐❧❛ ♠❡❧❛♥♦❣❛st❡r ❝♦♥tr❡ ✻ ❝❧✉st❡rs ❡♥ ♠♦②❡♥♥❡ ♣♦✉r ❧❡s ♠ê♠❡s t❛✐❧❧❡s ❞❡ ❣è♥❡s ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠✳ ❉❡ ♣❧✉s✱ ✐❧ ♥✬② ❛ ♣❛s ❞❡ ❝❧✉st❡r ❞❡ ✓ ❣r❛♥❞❡ t❛✐❧❧❡ ✔ ✭❝❧✉st❡rs ❞❡ t❛✐❧❧❡ ✶✷✱ ✶✹✱ ❡t ✶✻ ❚❛❜❧❡❛✉ ✷✳✻ ❡t ❋✐❣✉r❡ ✷✳✺✮✳ ❆✜♥ ❞✬♦❜s❡r✈❡r ❧❡s s♣é❝✐✜❝✐tés ❞❡ ❝❡s ✸ ❝❧✉st❡rs ❞❡ ✓ ❣r❛♥❞❡ t❛✐❧❧❡ ✔ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✱ ❧❡s ❛❧✐❣♥❡♠❡♥ts ♠✉❧t✐♣❧❡s ❞❡s séq✉❡♥❝❡s ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❝♦♥t❡♥✉s ❞❛♥s ❝❡s ❝❧✉st❡rs s♦♥t ♣rés❡♥tés ❋✐❣✉r❡ ✷✳✻✱ ✷✳✼ ❡t ✷✳✽ r❡s♣❡❝t✐✈❡♠❡♥t ♣♦✉r ❧❡s ❝❧✉st❡rs ❞❡ t❛✐❧❧❡ ✶✷✱ ✶✹ ❡t ✶✻✳ ▲❡s ❛❧✐❣♥❡♠❡♥ts ♦♥t été ♦❜t❡♥✉s ❡♥ ✉t✐❧✐s❛♥t ❈❧✉st❛❧❲ ❬✶✶✼✱ ✶✶✽❪✳ P♦✉r ❧❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❞✉ ❝❧✉st❡r ❞❡ t❛✐❧❧❡ ✶✷✱ ♦♥ ♣❡✉t ✈♦✐r ❧❛ ♣rés❡♥❝❡ ❞❡ ❞❡✉① ❢❛♠✐❧❧❡s ❝♦♠♣❧èt❡s✱ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹ ✭q✉❛tr❡ ❣è♥❡s✮ ❡t ❛♣✐✲♠✐r✲♥♦✈❡❧✶✵ ✭❞❡✉① ❣è♥❡s✮ ❡t q✉❡ ❞❡ ♣❧✉s ❧❡s séq✉❡♥❝❡s ❡♥tr❡ ❝❡s ❢❛♠✐❧❧❡s s♦♥t très ♣r♦❝❤❡s✳ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✽✽ ❡t ❛♣✐✲ ♠✐r✲♥♦✈❡❧✶✶✼ ♦♥t ❡✉① ❞❡s séq✉❡♥❝❡s très ♣r♦❝❤❡s ❞❡ ❧❛ ❢❛♠✐❧❧❡ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹ ❡t ❛♣✐✲ ♠✐r✲♥♦✈❡❧✷✵✷ ❛ ❧✉✐ ✉♥❡ séq✉❡♥❝❡ q✉✐ s✬❛♣♣r♦❝❤❡ ❞❡ ❝❡❧❧❡ ❞❡ ❧❛ ❢❛♠✐❧❧❡ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✵✳ ▲❡s tr♦✐s ❛✉tr❡s ❣è♥❡s ♥✬♦♥t ♣❛s ❞❡ ❣r❛♥❞❡ s✐♠✐❧❛r✐té ❛✈❡❝ ❧❡s ❛✉tr❡s séq✉❡♥❝❡s✳ ➚ ♥♦t❡r q✉❡ ❧❡ ❣è♥❡ ❛♣✐✲♠✐r✲✸✵✸✷❜ ❢❛✐t ♣❛rt✐❡ ❞✬✉♥❡ ❢❛♠✐❧❧❡ ♦ù ✐❧ ② ❛ ✉♥ ❛✉tr❡ ❣è♥❡✱ ❛♣✐✲♠✐r✲✸✵✸✷❛❈❛t❛❧♦❣✉❡ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡s ❆❘◆♠✱ ❞❡s ♠✐❝r♦❆❘◆ ❡t ❞❡ ❧❡✉rs ✐♥t❡r❛❝t✐♦♥s ✺✶ 0 10 20 30 40 50 Nombre de gènes de microARN présents dans le cluster Pourcentage du nombre de clusters (%) 2 3 4 5 6 7 8 9 10 12 14 16 A. pisum D. melanogaster ❋✐❣✳ ✷✳✺ ✕ ❍✐st♦❣r❛♠♠❡ ❞✉ ♣♦✉r❝❡♥t❛❣❡ ❞✉ ♥♦♠❜r❡ ❞❡ ❝❧✉st❡rs ❡♥ ❢♦♥❝t✐♦♥ ❞✉ ♥♦♠❜r❡ ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❛✉ s❡✐♥ ❞❡s ❝❧✉st❡rs✳ ❊♥ ❜❧❡✉ ❧❡ ♥♦♠❜r❡ ❞❡ ❝❧✉st❡rs ♣♦✉r ❆✳ ♣✐s✉♠ ❡t ❡♥ r♦✉❣❡ ❧❡ ♥♦♠❜r❡ ❞❡ ❝❧✉st❡rs ♣♦✉r ❉✳ ♠❡❧❛♥♦❣❛st❡r✳ ♠❛✐s q✉❡ ❝❡ ❣è♥❡ ❡st s✉r ✉♥ ❛✉tr❡ s❝❛✛♦❧❞✳ ❙✉r ❧❡ ❝❧✉st❡r ❞❡ t❛✐❧❧❡ ✶✹✱ tr♦✐s ❢❛♠✐❧❧❡s s♦♥t ❝♦♠♣❧èt❡s ✿ ❛♣✐✲♠✐r✲♥♦✈❡❧✸✽ ✭tr♦✐s ❣è♥❡s✮✱ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✻ ✭tr♦✐s ❣è♥❡s✮ ❡t ❛♣✐✲♠✐r✲♥♦✈❡❧✸✸ ✭q✉❛tr❡ ❣è♥❡s✮ ❛✈❡❝ ✉♥❡ très ❣r❛♥❞❡ s✐♠✐❧❛r✐té ❞❡ séq✉❡♥❝❡ ❡♥tr❡ ❝❡s tr♦✐s ❢❛♠✐❧❧❡s✳ ▲❡ ♣ré❝✉rs❡✉r ❛♣✐✲♠✐r✲♥♦✈❡❧✺✽ ♥✬❛ q✉❡ ❞❡✉① s✉❜st✐t✉t✐♦♥s✱ ♣rés❡♥t❡s ❞❛♥s ❧❡ ♠❛t✉r❡ ✸♣✱ ❛✈❡❝ ❝❡✉① ❞❡ ❧❛ ❢❛♠✐❧❧❡ ❛♣✐✲♠✐r✲♥♦✈❡❧✸✸✳ ▲❡ ♣ré❝✉rs❡✉r ❛♣✐✲♠✐r✲♥♦✈❡❧✷✾❛✲✷✱ ❧✉✐ ❛✉ss✐ ❛✈❡❝ ✉♥❡ séq✉❡♥❝❡ ♣r♦❝❤❡ ❞❡s ♣ré❝✉rs❡✉rs ♣ré❝é❞❡♥ts✱ ❡st ❧❡ s❡✉❧ r❡♣rés❡♥t❛♥t ❞❡ s❛ ❢❛♠✐❧❧❡✱ q✉✐ ❡st ❝♦♥st✐t✉é❡ ❞❡ q✉❛tr❡ ❣è♥❡s✳ ▲❡ s❡✉❧ ❛✉tr❡ ❣è♥❡ ❞❡ ❝❡tt❡ ❢❛♠✐❧❧❡ ❛✉ss✐ ♣rés❡♥t s✉r ❝❡ ❝❧✉st❡r ❡st ❛♣✐✲♠✐r✲♥♦✈❡❧✷✾❜✲ ✷✱ ♠❛✐s ❝❡ ❣è♥❡ s❡ s✐t✉❡ à ✉♥❡ ❞✐st❛♥❝❡ ❞❡ ✸✳✶✾✾ ♥✉❝❧é♦t✐❞❡s ❞❡ ❧❛ ✜♥ ❞✉ ❝❧✉st❡r ❞❡ t❛✐❧❧❡ ✶✹✱ ❞✐st❛♥❝❡ s✉♣ér✐❡✉r❡ ❛✉ s❡✉✐❧ ✉t✐❧✐sé ♣♦✉r ♦❜t❡♥✐r ❝❡s ❝❧✉st❡rs ✭♣♦✉r r❛♣♣❡❧ ✷✳✵✵✵ ♥✉❝❧é♦t✐❞❡s✮✳ ▲❡s ❞❡✉① ❞❡r♥✐❡rs ♠✐❝r♦❆❘◆✱ ❛♣✐✲♠✐r✲♥♦✈❡❧✷✶❛✲✶ ❡t ❛♣✐✲♠✐r✲♥♦✈❡❧✷✶❛✲✹ ❢♦♥t ♣❛rt✐❡ ❞❡ ❧❛ ♠ê♠❡ ❢❛♠✐❧❧❡ q✉✐ ❡st ❝♦♥st✐t✉é❡ ❞❡ s✐① ❣è♥❡s✳ ▲❡s q✉❛tr❡ ❛✉tr❡s ❣è♥❡s ❞❡ ❧❛ ❢❛♠✐❧❧❡ s♦♥t ♣rés❡♥ts s✉r ❧❡ ♠ê♠❡ s❝❛✛♦❧❞ ♠❛✐s à ✉♥❡ ❞✐st❛♥❝❡ ❞❡ ✻✳✼✽✹ ♥✉❝❧é♦t✐❞❡s ❞✉ ❝❧✉st❡r✳ ▲❡ ❞❡r♥✐❡r ❝❧✉st❡r ❞❡ ❣r❛♥❞❡ t❛✐❧❧❡✱ ❝❡❧✉✐ ❞❡ ✶✻ ❣è♥❡s✱ ♥✬❡st ❝♦♥st✐t✉é q✉❡ ❞❡ ❢❛♠✐❧❧❡s ❝♦♠♣❧èt❡s ✿ ❛♣✐✲♠✐r✲✸✵✺✺ ✭❝✐♥q ❣è♥❡s✮✱ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✶ ✭q✉❛tr❡ ❣è♥❡s✮✱ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✸ ✭s✐① ❣è♥❡s✮✳ ■❧ ♥✬② ❛ q✉❡ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✾✺✱ q✉✐ ♥✬❛♣♣❛rt✐❡♥t à ❛✉❝✉♥❡ ❢❛♠✐❧❧❡✳ ▲❡s sé✲✺✷ ❈❛t❛❧♦❣✉❡s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ♠❛t✉r❡✲✺♣ ❜♦✉❝❧❡ 10 . 20 . 30 . ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹❜✲✷ ✳❚●●❚●●❆❆❆❆❚❚❚❆●❆✳✳❈❚❚❚❆●❚❈❚❚❚❚❚❆❚●●❚❚❆❚ ✸✼ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹❜✲✸ ✳❚●●❚●●❆❆❆❆❚❚❚❆●❆✳✳❈❚❚❚❆●❚❈❚❚❚❚❚❆❚●●❚❚❆❚ ✸✼ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹❜✲✶ ✳❚●●❚●●❆❆❆❆❚❚❚❆●❆✳✳❈❚❚❚❆●❚❈❚❚❚❚❚❆❚●●❆❚❆❚ ✸✼ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹❛ ✳❚●●❚●●❆❆❆❆❚❚❚❆●❆✳✳❈❚❚❚❆●❚❈❚❚❚❚❚❆❚●❆❚❚❆❚ ✸✼ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✽✽ ✳❚●●❚●●●❆❆❆❚❈❚❚●❆✳✳❈❚❚❚❆●❚❈❚❚❚❚❚❆❚●●❚❚❆❚ ✸✼ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✶✼ ✳❚❆●❚●●❆❆❆❆❚❚❚❆●❆✳✳❈❚❚❚❆●❚❈❚❚❚❚❚❆❚●●❚❚❆❚ ✸✼ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✵✲✷ ✳✳❆❆●●❚❆❆❈●❚❈❈❆❆●❚✳❈❚❈❚❆●❚❆❚❚❚❚❚❆❚●●❚❆❆❚ ✸✼ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✵✲✶ ✳✳❆❆●●❚❆❆❈●❚❈❈❆❆●❚✳❈❚❈❚❆●❚❆❚❚❚❚❚❆❚●●❚❆❆❚ ✸✼ ❛♣✐✲♠✐r✲♥♦✈❡❧✷✵✷ ✳❚❆❆●●❚❆❆❈●❚❚❈❆❆●❚✳❈❚❈❚❆●❚❆❚❚❚❚❚❆❚●●❚❆❆❚ ✸✽ ❛♣✐✲♠✐r✲♥♦✈❡❧✷✵✺ ✳❆❆●❈●●❈❆❈❚❚❈❚❈❚❚❚✳●●❈❚❆❚❚❚❆❚❚❚❈❚❚❆❆❚❆❆❚ ✸✽ ❛♣✐✲♠✐r✲✸✵✸✷❜ ❚❚❆●❚❆❚❆❆❈❚❈❚❚❆●❚●❆❈❆❚❚●●❆❆❚❚❚❆❆❆❆❚❆❚❚●❚ ✹✷ ❛♣✐✲♠✐r✲♥♦✈❡❧✼✵ ✳✳✳❚❈❚❚❚●●❚❚❚❚❆❆❆✳✳✳●❚❆●❈❈●❚❚❚●❆❆❆❚❚●❚❆❈ ✸✹ ❜♦✉❝❧❡ ♠❛t✉r❡✲✸♣ 40 . 50 . 60 . ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹❜✲✷ ✳✳❈❚❆❈❆●❚❈❚❚❚❆❚❚❚❚❈❚❆❈●❆❚❚ ✻✶ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹❜✲✸ ✳✳❈❚❆❈❆●❚❈❚❚❚❆❚❚❚❚❈❚❆❈●❆❚❚ ✻✶ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹❜✲✶ ✳✳❈❚❆❈❆●❚❈❚❚❚❆❚❚❚❚❈❚❆❈●❆❚❚ ✻✶ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹❛ ✳✳❈❚❆❈❆●❚❈❚❚❚❆❚❚❚❚❈❚❆❈●❆❈● ✻✶ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✽✽ ✳✳❈❚❆❈❆●❚❈❚❚❚❆❚❚❚❚❈❚❆❈●❆❚● ✻✶ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✶✼ ✳✳❈❚❆❚❆●❚❈❚❚❚❆❚❚❚❚❈❚❆❈❆❆❚❚ ✻✶ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✵✲✷ ✳✳❈❚❆●❚●❈❈❚❚❚❚❚❚●❚❚❆❈❈❚❆❚❆ ✻✶ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✵✲✶ ✳✳❈❚❆●❚●❈❈❚❚❚❚❚❚●❚❚❆❈❈❚❆❚❆ ✻✶ ❛♣✐✲♠✐r✲♥♦✈❡❧✷✵✷ ✳✳❈❚❆●❚●❆❈❚❚❚❚❚❚●❚❚❆❈❈❚❆❚❆ ✻✷ ❛♣✐✲♠✐r✲♥♦✈❡❧✷✵✺ ✳✳❈❚❆❚●●❆❚❆❚❆●❈❈❆❆❆❚❚❚❚❆●❚ ✻✷ ❛♣✐✲♠✐r✲✸✵✸✷❜ ●❆❈❚❆●❆●❚❚❚❆❚❆❈❚❆❈❈●●❚✳✳✳✳ ✻✹ ❛♣✐✲♠✐r✲♥♦✈❡❧✼✵ ●❆❆❚❆●❈●●❈❚❆❈❈❚❚❆●❆❚❈❈❆❆●❆ ✻✵ ❋✐❣✳ ✷✳✻ ✕ ❆❧✐❣♥❡♠❡♥t ♠✉❧t✐♣❧❡ ❞❡s ♣ré❝✉rs❡✉rs ❞✉ ❝❧✉st❡r ❞❡ t❛✐❧❧❡ ✶✷✳ ▲❡s ♥✉❝❧é♦t✐❞❡s ♣rés❡♥ts s✉r ♣❧✉s ❞❡ ✺✵ ✪ ❞❡s séq✉❡♥❝❡s s♦♥t r❡♣rés❡♥tés s✉r ❢♦♥❞ ❜❧❡✉✱ ❧❡s ❛✉tr❡s s✉r ❢♦♥❞ ❜❧❛♥❝ ❀ ❧❡s ♣♦s✐t✐♦♥s ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✺♣ ❡t ✸♣ ❡t ❞❡ ❧❛ ❜♦✉❝❧❡✱ ❞é✜♥✐❡s s✉r ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹❜✲✷✱ s♦♥t s❝❤é♠❛t✐sé❡s ❡♥ tr❛✐ts ❣r❛s✳ ▲❡s ❛❧✐❣♥❡♠❡♥ts ♦♥t été ♦❜t❡♥✉s ❛✈❡❝ ❈❧✉st❛❧❲✳ ❋✐❣✉r❡ ♦❜t❡♥✉❡ à ❧✬❛✐❞❡ ❞✉ ♣❛q✉❡t ▲❆❚❊❳ ❚❡❳s❤❛❞❡ ❬✶✶✾❪✳ q✉❡♥❝❡s s♦♥t très ♣r♦❝❤❡s ❛✈❡❝ ❛✉❝✉♥❡ ✐♥s❡rt✐♦♥ ♦✉ ❞é❧ét✐♦♥ ❡t très ♣❡✉ ❞❡ s✉❜st✐t✉t✐♦♥s ❞❛♥s ❧✬❛❧✐❣♥❡♠❡♥t✳ ▼❛❧❣ré ❧❛ ✓ ❣r❛♥❞❡ t❛✐❧❧❡ ✔ ❞❡ ❝❡s tr♦✐s ❝❧✉st❡rs ❡♥ ❝♦♠♣❛r❛✐s♦♥ ❞❡s ❝❧✉st❡rs ♦❜t❡♥✉s ❝❤❡③ ❉✳ ♠❡❧❛♥♦❣❛st❡r✱ ❧❛ très ❢♦rt❡ s✐♠✐❧❛r✐té ❞❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❝♦♥t❡♥✉s ❛✉ s❡✐♥ ❞❡ ❝❤❛❝✉♥ ❞❡ ❝❡s ❝❧✉st❡rs ❧❛✐ss❡ s✉♣♣♦s❡r q✉❡ ❧❡✉r ❛♣♣❛r✐t✐♦♥ ❡st ❞✉❡ à ❧❛ ❞✉♣❧✐❝❛t✐♦♥ ♠✉❧t✐♣❧❡ ❞✬✉♥ ♠ê♠❡ ❣è♥❡ ❛♥❝❡str❛❧ ♣♦✉r ❝❤❛❝✉♥ ❞❡ ❝❡s ❝❧✉st❡rs✳ ❈❧❛ss✐✜❝❛t✐♦♥ ❞❡s ♣♦s✐t✐♦♥s ❞❡s ❝❧✉st❡rs ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ♣❛r r❛♣♣♦rt ❛✉① ❣è♥❡s ❞✬❆❘◆♠ ❈♦♠♠❡ ♣♦✉r ❧❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆✱ ❧❡s ♣♦s✐t✐♦♥s ❞❡s ❝❧✉st❡rs ♣❡✉✈❡♥t êtr❡ ❝❧❛ss✐✜é❡s ❡♥ ♣❧✉s✐❡✉rs ❝❛té❣♦r✐❡s s❡❧♦♥ q✉✬✐❧s ❛♣♣❛r❛✐ss❡♥t à ❧✬✐♥tér✐❡✉r ❞❡ ❣è♥❡s ❞✬❆❘◆♠✱ ❡①♦♥ ♦✉ ✐♥tr♦♥✱ ♦✉ ❡♥tr❡ ❞❡✉① ❣è♥❡s ❞✬❆❘◆♠✳ ▲❡s ♣♦s✐t✐♦♥s ❞❡s ❝❧✉st❡rs ❞é♣❡♥❞❡♥t ❞❡s ♣♦s✐t✐♦♥s ❞❡s ♠✐❝r♦❆❘◆ q✉✐ s♦♥t ❛✉ s❡✐♥ ❞❡ ❝❡s ❝❧✉st❡rs✳ ➚ ✉♥ ❝❧✉st❡r❈❛t❛❧♦❣✉❡ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡s ❆❘◆♠✱ ❞❡s ♠✐❝r♦❆❘◆ ❡t ❞❡ ❧❡✉rs ✐♥t❡r❛❝t✐♦♥s ✺✸ ♠❛t✉r❡✲✺♣ ❜♦✉❝❧❡ ♠❛t✉r❡✲✸♣ 10 . 20 . 30 . ❛♣✐✲♠✐r✲♥♦✈❡❧✸✽✲✸ ❆●●❈❆❆❆❈●●❆❚●❚❈❈❚❚●❆❆❚●❚●❚❚❆❚❚✳❚❆❈❚❚❈●❚❈ ✸✾ ❛♣✐✲♠✐r✲♥♦✈❡❧✸✽✲✷ ❆●●❈❆❆❆❈●●❆❚●❚❈❈❚❚●❆❆❚●❚●❚❚❆❚❚✳❚❆❈❚❚❈●❚❈ ✸✾ ❛♣✐✲♠✐r✲♥♦✈❡❧✸✽✲✶ ❆●●❈❆❆❆❈●●❆❚●❚❈❈❚❚●❆❆❚●❚●❚❚❆❚❚✳❚●❈❚❚❈●❚❈ ✸✾ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✻✲✷ ❆●●❈●❆❆❚●●❆❚●❚❈❈❚❚●❆❆❚●❚●❚❚❆❚❚✳❚●❈❚❚❈●❚❈ ✸✾ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✻✲✸ ❆●●❈●❆❆❚●●❆❚●❚❈❈❚❚●❆❆❚●❚●❚❚❆❚❚✳❚●❈❚❚❈●❚❈ ✸✾ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✻✲✶ ❆●●❈●❆❆❚●●❆❚●❚❈❈❚❚●❆❆❚●❚●❚❚❆❚❚✳❚●❈❚❚❈●❚❈ ✸✾ ❛♣✐✲♠✐r✲♥♦✈❡❧✸✸✲✹ ❆●●❚●❆❆❈●●❆❚●❚❈❈❚❚●❆❆❚●❚●❚❚❆❚❚✳❚●❈❚❚❈●❚❈ ✸✾ ❛♣✐✲♠✐r✲♥♦✈❡❧✸✸✲✷ ❆●●❚●❆❆❈●●❆❚●❚❈❈❚❚●❆❆❚●❚●❚❚❆❚❚✳❚●❈❚❚❈●❚❈ ✸✾ ❛♣✐✲♠✐r✲♥♦✈❡❧✸✸✲✶ ❆●●❚●❆❆❈●●❆❚●❚❈❈❚❚●❆❆❚●❚●❚❚❆❚❚✳❚●❈❚❚❈●❚❈ ✸✾ ❛♣✐✲♠✐r✲♥♦✈❡❧✸✸✲✸ ❆●●❚●❆❆❈●●❆❚●❚❈❈❚❚●❆❆❚●❚●❚❚❆❚❚✳❚●❈❚❚❈●❚❈ ✸✾ ❛♣✐✲♠✐r✲♥♦✈❡❧✺✽ ❆●●❚●❆❆❈●●❆❚●❚❈❈❚❚●❆❆❚●❚●❚❚❆❚❚✳❚●❈❚❚❈●❚❚ ✸✾ ❛♣✐✲♠✐r✲♥♦✈❡❧✷✾❛✲✷ ❆●●❈●❆❆❈●●❆❚●❚❈❈❚❚●❆❆❚●❚●❚❚❆❚❚✳❚●❈❚❚❈●❚❈ ✸✾ ❛♣✐✲♠✐r✲♥♦✈❡❧✷✶❛✲✶ ❆❈●❆●❚❆❈●●❆❚●❈❈❈❆❚●❆❆❈●❚●❆❚❆❆❚❆❚●❆❚❚❈●❚❈ ✹✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✷✶❛✲✹ ❆❈●❆●❚❆❈●●❆❚●❈❈❈❆❚●❆❆❈●❚●❆❚❆❆❚❆❚●❆❚❚❈●❚❈ ✹✵ ♠❛t✉r❡✲✸♣ 40 . 50 . 60 . ❛♣✐✲♠✐r✲♥♦✈❡❧✸✽✲✸ ❈❆❚●●❆❈●❚❈❈❆❚❚❚❆❈❈❚●❈ ✻✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✸✽✲✷ ❈❆❚●●❆❈●❚❈❈❆❚❚❚❆❈❈❚●❈ ✻✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✸✽✲✶ ❈❆❚●●❆❈●❚❈❈❆❚❚❚❆❈❈❚●❈ ✻✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✻✲✷ ❈❆❆●●❆❈●❚❈❈❆❚❚❚●❆❈❚●❚ ✻✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✻✲✸ ❈❆❆●●❆❈●❚❈❈❆❚❚❚●❆❈❚●❚ ✻✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✻✲✶ ❈❆❆●●❆❈●❚❈❈❆❚❚❚●❆❈❚●❚ ✻✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✸✸✲✹ ❈❆❆●●❆❆●❚❈❈●❚❚❆❆❈❈❚●❈ ✻✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✸✸✲✷ ❈❆❆●●❆❆●❚❈❈●❚❚❆❆❈❈❚●❈ ✻✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✸✸✲✶ ❈❆❆●●❆❆●❚❈❈●❚❚❆❆❈❈❚●❈ ✻✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✸✸✲✸ ❈❆❆●●❆❆●❚❈❈●❚❚❆❆❈❈❚●❈ ✻✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✺✽ ❈❆❚●●❆❆●❚❈❈●❚❚❆❆❈❈❚●❈ ✻✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✷✾❛✲✷ ❈❆❈●●❆❈●❚❈❈●❚❚❚❚❈❈❚●❈ ✻✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✷✶❛✲✶ ❈❆❚●●●❈❆❚❈❈❚❚●❚❚❈●❚✳✳ ✺✾ ❛♣✐✲♠✐r✲♥♦✈❡❧✷✶❛✲✹ ❈❆❚●●●❈❆❚❈❈❚❚●❚❚❈●❚✳✳ ✺✾ ❋✐❣✳ ✷✳✼ ✕ ❆❧✐❣♥❡♠❡♥t ♠✉❧t✐♣❧❡ ❞❡s ♣ré❝✉rs❡✉rs ❞✉ ❝❧✉st❡r ❞❡ t❛✐❧❧❡ ✶✹✳ ▲❡s ♥✉❝❧é♦t✐❞❡s ♣rés❡♥ts s✉r ♣❧✉s ❞❡ ✺✵ ✪ ❞❡s séq✉❡♥❝❡s s♦♥t r❡♣rés❡♥tés s✉r ❢♦♥❞ ❜❧❡✉✱ ❧❡s ❛✉tr❡s s✉r ❢♦♥❞ ❜❧❛♥❝ ❀ ❧❡s ♣♦s✐t✐♦♥s ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✺♣ ❡t ✸♣ ❡t ❞❡ ❧❛ ❜♦✉❝❧❡✱ ❞é✜♥✐❡s s✉r ❛♣✐✲♠✐r✲♥♦✈❡❧✸✽✲✸✱ s♦♥t s❝❤é♠❛t✐sé❡s ❡♥ tr❛✐ts ❣r❛s✳ ▲❡s ❛❧✐❣♥❡♠❡♥ts ♦♥t été ♦❜t❡♥✉s ❛✈❡❝ ❈❧✉st❛❧❲✳ ❋✐❣✉r❡ ♦❜t❡♥✉❡ à ❧✬❛✐❞❡ ❞✉ ♣❛q✉❡t ▲❆❚❊❳ ❚❡❳s❤❛❞❡ ❬✶✶✾❪✳ ❞❡ ❣è♥❡s ♦♥ ❛ss♦❝✐❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝❧❛ss❡s ❞❡ ❝❤❛❝✉♥ ❞❡ s❡s é❧é♠❡♥ts✳ ▲❡ ❚❛❜❧❡❛✉ ✷✳✼ ♠♦♥tr❡ ❧❡s ❡✛❡❝t✐❢s ❞❡s ❞✐✛ér❡♥ts ❡♥s❡♠❜❧❡s ♦❜s❡r✈és✳ ▲❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡s ♣♦s✐t✐♦♥s ❞❡s ❝❧✉st❡rs ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ s✉✐t ❣❧♦❜❛❧❡♠❡♥t ❧❛ ❞✐str✐❜✉t✐♦♥ ❞❡ ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡s ❣è♥❡s ❛✈❡❝ ✼✶ ✪ ❞❡s ❝❧✉st❡rs q✉✐ s♦♥t ✐♥t❡r❣é✲ ♥✐q✉❡s✱ ✶✷ ✪ s♦♥t ✐♥tr♦♥✐q✉❡s ❡t ✺ ✪ s♦♥t ❡①♦♥✐q✉❡s✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ✺✷ ❝❧✉st❡rs✱ ✻ ♣♦ssè❞❡♥t ❞❡s ♣♦s✐t✐♦♥♥❡♠❡♥ts ♠✉❧t✐♣❧❡s ✭✶✷ ✪✮✳ ❈❡tt❡ ❝❧❛ss✐✜❝❛t✐♦♥ ♠✉❧t✐♣❧❡ ♣♦✉rr❛✐t êtr❡ ❧❛ ❝♦♥séq✉❡♥❝❡ ❞✬✉♥❡ ♠❛✉✈❛✐s❡ ❛♥♥♦t❛t✐♦♥ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ♦✉ ❞✬❆❘◆♠✳ ▲❛ ❞❡s❝r✐♣t✐♦♥ ❞❡ ✸ ❞❡ ❝❡s ✻ ❝❧✉st❡rs ❡st ❞♦♥❝ ♣rés❡♥té❡ ❝✐✲❞❡ss♦✉s✳ ▲❡ ❝❧✉st❡r ❝♦♥t❡♥❛♥t ❧❡s ❣è♥❡s ❛♣✐✲♠✐r✲♥♦✈❡❧✶✽✲✷✱ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✽✲✸ ❡t ❛♣✐✲♠✐r✲♥♦✈❡❧✹✷✲✺✹ ❈❛t❛❧♦❣✉❡s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ♠❛t✉r❡✲✺♣ ❜♦✉❝❧❡ ♠❛t✉r❡✲✸♣ 10 . 20 . 30 . 40 . ❛♣✐✲♠✐r✲✸✵✺✺✲✺ ❆❚❈●❚❚❚❆❚❈●❈●❆❆❈❈●❈❚❆❚●❚●❆❚❚❚❆❆❆❆❚❚❚❆●❈❆ ✹✵ ❛♣✐✲♠✐r✲✸✵✺✺✲✷ ❆❚❈●❚❚❚❆❚❈●❈●❆❆❈❈●❈❚❆❚●❚●❆❚❚❚❆❆❆❆❚❚❚❆●❈❆ ✹✵ ❛♣✐✲♠✐r✲✸✵✺✺✲✶ ❆❚❈●❚❚❚❆❚❈●❈●❆❆❈❈●❈❚❆❚●❚●❆❚❚❚❆❆❆❆❚❚❚❆●❈❆ ✹✵ ❛♣✐✲♠✐r✲✸✵✺✺✲✸ ❆❚❈●❚❚❚❆❚❈●❈●❆❆❈❈●❈❚❆❚●❚●❆❚❚❚❆❆❆❆❚❚❚❆●❈❆ ✹✵ ❛♣✐✲♠✐r✲✸✵✺✺✲✹ ❆❚❈●❚❚❚❆❚❈●❈●❆❆❈❈●❈❚❆❚●❚●❆❚❚❚❆❆❆❆❚❚❚❆●❈❆ ✹✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✾✺ ❆❚❈●❈❚❚❆❚❈●❈●❆❆❈❈●❈❚❆❚●❚●❆❚❚❚❆❆❆❆❚❚❚❆●❈● ✹✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✶❛✲✶ ❆❈❈❚❆❆❚❆❚❈❆❚●❆❆❚❚●❈❚❆❚●❚❆●❚❚❚❆❆❆❆❚❚❚❆●❈❆ ✹✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✶❛✲✷ ❆❈❈❚❆❆❚❆❚❈❆❚●❆❆❚❚●❈❚❆❚●❚❆●❚❚❚❆❆❆❆❚❚❚❆●❈❆ ✹✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✶❛✲✸ ❆❈❈❚❆❆❚❆❚❈❆❚●❆❆❚❚●❈❚❆❚●❚❆●❚❚❚❆❆❆❆❚❚❚❆●❈❆ ✹✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✶❜ ❆❈❚❚❆❆❚❆❚❈❆❚●❆❆❚❚●❈❚❆❚●❚❆●❚❚❚❆❆❆❆❚❚❚❆●❈❆ ✹✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✸❜ ●❈❈❈❆❆❚❆❚❈●❈●❆❆●❚●❈❚❆❚●❚❆●❚❚❚❆❆❆❆❚❚❚❆❆❈❆ ✹✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✸❛✲✺ ●❈❈❈❆❆❚❆❚❈●❈●❆❆●❚●❈❚❆❚●❚❆●❚❚❚❆❆❆❆❚❚❚❆●❈❆ ✹✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✸❛✲✸ ●❈❈❈❆❆❚❆❚❈●❈●❆❆●❚●❈❚❆❚●❚❆●❚❚❚❆❆❆❆❚❚❚❆●❈❆ ✹✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✸❛✲✹ ●❈❈❈❆❆❚❆❚❈●❈●❆❆●❚●❈❚❆❚●❚❆●❚❚❚❆❆❆❆❚❚❚❆●❈❆ ✹✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✸❛✲✶ ●❈❈❈❆❆❚❆❚❈●❈●❆❆●❚●❈❚❆❚●❚❆●❚❚❚❆❆❆❆❚❚❚❆●❈❆ ✹✵ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✸❛✲✷ ●❈❈❈❆❆❚❆❚❈●❈●❆❆●❚●❈❚❆❚●❚❆●❚❚❚❆❆❆❆❚❚❚❆●❈❆ ✹✵ ♠❛t✉r❡✲✸♣ 50 . ❛♣✐✲♠✐r✲✸✵✺✺✲✺ ●❚❚❈●❈●❆❚❆❆●❈●●❈❈● ✺✽ ❛♣✐✲♠✐r✲✸✵✺✺✲✷ ●❚❚❈●❈●❆❚❆❆●❈●●❈❈● ✺✽ ❛♣✐✲♠✐r✲✸✵✺✺✲✶ ●❚❚❈●❈●❆❚❆❆●❈●●❈❈● ✺✽ ❛♣✐✲♠✐r✲✸✵✺✺✲✸ ●❚❚❈●❈●❆❚❆❆●❈●●❈❈● ✺✽ ❛♣✐✲♠✐r✲✸✵✺✺✲✹ ●❚❚❈●❈●❆❚❆❆●❈●●❈❈● ✺✽ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✾✺ ●❚❚❈●❚●❆❚❆❚❚❈●●❈❈● ✺✽ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✶❛✲✶ ●❚❚❈●❚●❆❚❆❚❚❈●●❈❈● ✺✽ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✶❛✲✷ ●❚❚❈●❚●❆❚❆❚❚❈●●❈❈● ✺✽ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✶❛✲✸ ●❚❚❈●❚●❆❚❆❚❚❈●●❈❈● ✺✽ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✶❜ ●❚❚❈●❚●❆❚❆❚❚❈●●❈❈● ✺✽ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✸❜ ●❚❚❈●❚●❆❚❆❚❚❈●●❈❚● ✺✽ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✸❛✲✺ ●❚❚❈●❈●❆❚❆❆●❚●●❚❈● ✺✽ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✸❛✲✸ ●❚❚❈●❈●❆❚❆❆●❚●●❚❈● ✺✽ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✸❛✲✹ ●❚❚❈●❈●❆❚❆❆●❚●●❚❈● ✺✽ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✸❛✲✶ ●❚❚❈●❈●❆❚❆❆●❚●●❚❈● ✺✽ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✸❛✲✷ ●❚❚❈●❈●❆❚❆❆●❚●●❚❈● ✺✽ ❋✐❣✳ ✷✳✽ ✕ ❆❧✐❣♥❡♠❡♥t ♠✉❧t✐♣❧❡ ❞❡s ♣ré❝✉rs❡✉rs ❞✉ ❝❧✉st❡r ❞❡ t❛✐❧❧❡ ✶✻✳ ▲❡s ♥✉❝❧é♦t✐❞❡s ♣rés❡♥ts s✉r ♣❧✉s ❞❡ ✺✵ ✪ ❞❡s séq✉❡♥❝❡s s♦♥t r❡♣rés❡♥tés s✉r ❢♦♥❞ ❜❧❡✉✱ ❧❡s ❛✉tr❡s s✉r ❢♦♥❞ ❜❧❛♥❝ ❀ ❧❡s ♣♦s✐t✐♦♥s ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✺♣ ❡t ✸♣ ❡t ❞❡ ❧❛ ❜♦✉❝❧❡✱ ❞é✜♥✐❡s s✉r ❛♣✐✲♠✐r✲✸✵✺✺✲✺✱ s♦♥t s❝❤é♠❛t✐sé❡s ❡♥ tr❛✐ts ❣r❛s✳ ▲❡s ❛❧✐❣♥❡♠❡♥ts ♦♥t été ♦❜t❡♥✉s ❛✈❡❝ ❈❧✉st❛❧❲✳ ❋✐❣✉r❡ ♦❜t❡♥✉❡ à ❧✬❛✐❞❡ ❞✉ ♣❛q✉❡t ▲❆❚❊❳ ❚❡❳s❤❛❞❡ ❬✶✶✾❪✳ ✷ ✭❡①♦♥✐q✉❡ ❡t ✐♥t❡r❣é♥✐q✉❡✱ ❋✐❣✉r❡ ✷✳✾✮ ♣♦ssè❞❡ ❞❡✉① ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❡①♦♥✐q✉❡s ✐ss✉s ❞❡ ❧❛ ♠ê♠❡ ❢❛♠✐❧❧❡ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✽ ❡t ✉♥ ❣è♥❡ ✐♥t❡r❣é♥✐q✉❡ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✷✲✷✳ ▲❛ ❞✐st❛♥❝❡ ❡♥tr❡ ❝❡s ✸ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❡st ❞❡ ✶✳✷✹✵ ♥✉❝❧é♦t✐❞❡s ❡♥tr❡ ❛♣✐✲♠✐r✲ ♥♦✈❡❧✶✽✲✸ ❡t ❛♣✐✲♠✐r✲♥♦✈❡❧✶✽✲✷ ❡t ❞❡ ✹✾✼ ♥✉❝❧é♦t✐❞❡s ❡♥tr❡ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✽✲✷ ❡t ❛♣✐✲♠✐r✲ ♥♦✈❡❧✹✷✲✷✳ ▲❡s ❞❡✉① ❣è♥❡s ❡①♦♥✐q✉❡s s♦♥t ❛✉ s❡✐♥ ❞✉ ♠ê♠❡ ❡①♦♥ ❞✉ ✺✬❯❚❘ ❞✉ ❣è♥❡ ❤ôt❡ ❆❈❨P■✺✹✶✸✶✱ ❞♦♥t ✉♥ ❡st s✐t✉é à ❧❛ q✉❛s✐ ✜♥ ❞❡ ❝❡t ❡①♦♥✳ ▲❡ ❣è♥❡ ✐♥t❡r❣é♥✐q✉❡ ❡st ❧✉✐❈❛t❛❧♦❣✉❡ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡s ❆❘◆♠✱ ❞❡s ♠✐❝r♦❆❘◆ ❡t ❞❡ ❧❡✉rs ✐♥t❡r❛❝t✐♦♥s ✺✺ ♣♦s✐t✐♦♥ ❞✉ ❝❧✉st❡r ♥♦♠❜r❡ ❞❡ ❝❧✉st❡rs ④✐♥t❡r❣é♥✐q✉❡⑥ ✸✼ ④✐♥tr♦♥✐q✉❡⑥ ✻ ④❡①♦♥✐q✉❡⑥ ✸ ④❡①♦♥✐q✉❡✱ ✐♥t❡r❣é♥✐q✉❡⑥ ✸ ④✐♥tr♦♥✐q✉❡✱ ✐♥t❡r❣é♥✐q✉❡⑥ ✷ ④❡①♦♥✐q✉❡✱ ✐♥tr♦♥✐q✉❡⑥ ✶ t♦t❛❧ ✺✷ ❚❛❜❧❡❛✉ ✷✳✼ ✕ ❈❧❛ss✐✜❝❛t✐♦♥ ❞❡s ♣♦s✐t✐♦♥s ❣é♥♦♠✐q✉❡s ❞❡s ❝❧✉st❡rs ❞❡ ♠✐❝r♦❆❘◆ ❡t ❧❡✉r ❡✛❡❝t✐❢s✳ s✐t✉é ❞✐r❡❝t❡♠❡♥t ❡♥ ❛✈❛❧ ❞✉ ❞é❜✉t ❞✉ ❣è♥❡ ❆❈❨P■✺✹✶✸✶✳ ❈♦♥❝❡r♥❛♥t ❧❡s séq✉❡♥❝❡s ❞❡ ❝❡s tr♦✐s ❣è♥❡s✱ ❛♣✐✲♠✐r✲♥♦✈❡❧✹✷✲✷ ♣♦ssè❞❡ ✉♥❡ séq✉❡♥❝❡ très ♣r♦❝❤❡ ❞❡s ❞❡✉① ❛✉tr❡s ❛✈❡❝ s❡✉❧❡♠❡♥t tr♦✐s s✉❜st✐t✉t✐♦♥s ❛✉① ♥✉❝❧é♦t✐❞❡s ✷✵ ✭❆✲❃●✮✱ ✹✺ ✭❆✲❃❚✮ ❡t ✺✽ ✭❆✲❃●✮✳ ▲❛ s✐♠✐❧❛r✐té ❞❡ ❝❡s séq✉❡♥❝❡s ❧❛✐ss❡ s✉♣♣♦s❡r q✉❡ ❝❡s tr♦✐s ❣è♥❡s s♦♥t ✐ss✉s ❞✉ ♠ê♠❡ ❣è♥❡ ❞❡ ♠✐❝r♦❆❘◆ ❛♥❝❡str❛❧ ❡t q✉❡ ❧✬❛♥♥♦t❛t✐♦♥ ❞❡ ❝❡ ❝❧✉st❡r ❡st ❝♦rr❡❝t❡✳ 100k 101k 102k 103k 104k GL350396GL350396 match:clustermicroarn GL350396_1 Official gene set 2.1 ACYPI54131-RA ❋✐❣✳ ✷✳✾ ✕ ❘é❣✐♦♥ ❣é♥♦♠✐q✉❡ ❝♦♥t❡♥❛♥t ❧❡ ❝❧✉st❡r ●▲✸✺✵✸✾✻❴✶ ❞❡s ♠✐❝r♦❆❘◆ ❛♣✐✲ ♠✐r✲♥♦✈❡❧✶✽✲✸✱ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✽✲✷ ❡t ❛♣✐✲♠✐r✲♥♦✈❡❧✹✷✲✷ ❡t ❧❡ ❣è♥❡ ❤ôt❡ ❆❈❨P■✺✹✶✸✶✳ ▲❡ ❝❧✉st❡r ❞❡ ♠✐❝r♦❆❘◆ ❡st r❡♣rés❡♥té ❡♥ ❤❛✉t ❡♥ r♦✉❣❡✳ ▲❡s ✢è❝❤❡s s❝❤é♠❛t✐s❡♥t ❧❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❡t ❧❡ ❜r✐♥✳ ▲❡s ❣è♥❡s s♦♥t r❡♣rés❡♥tés ❡♥ ❜❛s ❡♥ ✈✐♦❧❡t✳ ▲❡s r❡❝t❛♥❣❧❡s s❝❤é✲ ♠❛t✐s❡♥t ❧❡s ❡①♦♥s ✭❢♦♥❝é ♣♦✉r ❧❡s ré❣✐♦♥s tr❛❞✉✐t❡s✱ ❝❧❛✐r ♣♦✉r ❧❡s ré❣✐♦♥s ♥♦♥ tr❛❞✉✐t❡s✮✱ ❧❡s tr❛✐ts ❧❡s ✐♥tr♦♥s ❡t ❧❛ ✢è❝❤❡ ❧❡ ❜r✐♥✳ ▲❛ ✜❣✉r❡ ❛ été ❡①tr❛✐t❡ ❞✬❆♣❤✐❞❇❛s❡✳ ▲❡ ❞❡✉①✐è♠❡ ❝❧✉st❡r ✭❡①♦♥✐q✉❡ ❡t ✐♥tr♦♥✐q✉❡✱ ❋✐❣✉r❡ ✷✳✶✵✮ ❝♦♥t✐❡♥t t♦✉s ❧❡s ❣è♥❡s ❞❡ ❧❛ ❢❛♠✐❧❧❡ ❛♣✐✲♠✐r✲✸✵✹✸ ✿ ❛♣✐✲♠✐r✲✸✵✹✸✲✶✱ ❛♣✐✲♠✐r✲✸✵✹✸✲✷ ❡t ❛♣✐✲♠✐r✲✸✵✹✸✲✸✳ ❉❡✉① ❣è♥❡s s♦♥t ❡①♦♥✐q✉❡s ✭❛♣✐✲♠✐r✲✸✵✹✸✲✶ ❡t ❛♣✐✲♠✐r✲✸✵✹✸✲✸✮ ❡t ❧✬❛✉tr❡ ❡st ✐♥tr♦♥✐q✉❡✳ ❈❡s ✸ ❣è♥❡s s♦♥t q✉❛s✐♠❡♥t éq✉✐❞✐st❛♥ts ❧❡s ✉♥s ❞❡s ❛✉tr❡s ❛✈❡❝ ❞❡s ❞✐st❛♥❝❡s ❞❡ ✶✳✸✹✶ ♥✉❝❧é♦t✐❞❡s ❡t ✶✳✸✸✻ ♥✉❝❧é♦t✐❞❡s✳ ❈❡s ✸ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ s♦♥t ✐♥❝❧✉s ❞❛♥s ✸ ❣è♥❡s ❤ôt❡s ❆❈❨P■✹✽✹✺✻✱ ❆❈❨P■✵✽✷✵✻✾ ❡t ❆❈❨P■✵✽✵✾✺✻✳ ▲❡s ❞❡✉① ❣è♥❡s ❤ôt❡s ❆❈❨P■✹✽✹✺✻ ❡t ❆❈❨P■✵✽✷✵✻✾ ♣♦ssè❞❡♥t ✉♥❡ ❛♥♥♦t❛t✐♦♥ ❘❡❢❙❡q ❬✶✵✽❪ ♠❛✐s ❛✉❝✉♥ ♥❡ ♣♦ssè❞❡ ✉♥❡ ♣r♦té✐♥❡ ❤♦♠♦❧♦❣✉❡ ❝♦♥♥✉❡✳ P♦✉r ❧❡ ❣è♥❡ ❤ôt❡ ❆❈❨P■✵✽✵✾✺✻✱ ❛✉❝✉♥❡ ❛♥♥♦t❛t✐♦♥ ❘❡❢❙❡q ♦✉ ♣r♦té✐♥❡ ❤♦✲ ♠♦❧♦❣✉❡ ♥✬❡st ❝♦♥♥✉❡✳ ❉❡ ♣❧✉s✱ ❧✬❛♥♥♦t❛t✐♦♥ ❛✉t♦♠❛t✐q✉❡ ❞❡ ❝❡ ❣è♥❡ ♥❡ ♣ré❞✐t ❛✉❝✉♥❡ séq✉❡♥❝❡ ✺✬❯❚❘ ♥✐ ❛✉❝✉♥ séq✉❡♥❝❡ ✸✬❯❚❘✳ ▲✬❤②♣♦t❤ès❡ ❞✬✉♥❡ ♠❛✉✈❛✐s❡ ❛♥♥♦t❛t✐♦♥ ❞✉ ❣è♥❡ ❆❈❨P■✵✽✵✾✺✻ ♥✬❡st ❞♦♥❝ ♣❛s à ❡①❝❧✉r❡✳ ❈❡ ❝❧✉st❡r ❝♦♠♣♦rt❡r❛✐t ❞♦♥❝ ✉♥ s❡✉❧ ❣è♥❡ ❞❡ ♠✐❝r♦❆❘◆ ❡①♦♥✐q✉❡✱ ❛♣✐✲♠✐r✲✸✵✹✸✲✸ ❡t ❞❡✉① ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ✐♥tr♦♥✐q✉❡s ❛♣✐✲♠✐r✲✸✵✹✸✲✶ ❡t ❛♣✐✲♠✐r✲✸✵✹✸✲✷✱ t♦✉s ❧❡s tr♦✐s ❛✉ s❡✐♥ ❞❡s ❣è♥❡s ❤ôt❡s ❆❈❨P■✹✽✹✺✻ ❡t ❆❈❨P■✵✽✷✵✻✾✳ ▲❡ tr♦✐s✐è♠❡ ❝❧✉st❡r ✭✐♥tr♦♥✐q✉❡ ❡t ✐♥t❡r❣é♥✐q✉❡✱ ❋✐❣✉r❡ ✷✳✶✶✮ ✐♥❝❧✉t q✉❛tr❡ ❣è♥❡s✺✻ ❈❛t❛❧♦❣✉❡s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ 609k 610k 611k 612k 613k 614k 615k 616k 617k 618k 619k 620k 621k 622k GL349650GL349650 match:clustermicroarn GL349650_1 Official gene set 2.1 ACYPI48456-RA ACYPI082069-RA ACYPI080956-RA ACYPI27700-RA ❋✐❣✳ ✷✳✶✵ ✕ ❘é❣✐♦♥ ❣é♥♦♠✐q✉❡ ❝♦♥t❡♥❛♥t ❧❡ ❝❧✉st❡r ●▲✸✹✾✻✺✵❴✶ ❞❡s ♠✐❝r♦❆❘◆ ❛♣✐✲♠✐r✲ ✸✵✹✸✲✶✱ ❛♣✐✲♠✐r✲✸✵✹✸✲✷ ❡t ❛♣✐✲♠✐r✲✸✵✹✸✲✸ ❡t ❧❡s ❣è♥❡s ❤ôt❡s ❆❈❨P■✹✽✹✺✻✱ ❆❈❨P■✵✽✷✵✻✾ ❡t ❆❈❨P■✵✽✵✾✺✻✳ ▲❡ ❝❧✉st❡r ❞❡ ♠✐❝r♦❆❘◆ ❡st r❡♣rés❡♥té ❡♥ ❤❛✉t ❡♥ r♦✉❣❡✳ ▲❡s ✢è❝❤❡s s❝❤é♠❛t✐s❡♥t ❧❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❡t ❧❡ ❜r✐♥✳ ▲❡s ❣è♥❡s s♦♥t r❡♣rés❡♥tés ❡♥ ❜❛s ❡♥ ✈✐♦❧❡t✳ ▲❡s r❡❝t❛♥❣❧❡s s❝❤é♠❛t✐s❡♥t ❧❡s ❡①♦♥s ✭❢♦♥❝é ♣♦✉r ❧❡s ré❣✐♦♥s tr❛❞✉✐t❡s✱ ❝❧❛✐r ♣♦✉r ❧❡s ré❣✐♦♥s ♥♦♥ tr❛❞✉✐t❡s✮✱ ❧❡s tr❛✐ts ❧❡s ✐♥tr♦♥s ❡t ❧❛ ✢è❝❤❡ ❧❡ ❜r✐♥✳ ▲❛ ✜❣✉r❡ ❛ été ❡①tr❛✐t❡ ❞✬❆♣❤✐❞❇❛s❡✳ ❞❡ ♠✐❝r♦❆❘◆ ✿ ❛♣✐✲♠✐r✲♥♦✈❡❧✷✸✲✶✱ ❛♣✐✲♠✐r✲♥♦✈❡❧✷✸✲✷✱ ❛♣✐✲♠✐r✲♥♦✈❡❧✺✷❜✲✷ ❡t ❛♣✐✲♠✐r✲ ♥♦✈❡❧✺✷❜✲✹ q✉✐ ❛♣♣❛rt✐❡♥♥❡♥t à ❞❡✉① ❢❛♠✐❧❧❡s ❞❡ ♠✐❝r♦❆❘◆ ❞✐✛ér❡♥t❡s ❛✈❡❝ ❧❛ ❢❛♠✐❧❧❡ ❛♣✐✲♠✐r✲♥♦✈❡❧✷✸ q✉✐ ❡st r❡♣rés❡♥té❡ ❛✉ ❝♦♠♣❧❡t ❡t ❧❛ ❢❛♠✐❧❧❡ ❛♣✐✲♠✐r✲♥♦✈❡❧✺✷ ♣♦✉r ❧❛q✉❡❧❧❡ ✐❧ ♠❛♥q✉❡ tr♦✐s ❣è♥❡s ✿ ❞❡✉① s✉r ❧❡ ♠ê♠❡ s❝❛✛♦❧❞ ♠❛✐s à ✉♥❡ ❞✐st❛♥❝❡ tr♦♣ é❧❡✈é❡ ♣♦✉r êtr❡ ❛ss✐♠✐❧é ❛✉ ♠ê♠❡ ❝❧✉st❡r ❡t ✉♥ s✉r ✉♥ ❛✉tr❡ s❝❛✛♦❧❞✳ ❉❡ ♣❧✉s✱ ❧❡s séq✉❡♥❝❡s ❡♥tr❡ ❝❡s ❞❡✉① ❢❛♠✐❧❧❡s s♦♥t très ♣r♦❝❤❡s✳ ❙✉r ❝❡s ✹ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆✱ ✸ s♦♥t ✐♥tr♦♥✐q✉❡s ❛✉ ❣è♥❡ ❤ôt❡ ❆❈❨P■✽✹✺✽✹ ✭❛♣✐✲♠✐r✲♥♦✈❡❧✺✷❜✲✷✱ ❛♣✐✲♠✐r✲♥♦✈❡❧✷✸✲✷ ❡t ❛♣✐✲♠✐r✲♥♦✈❡❧✷✸✲✶✮ ❡t ❧❡ ❞❡r♥✐❡r ❡st ✐♥t❡r❣é♥✐q✉❡ ✭❛♣✐✲♠✐r✲♥♦✈❡❧✺✷❜✲✹✮✳ ❉❡ ♣❧✉s✱ ❝♦♠♠❡ ♣♦✉r ❧❡ ❞❡✉①✐è♠❡ ❝❧✉st❡r✱ ❧❡s ✹ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ s♦♥t à ❞❡s ❞✐st❛♥❝❡s q✉❛s✐♠❡♥t ✐❞❡♥t✐q✉❡s ✿ ✶✸✹✶ ♥✉✲ ❝❧é♦t✐❞❡s✱ ✶✸✻✵ ♥✉❝❧é♦t✐❞❡s ❡t ✶✸✹✸ ♥✉❝❧é♦t✐❞❡s✳ ▲❡ ❢❛✐t q✉❡ ❧❡s ✹ ❣è♥❡s ♣r♦✈✐❡♥♥❡♥t ❞❡ ❞❡✉① ❢❛♠✐❧❧❡s très ♣r♦❝❤❡s ❡♥ séq✉❡♥❝❡ ❧❛✐ss❡ s✉♣♣♦s❡r q✉❡ ❝❡ ❝❧✉st❡r ❡st ❛♥♥♦té ❞❡ ❢❛ç♦♥ ❝♦rr❡❝t❡✳ 630k 631k 632k 633k 634k 635k GL349650GL349650 match:clustermicroarn GL349650_3 Official gene set 2.1 ACYPI084584-RA ❋✐❣✳ ✷✳✶✶ ✕ ❘é❣✐♦♥ ❣é♥♦♠✐q✉❡ ❝♦♥t❡♥❛♥t ❧❡ ❝❧✉st❡r ●▲✸✹✾✻✺✵❴✸ ❞❡s ♠✐❝r♦❆❘◆ ❛♣✐✲ ♠✐r✲♥♦✈❡❧✷✸✲✶✱ ❛♣✐✲♠✐r✲♥♦✈❡❧✷✸✲✷✱ ❛♣✐✲♠✐r✲♥♦✈❡❧✺✷❜✲✷ ❡t ❛♣✐✲♠✐r✲♥♦✈❡❧✺✷❜✲✹ ❡t ❧❡ ❣è♥❡ ❤ôt❡ ❆❈❨P■✽✹✺✽✹✳ ▲❡ ❝❧✉st❡r ❞❡ ♠✐❝r♦❆❘◆ ❡st r❡♣rés❡♥té ❡♥ ❤❛✉t ❡♥ r♦✉❣❡✳ ▲❡s ✢è❝❤❡s s❝❤é♠❛t✐s❡♥t ❧❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❡t ❧❡ ❜r✐♥✳ ▲❡s ❣è♥❡s s♦♥t r❡♣rés❡♥tés ❡♥ ❜❛s ❡♥ ✈✐♦❧❡t✳ ▲❡s r❡❝t❛♥❣❧❡s s❝❤é♠❛t✐s❡♥t ❧❡s ❡①♦♥s ✭❢♦♥❝é ♣♦✉r ❧❡s ré❣✐♦♥s tr❛❞✉✐t❡s✱ ❝❧❛✐r ♣♦✉r ❧❡s ré❣✐♦♥s ♥♦♥ tr❛❞✉✐t❡s✮✱ ❧❡s tr❛✐ts ❧❡s ✐♥tr♦♥s ❡t ❧❛ ✢è❝❤❡ ❧❡ ❜r✐♥✳ ▲❛ ✜❣✉r❡ ❛ été ❡①tr❛✐t❡ ❞✬❆♣❤✐❞❇❛s❡✳ ❊♥ r❡❣❛r❞❛♥t ❞❡ ❢❛ç♦♥ ♣❧✉s ♣r♦❝❤❡ tr♦✐s ❞❡s ❝❧✉st❡rs ❛♥♥♦tés ❛✈❡❝ ❞✐✛ér❡♥t❡s ♣♦✲ s✐t✐♦♥s✱ ✐❧ ❛♣♣❛r❛ît q✉❡ ❧❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ q✉✐ ❝♦♥st✐t✉❡♥t ❝❤❛❝✉♥ ❞❡s ❝❧✉st❡rs❈❛t❛❧♦❣✉❡ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡s ❆❘◆♠✱ ❞❡s ♠✐❝r♦❆❘◆ ❡t ❞❡ ❧❡✉rs ✐♥t❡r❛❝t✐♦♥s ✺✼ s❡♠❜❧❡♥t ♣r♦✈❡♥✐r ❞❡ ❧❛ ❞✉♣❧✐❝❛t✐♦♥ ❞✬✉♥ ♠ê♠❡ ❣è♥❡ ❛♥❝❡str❛❧ ❝❡ q✉✐ ❧❛✐ss❡ s✉♣♣♦s❡r q✉❡ ❝❡s ❝❧✉st❡rs s♦♥t ❛♥♥♦tés ❞❡ ❢❛ç♦♥ ❝♦rr❡❝t❡✳ ❉✉♣❧✐❝❛t✐♦♥ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❉✉♣❧✐❝❛t✐♦♥ ▲❡ ❣é♥♦♠❡ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ♣♦ssè❞❡ ✉♥ ♥♦♠❜r❡ é❧❡✈é ❞❡ ❣è♥❡s ❞✬❆❘◆♠ ❞✉♣❧✐q✉és ❡t ✉♥ ❣r❛♥❞ ♥♦♠❜r❡ ❞❡ ❢❛♠✐❧❧❡s ❞❡ ❣è♥❡s ❞✬❆❘◆♠ ✭❡♥✈✐r♦♥ ✷✳✵✵✵✮ ❛ s✉❜✐ ✉♥❡ ❡①♣❛♥s✐♦♥ ❬✶✺❪✳ ▲❡ ♥♦♠❜r❡ ❞❡ séq✉❡♥❝❡s ✉♥✐q✉❡s ❞❡ ♣ré❝✉rs❡✉rs ❞❡ ♠✐❝r♦❆❘◆ ♣ré❞✐ts ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ✭✸✷✾✮ ✐♥❢ér✐❡✉r ❛✉ ♥♦♠❜r❡ ❞❡ ❣è♥❡s ✭✹✵✶✮ ✐♥❞✐q✉❡ q✉❡✱ ♣♦✉r ❧❡s ♠✐❝r♦❆❘◆✱ ✐❧ ② ❛ ❛✉ss✐ ❡✉ ✉♥❡ ♣♦t❡♥t✐❡❧❧❡ ❞✉♣❧✐❝❛t✐♦♥ ♦✉ ❡①♣❛♥s✐♦♥ à ❞❡s ♣♦s✐t✐♦♥s ❣é♥♦♠✐q✉❡s ❞✐✛ér❡♥t❡s ❞❡ ❝❡s séq✉❡♥❝❡s ❞❡ ♣ré❝✉rs❡✉rs✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ✸✷✾ séq✉❡♥❝❡s ✉♥✐q✉❡s ❞❡ ♣ré❝✉rs❡✉rs✱ ✹✹ s♦♥t ❞✉♣❧✐q✉é❡s ❛✈❡❝ ♣♦✉r ✉♥ ♣ré❝✉rs❡✉r ❞♦♥♥é✱ ✉♥ ♥♦♠❜r❡ ❞❡ ❣è♥❡s ❞✉♣❧✐q✉és ❛❧❧❛♥t ❞❡ ✷ à ✺ ✭✈♦✐r ❚❛❜❧❡❛✉ ✷✳✽✮✳ ♥♦♠❜r❡ ❞❡ ❝♦♣✐❡s s✉r ❧❡ ❣é♥♦♠❡ ♥♦♠❜r❡ ❞❡ ♣ré❝✉rs❡✉rs ♥♦♠❜r❡ ❞❡ ❣è♥❡s ✶ ✷✽✺ ✷✽✺ ✷ ✷✼ ✺✹ ✸ ✶✵ ✸✵ ✹ ✸ ✶✷ ✺ ✹ ✷✵ t♦t❛❧ ✸✷✾ ✹✵✶ ❚❛❜❧❡❛✉ ✷✳✽ ✕ ◆♦♠❜r❡ ❞❡ ♣ré❝✉rs❡✉rs ✉♥✐q✉❡s ❡t ♥♦♠❜r❡ ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ♣rés❡♥ts ❡♥ ✶✱ ✷✱ ✸✱ ✹ ♦✉ ✺ ❝♦♣✐❡s s✉r ❧❡ ❣é♥♦♠❡✳ ▲✬❡♥s❡♠❜❧❡ ❞❡s ✶✶✻ ❣è♥❡s ♣rés❡♥ts ❡♥ ♣❧✉s✐❡✉rs ❝♦♣✐❡s s✉r ❧❡ ❣é♥♦♠❡ r❡♣rés❡♥t❡ ✸✵ ✪ ❞❡s ✹✵✶ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ✐❞❡♥t✐✜és ❝❤❡③ ❆✳ ♣✐s✉♠✳ P❛r♠✐ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝❧✉st❡rs ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆✱ s❡✉❧❡♠❡♥t ✸ s♦♥t ❝♦♥st✐t✉és ❞✬✉♥❡ ♠ê♠❡ séq✉❡♥❝❡ ré♣été❡✱ ❧❡s ❝❧✉st❡rs ✐♥❝❧✉❛♥t ❛♣✐✲♠✐r✲✸✵✹✸✲✶✴✲✷✴✲✸✱ ❛♣✐✲♠✐r✲♥♦✈❡❧✺✷❜✲✶✴✲✸ ❡t ❛♣✐✲♠✐r✲♥♦✈❡❧✹✻✲✷✴✲✸✳ ▲❡s ❞❡✉① ♣r❡♠✐❡rs ❝❧✉st❡rs s♦♥t ♣rés❡♥ts s✉r ❧❡ ♠ê♠❡ s❝❛✛♦❧❞✳ ❈❡ ♥♦♠❜r❡ r❡♣rés❡♥t❡ ❡♥✈✐r♦♥ ✺ ✪ ❞✉ ♥♦♠❜r❡ t♦t❛❧ ❞❡ ❝❧✉st❡rs ✐❞❡♥t✐✜és ❝❤❡③ ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✱ ❝❡ q✉✐ ❡st ❡♥ ❛❝❝♦r❞ ❛✈❡❝ ❧❡s ♦❜s❡r✈❛t✐♦♥s ❢❛✐t❡s ❝❤❡③ ❞✬❛✉tr❡s ❡s♣è❝❡s ❬✶✶✻❪✳ ❋❛♠✐❧❧❡s ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❛✉ s❡✐♥ ❞❡s ❝❧✉st❡rs ▲❡s ❝❧✉st❡rs ❞❡ ♠✐❝r♦❆❘◆ s♦♥t ❝♦♥st✐t✉és ❞❡ ❣è♥❡s q✉✐ s♦♥t ♣r♦❝❤❡s s✉r ❧❡ ❣é♥♦♠❡ ❡t ❝❡s ❝❧✉st❡rs s♦♥t s♦✉✈❡♥t ❢♦r✲ ♠és ♣❛r ❞❡s ❞✉♣❧✐❝❛t✐♦♥s ❡♥ t❛♥❞❡♠ ❞❡s ♠✐❝r♦❆❘◆ ❬✷✺❪✳ ❉❡ ♣❧✉s✱ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ q✉✐ s♦♥t ✐ss✉s ❞✬✉♥❡ ❞✉♣❧✐❝❛t✐♦♥ ♦♥t ❞❡ ❢♦rt❡s ❝❤❛♥❝❡s ❞❡ ❢❛✐r❡ ♣❛rt✐❡ ❞❡ ❧❛ ♠ê♠❡ ❢❛♠✐❧❧❡ ❝❛r ✐❧s ♦♥t ❧❛ ♠ê♠❡ séq✉❡♥❝❡ ❞✬♦r✐❣✐♥❡✳ ❖♥ ♣❡✉t ❞♦♥❝ s❡ ❞❡♠❛♥❞❡r s✐ ❧❡s ❝❧✉st❡rs ✐❞❡♥t✐✲ ✜és ♣ré❝é❞❡♠♠❡♥t s♦♥t ♣r✐♥❝✐♣❛❧❡♠❡♥t ❝♦♥st✐t✉és ❞✬✉♥❡ ♠ê♠❡ ❢❛♠✐❧❧❡✳ ▲❡ ❚❛❜❧❡❛✉ ✷✳✾ ♠♦♥tr❡ ❧❡ ♥♦♠❜r❡ ❞❡ ❢❛♠✐❧❧❡s q✉✐ s♦♥t ♣rés❡♥t❡s ❞❛♥s ❧❡s ✺✷ ❝❧✉st❡rs ♦ù s♦♥t ♣rés❡♥t❡s ❧❡s ❢❛♠✐❧❧❡s ❛✈❡❝ q✉✬✉♥ s❡✉❧ ❣è♥❡✳ ❖♥ ♣❡✉t ✈♦✐r q✉❡ ❧❛ ♠❛❥♦r✐té ❞❡s ❝❧✉st❡rs ✭✹✻ ✪✮ ✐♥❝❧✉❡ ❞❡✉① ❢❛♠✐❧❧❡s✳ ❱✐❡♥♥❡♥t ❡♥s✉✐t❡ ❧❡s ❝❧✉st❡rs ✐♥❝❧✉❛♥t ✉♥❡✱ tr♦✐s✱ q✉❛tr❡ ♦✉ ❝✐♥q ❢❛♠✐❧❧❡s ❡t ❧❡s ❝❧✉st❡rs ✐♥❝❧✉❛♥t s✐① ♦✉ ❤✉✐t ❢❛♠✐❧❧❡s s♦♥t très ♣❡✉ r❡♣rés❡♥tés ❛✈❡❝ r❡s♣❡❝t✐✈❡✲ ♠❡♥t ❞❡✉① ❡t ✉♥ ❝❧✉st❡rs✳ ▲❡s ♠ê♠❡s rés✉❧t❛ts s♦♥t ♣rés❡♥tés s✉r ❧❡ ❚❛❜❧❡❛✉ ✷✳✾ ♣♦✉r ❉✳ ♠❡❧❛♥♦❣❛st❡r ✳ ❖♥ ♣❡✉t ✈♦✐r q✉❡✱ ❡♥ ✈❛❧❡✉r ❛❜s♦❧✉❡✱ ❧❡s ❡✛❡❝t✐❢s s♦♥t ❞✐✛ér❡♥ts ❝❡ q✉✐ s✬❡①♣❧✐q✉❡ ♣❛r ❧❡ ❢❛✐t q✉❡ ❧❡ ♥♦♠❜r❡ t♦t❛❧ ❞❡ ❝❧✉st❡rs ❡st ❞✐✛ér❡♥t✱ ✺✷ ♣♦✉r ❆✳ ♣✐s✉♠ ❡t ✷✷✺✽ ❈❛t❛❧♦❣✉❡s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ♣♦✉r ❉✳ ♠❡❧❛♥♦❣❛st❡r ✳ ◆é❛♥♠♦✐♥s✱ ❧❡s ♣♦✉r❝❡♥t❛❣❡s ❡t ❧❡s ré♣❛rt✐t✐♦♥s s♦♥t ❣❧♦❜❛❧❡♠❡♥t s✐♠✐❧❛✐r❡s ❡♥tr❡ ❧❡s ❞❡✉① ❡s♣è❝❡s✳ ♥♦♠❜r❡ ❞❡ ❢❛♠✐❧❧❡s ♣rés❡♥t❡s ♥♦♠❜r❡ ❞❡ ❝❧✉st❡rs ✭✪✮ ❆✳ ♣✐s✉♠ ❉✳ ♠❡❧❛♥♦❣❛st❡r ✶ ✻ ✭✶✷ ✪✮ ✷ ✭✾ ✪✮ ✷ ✷✹ ✭✹✻ ✪✮ ✶✷ ✭✺✹ ✪✮ ✸ ✽ ✭✶✺ ✪✮ ✹ ✭✶✽ ✪✮ ✹ ✺ ✭✾ ✪✮ ✵ ✭✵ ✪✮ ✺ ✻ ✭✶✷ ✪✮ ✶ ✭✺ ✪✮ ✻ ✷ ✭✹ ✪✮ ✷ ✭✾ ✪✮ ✼ ✵ ✭✵ ✪✮ ✶ ✭✺ ✪✮ ✽ ✶ ✭✷ ✪✮ ✵ ✭✵ ✪✮ t♦t❛❧ ✺✷ ✭✶✵✵ ✪✮ ✷✷ ✭✶✵✵ ✪✮ ❚❛❜❧❡❛✉ ✷✳✾ ✕ ❚❛❜❧❡❛✉ ❞✉ ♥♦♠❜r❡ ❞❡ ❢❛♠✐❧❧❡s ♣rés❡♥t❡s ❞❛♥s ❧❡s ❝❧✉st❡rs ♣♦✉r ❆✳ ♣✐s✉♠ ❡t ❉✳ ♠❡❧❛♥♦❣❛st❡r ✳ ❈♦✲❞✉♣❧✐❝❛t✐♦♥ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❡t ❞❡ ❧❡✉rs ❣è♥❡s ❤ôt❡s ❯♥ ❣r❛♥❞ ♥♦♠❜r❡ ❞❡ ❣è♥❡s ❞✬❆❘◆♠ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s s♦♥t ❞✉♣❧✐q✉és ❬✶✺❪ ❡t ❞❡ ♣❧✉s ✐❧ ❛ été ♠♦♥tré ♣ré❝é❞❡♠♠❡♥t q✉❡ ✸✼ ✪ ✭✶✹✽✮ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ s♦♥t ✐♥tr❛❣é♥✐q✉❡s ✭♣❛rt✐❡ ✷✳✷✳✷✮ ❡t q✉❡ ❛✉ ♠♦✐♥s ✸✵ ✪ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ s♦♥t ❞✉♣❧✐q✉és ✭✈♦✐r ❝✐✲❞❡ss✉s✮✳ ▲❛ ré♣❛rt✐t✐♦♥ ❡♥tr❡ ❧❡s ♣♦s✐t✐♦♥s ✐♥t❡r❣é♥✐q✉❡s✱ ✐♥tr♦♥✐q✉❡s ❡t ❡①♦♥✐q✉❡s ❞❡s ✶✶✻ ❣è♥❡s ✐ss✉s ❞❡ ❧❛ ❞✉♣❧✐❝❛t✐♦♥ ❞❡s ✹✹ séq✉❡♥❝❡s ❞❡ ♣ré❝✉rs❡✉rs ❡st ❞♦♥♥é❡ ❝✐✲❞❡ss♦✉s ✿ ✕ ✼✾ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ s♦♥t ✐♥t❡r❣é♥✐q✉❡s ❀ ✕ ✷✼ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ s♦♥t ✐♥tr♦♥✐q✉❡s ❀ ✕ ✶✵ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ s♦♥t ❡①♦♥✐q✉❡s✳ ■❧ ❡st ♣♦ss✐❜❧❡ q✉❡ ❧❡s ✸✼ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ✐♥tr❛❣é♥✐q✉❡s ✭✷✼ ✐♥tr♦♥✐q✉❡s ❡t ✶✵ ❡①♦♥✐q✉❡s✮ ❡t ❧❡✉rs ❣è♥❡s ❤ôt❡s ❛✐❡♥t été ❝♦✲❞✉♣❧✐q✉és✳ P♦✉r t❡st❡r ❝❡tt❡ ❤②♣♦t❤ès❡✱ ❧❛ ❜❛s❡ ❞❡ ❞♦♥♥é❡s P❤②❧♦♠❡❉❇ ❬✶✵✾❪ ✭✈❡rs✐♦♥ ✹✮ ❛ été ✉t✐❧✐sé❡✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ✷✷ ❣è♥❡s ❝♦❞❛♥t ♣♦✉r ❞❡s ♣r♦té✐♥❡s ❡t ✐♥❝❧✉❛♥t ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ✐ss✉s ❞❡ ❞✉♣❧✐❝❛t✐♦♥✱ s❡✉❧s ✻ ❞✬❡♥tr❡ ❡✉① ✭✷✼ ✪✮ ♣♦ssè❞❡♥t ✉♥ ❛r❜r❡ ♣❤②❧♦❣é♥ét✐q✉❡✳ P❛r♠✐ ❝❡s ✻ ❣è♥❡s ❤ôt❡s✱ ❧❡s ❞❡✉① ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ✐♥tr♦♥✐q✉❡s ❛♣✐✲♠✐r✲♥♦✈❡❧✷✺✲✶ ❡t ❛♣✐✲♠✐r✲♥♦✈❡❧✷✺✲✷ ♣♦ssè❞❡♥t ❧❛ ♠ê♠❡ séq✉❡♥❝❡ ❡t s♦♥t r❡s♣❡❝t✐✈❡♠❡♥t ✐♥❝❧✉s ❞❛♥s ❧❡s ❣è♥❡s ❤ôt❡s ❆❈❨P■✵✽✽✼✸✻ ❡t ❆❈❨P■✵✵✼✸✹✽✳ ❈❡s ❞❡✉① ❣è♥❡s ❤ôt❡s s♦♥t ❛♥♥♦tés ❝♦♠♠❡ ✐ss✉s ❞✬✉♥❡ ❞✉♣❧✐❝❛t✐♦♥ s✉r P❤②❧♦♠❡❉❇✳ ▲❛ ❝♦✲❞✉♣❧✐❝❛t✐♦♥ ❞✬✉♥ ❣è♥❡ ❞❡ ♠✐❝r♦❆❘◆ ❛♥❝❡str❛❧ ❡t ❞❡ s♦♥ ❣è♥❡ ❤ôt❡ ❛♥❝❡str❛❧ ❡①♣❧✐q✉❡ ♣♦t❡♥t✐❡❧❧❡♠❡♥t ❧✬❛♣♣❛r✐t✐♦♥ ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❛✈❡❝ ❧❛ ♠ê♠❡ séq✉❡♥❝❡ ❛✉ s❡✐♥ ❞❡ ❣è♥❡s ❤ôt❡s ✐ss✉s ❞✬✉♥❡ ♠ê♠❡ ❞✉♣❧✐❝❛t✐♦♥✳ ▲❡ ❝❛s ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❛♣✐✲♠✐r✲♥♦✈❡❧✷✺✲✶ ❡t ❛♣✐✲♠✐r✲♥♦✈❡❧✷✺✲✷ ❝♦✲❞✉♣❧✐q✉és ❛✈❡❝ ❧❡✉rs ❣è♥❡s ❤ôt❡s ❡st ❧❡ s❡✉❧ ❝❛s tr♦✉✈é✱ à ♣❛rt✐r ❞❡s ❞♦♥♥é❡s ❞✐s♣♦♥✐❜❧❡s✳ ■❧ ❡st ♣♦ss✐❜❧❡ q✉❡ ❧❛ ❞✉♣❧✐❝❛t✐♦♥ ❞❡s ❣è♥❡s ❤ôt❡s s♦✐t ❛♥tér✐❡✉r❡ à ❧❛ ❞✉♣❧✐❝❛t✐♦♥ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆✱ ❛✉q✉❡❧ ❝❛s ❧✬❛♣♣❛r✐t✐♦♥ ❞✬✉♥ ❣è♥❡ ❞❡ ♠✐❝r♦❆❘◆ s❡ s❡r❛✐t ❢❛✐t ❛✉ s❡✐♥ ❞❡ s♦♥ ❣è♥❡ ❤ôt❡ ❛♣rès ❧❛ ❞✉♣❧✐❝❛t✐♦♥ ❞❡ ❝❡ ❣è♥❡ ❤ôt❡✳ ❯♥❡ ❛✉tr❡ ❤②♣♦t❤ès❡ s❡r❛✐t q✉❡ ❧❡ ❣è♥❡ ❞❡ ♠✐❝r♦❆❘◆ s❡ s♦✐t ❜✐❡♥ ❝♦✲❞✉♣❧✐q✉é ❛✈❡❝ s♦♥ ❣è♥❡ ❤ôt❡ ♠❛✐s q✉❡ ❧✬✉♥ ❞❡s ❞❡✉① ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ♣♦ssè❞❡ ♠❛✐♥t❡♥❛♥t ✉♥❡ séq✉❡♥❝❡ ❞✐✛ér❡♥t❡ ❞û à ❧✬é✈♦❧✉t✐♦♥❈❛t❛❧♦❣✉❡ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡s ❆❘◆♠✱ ❞❡s ♠✐❝r♦❆❘◆ ❡t ❞❡ ❧❡✉rs ✐♥t❡r❛❝t✐♦♥s ✺✾ r❛♣✐❞❡ ❞❡s ♠✐❝r♦❆❘◆✳ ◆é❛♥♠♦✐♥s✱ ❧❡s ✐♥❢♦r♠❛t✐♦♥s ❝♦♥❝❡r♥❛♥t ❧❛ ❞✉♣❧✐❝❛t✐♦♥ ❞❡s ❣è♥❡s ét❛♥t ❢r❛❣♠❡♥t❛✐r❡s✱ ✐❧ s❡ ♣❡✉t q✉❡ ❝❡rt❛✐♥s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ s♦✐❡♥t ❝♦✲❞✉♣❧✐q✉és ❛✈❡❝ ❧❡✉rs ❤ôt❡s r❡s♣❡❝t✐❢s ♠❛✐s q✉❡ ❝❡tt❡ ✐♥❢♦r♠❛t✐♦♥ ♥❡ s♦✐t ♣❛s ❞✐s♣♦♥✐❜❧❡✳ ✷✳✷✳✸ ▲❡s ✐♥t❡r❛❝t✐♦♥s ♣ré❞✐t❡s ❡♥tr❡ ♠✐❝r♦❆❘◆ ❡t ❆❘◆♠ ➚ ♣❛rt✐r ❞❡s ❝❛t❛❧♦❣✉❡s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✱ ✐❧ ❡st ♣♦ss✐❜❧❡ ❞❡ ♣ré❞✐r❡ ❡t ♣r♦♣♦s❡r ✉♥ ❝❛t❛❧♦❣✉❡ ❞❡s ✐♥t❡r❛❝t✐♦♥s ❡♥tr❡ ❝❡s ♠♦❧é❝✉❧❡s✱ ❡♥ s❡ ❜❛s❛♥t s✉r ❧❡s ❝❛r❛❝tér✐st✐q✉❡s ❞❡ ❝❡s ✐♥t❡r❛❝t✐♦♥s ❞é❝r✐t❡s ❞❛♥s ❧❛ ❧✐ttér❛t✉r❡✳ ❉é✜♥✐t✐♦♥s ◆♦✉s ❞✐st✐♥❣✉❡r♦♥s ❧❡s ❣r❛✐♥❡s✱ s✐t❡s ❞❡ ✜①❛t✐♦♥ ❡t ✐♥t❡r❛❝t✐♦♥s ❡♥tr❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❆❘◆♠ ❝♦♠♠❡ s✉✐t ✿ ✕ ●r❛✐♥❡ ✿ ❧❛ séq✉❡♥❝❡ ❡♥ ✺✬ ❞✉ ♠✐❝r♦❆❘◆ q✉✐ ❡st ❝♦♠♣❧é♠❡♥t❛✐r❡ ❞✬✉♥❡ séq✉❡♥❝❡ s✉r ❧❡ ✸✬ ❯❚❘ ❞✬✉♥ tr❛♥s❝r✐t✳ ❈❡❧❧❡✲❝✐ ❡st ♥é❝❡ss❛✐r❡ ♣♦✉r ❧❛ ✜①❛t✐♦♥ ❞✉ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ s✉r ❧✬❆❘◆♠ q✉✐ ♣❡r♠❡t ❧❛ ré♣r❡ss✐♦♥ ❞❡ ❧❛ tr❛❞✉❝t✐♦♥ ♦✉ ❧❡ ❝❧✐✈❛❣❡ ❞✉ tr❛♥s❝r✐t ❞❡ ❧✬❆❘◆♠ ✐♥❞✉✐t ♣❛r ❧❡ ♠✐❝r♦❆❘◆✳ ❈❡tt❡ séq✉❡♥❝❡ ✈❛r✐❡ ❡♥ t❛✐❧❧❡ ❡t ❡♥ ♣♦s✐t✐♦♥ s✉✐✈❛♥t ❧❡s ❞é✜♥✐t✐♦♥s✱ ♠❛✐s ❞é❜✉t❡ ❝❧❛ss✐q✉❡♠❡♥t ❛✉ ✶❡r ♦✉ ✷è♠❡ ♥✉❝❧é♦✲ t✐❞❡ ❞✉ ♠✐❝r♦❆❘◆ ❡t ❢❛✐t ❡♥tr❡ ✻ ❡t ✼ ♥✉❝❧é♦t✐❞❡s ❀ ✕ ❙✐t❡ ❞❡ ✜①❛t✐♦♥ ❞✬✉♥ ♠✐❝r♦❆❘◆ ✿ ❧❛ séq✉❡♥❝❡ s✉r ❧❡ ✸✬❯❚❘ ❞✉ tr❛♥s❝r✐t ❞❡ ❧✬❆❘◆♠ q✉✐ ❡st ❝♦♠♣❧é♠❡♥t❛✐r❡ à ❧❛ ❣r❛✐♥❡ ❞✉ ♠✐❝r♦❆❘◆ ❀ ✕ ■♥t❡r❛❝t✐♦♥ ♦✉ ❝♦✉♣❧❡ ❡♥tr❡ ✉♥ ♠✐❝r♦❆❘◆ ❡t ✉♥ ❆❘◆♠ ✿ ✉♥❡ ✐♥t❡r❛❝t✐♦♥ ❡♥tr❡ ✉♥ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❡t ✉♥ ❆❘◆♠ ✭✐♥t❡r❛❝t✐♦♥ ♠✐❝r♦❆❘◆✴❆❘◆♠✮ ❡st ♣ré❞✐t❡ s✬✐❧ ❡①✐st❡ ❛✉ ♠♦✐♥s ✉♥ s✐t❡ ❞❡ ✜①❛t✐♦♥ ❡♥tr❡ ❝❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❡t ❝❡ tr❛♥s❝r✐t ❞✬❆❘◆♠✳ P♦✉r ✉♥❡ ✐♥t❡r❛❝t✐♦♥ ♠✐❝r♦❆❘◆✴❆❘◆♠✱ ✐❧ ♣❡✉t ② ❛ ❛✈♦✐r ♣❧✉s✐❡✉rs s✐t❡s ❞❡ ✜①❛t✐♦♥ ❞❡ ❝❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ s✉r ❧✬❆❘◆♠✳ ➚ ♥♦t❡r q✉✬✐❧ ❛ été ❞é❝✐❞é ❞❡ ❣❛r❞❡r ❧❡s ❞✐st✐♥❝t✐♦♥s ❞❡ t②♣❡ ✓ ✲✶✱ ✲✷ ✔ ♦❜t❡♥✉❡s s✉r ❧❡s ❣è♥❡s ❡♥tr❡ ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ♠ê♠❡ s✬✐❧s s♦♥t ✐❞❡♥t✐q✉❡s✳ ❈✬❡st✲à✲❞✐r❡ q✉❡ s✐ ❛♣✐✲ ♠✐r✲✸✵✺✶✲✶✲✺♣ ❝✐❜❧❡ ❆❈❨P■✵✽✶✼✾✻✱ ❛❧♦rs ❛♣✐✲♠✐r✲✸✵✺✶✲✷✲✺♣ ❝✐❜❧❡r❛ ❛✉ss✐ ❆❈❨P■✵✽✶✼✾✻✳ Pré❞✐❝t✐♦♥s ❆✜♥ ❞✬✐❞❡♥t✐✜❡r ❧❡s ré❣✉❧❛t✐♦♥s ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡s ❞❡s tr❛♥s❝r✐ts ❞✬❆❘◆♠ ♣❛r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ❧✬❡♥s❡♠❜❧❡ ❞❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s✉r ❧❡s ✸✬❯❚❘ ❞❡s tr❛♥s❝r✐ts ❞✬❆❘◆♠ ❞♦✐t êtr❡ ❞ét❡r♠✐♥é✳ ■❧ ❡①✐st❡ ♣❧✉s✐❡✉rs ♠ét❤♦❞❡s ❞❡ ♣ré❞✐❝t✐♦♥ ❞❡ ❝❡s s✐t❡s ❞❡ ✜①❛t✐♦♥✳ ❆✜♥ ❞❡ ❞✐♠✐♥✉❡r ❧❡ ♥♦♠❜r❡ ❞❡ ❢❛✉ss❡s ♣ré❞✐❝t✐♦♥s✱ ✐❧ ❛ ❞✬❛❜♦r❞ été t❡sté ❞❡ ♣r❡♥❞r❡ ❧✬✐♥t❡rs❡❝t✐♦♥ ❞❡ tr♦✐s ❞❡ ❝❡s ♠ét❤♦❞❡s ✿ ❚❛r❣❡t❙❝❛♥ ✭✈❡rs✐♦♥ ✺✱ ✈✺✮ ❬✺✶❪✱ ♠✐❘❛♥❞❛ ❬✺✼❪ ❡t P■❚❆ ❬✺✷❪✳ ▲❡s s❡✉✐❧s ♣♦✉r ❝❤❛❝✉♥❡ ❞❡s ♠ét❤♦❞❡s ét❛✐❡♥t ❝❤♦✐s✐s ❡♥ ♣r❡♥❛♥t ❧❡s s❡✉✐❧s q✉✐ ♣❡r♠❡tt❛✐❡♥t ❞✬♦❜t❡♥✐r ❧❡ r❛t✐♦ ❧❡ ♣❧✉s é❧❡✈é ❡♥tr❡ ❧✬✐♥t❡rs❡❝t✐♦♥ ❞❡s ♣ré❞✐❝t✐♦♥s ❡t ❧❡ ♥♦♠❜r❡ ❞❡ ♣ré❞✐❝t✐♦♥ ✭❧✬✐♥❞✐❝❡ ❞❡ ❏❛❝❝❛r❞ ❬✶✷✵❪✮✳ ◆é❛♥♠♦✐♥s✱ ❘✐t❝❤✐❡ ❡t ❛❧✳ ❬✶✷✶❪ ♦♥t ♠♦♥tré q✉❡ ♣r❡♥❞r❡ ❧✬✐♥t❡rs❡❝t✐♦♥ ❞❡ ♣❧✉s✐❡✉rs ♠ét❤♦❞❡s ❞❡ ♣ré❞✐❝t✐♦♥s ♥❡ ♣❡r♠❡tt❛✐t ♣❛s ❢♦r❝❡♠❡♥t ❞✬❛✈♦✐r ❞❡ ♠❡✐❧❧❡✉rs rés✉❧t❛ts✳ ■❧ ❛ ❞♦♥❝ été ❞é❝✐❞é ❞❡ ♥❡ ♣r❡♥❞r❡ q✉❡ ❚❛r❣❡t❙❝❛♥ ✈✺ ❝❛r ❝✬❡st ❧✬✉♥❡ ❞❡s ♠ét❤♦❞❡s ❧❡s ♣❧✉s str✐❝t❡s ❞✐s♣♦♥✐❜❧❡s ❬✹✼❪✳✻✵ ❈❛t❛❧♦❣✉❡s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ▲✬❡♥s❡♠❜❧❡ ❞❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❛ ❞♦♥❝ été ♣ré❞✐t à ♣❛rt✐r ❞❡s séq✉❡♥❝❡s ❞❡s ✸✬❯❚❘ ❞❡s ❣è♥❡s ❝♦❞❛♥t ♣♦✉r ❞❡s ♣r♦té✐♥❡s ❡t ❞❡s séq✉❡♥❝❡s ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡♥ ✉t✐❧✐s❛♥t ❚❛r❣❡t❙❝❛♥ ✈✺✳ ▲❛ ❞❡s❝r✐♣t✐♦♥ ❞❡ ❝❡tt❡ ♠ét❤♦❞❡ ❡t ❧❡s ✜❝❤✐❡rs ✉t✐❧✐sés ♣♦✉r ❧❛ ♣ré❞✐❝✲ t✐♦♥ ♦♥t été ❝✐tés ❡♥ ✷✳✶✳✸✳ ▲❡s st❛t✐st✐q✉❡s s✉r ❧❡s ♣ré❞✐❝t✐♦♥s ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ s♦♥t ✐♥❞✐q✉é❡s ❚❛❜❧❡❛✉ ✷✳✶✵✳ s❡✉✐❧ s✐t❡s ♠✐❝r♦❆❘◆ ❆❘◆♠ s✐t❡s ❞❡ ✜①❛t✐♦♥ ❝♦✉♣❧❡s ❛✉❝✉♥ ✶ ✽✵✷ ✭✶✵✵ ✪✮ ✸✸✳✽✵✾ ✭✶✵✵ ✪✮ ✹✳✶✸✾✳✼✺✼ ✭✶✵✵ ✪✮ ✷✳✼✸✻✳✵✵✺ ✭✶✵✵ ✪✮ ✲✵✳✸ ✶ ✽✵✷ ✭✶✵✵ ✪✮ ✸✶✳✾✻✹ ✭✾✹✱✺ ✪✮ ✶✳✶✻✷✳✺✻✶ ✭✷✽✱✶ ✪✮ ✾✻✶✳✾✶✺ ✭✸✺✱✷ ✪✮ ❛✉❝✉♥ ✷ ✽✵✶ ✭✾✾✱✾ ✪✮ ✷✻✳✸✽✷ ✭✼✽ ✪✮ ✷✳✶✷✺✳✻✾✷ ✭✺✶✱✸ ✪✮ ✼✹✵✳✷✽✵ ✭✷✼✱✶ ✪✮ ✲✵✳✸ ✷ ✼✵✶ ✭✽✼✱✹ ✪✮ ✶✾✳✻✷✶ ✭✺✽ ✪✮ ✸✹✹✳✼✹✽ ✭✽✱✸ ✪✮ ✶✹✹✳✸✽✷ ✭✺✱✸ ✪✮ ❚❛❜❧❡❛✉ ✷✳✶✵ ✕ ❘és✉❧t❛t ❞❡s ♣ré❞✐❝t✐♦♥s ❞❡ ❚❛r❣❡t❙❝❛♥ ❛✈❡❝ ♦✉ s❛♥s s❡✉✐❧ ✭s❡✉✐❧✮✱ ❛✈❡❝ ✶ ♦✉ ✷ s✐t❡s ❞❡ ✜①❛t✐♦♥ ♠✐♥✐♠✉♠ ✭s✐t❡s✮✳ ❙♦♥t ✐♥❞✐q✉és ❧❡ ♥♦♠❜r❡ ❞❡ ♠✐❝r♦❆❘◆ ♠❛✲ t✉r❡s ✭♠✐❝r♦❆❘◆✮ ❡t ❞✬❆❘◆♠ ❝♦♥❝❡r♥és✱ ❧❡ ♥♦♠❜r❡ ❞❡ s✐t❡s ❞❡ ✜①❛t✐♦♥ ❡t ❧❡ ♥♦♠❜r❡ ❞❡ ❝♦✉♣❧❡s ♠✐❝r♦❆❘◆✴❆❘◆♠ ✭❝♦✉♣❧❡s✮✳ ❊st ✐♥❞✐q✉é ❡♥tr❡ ♣❛r❡♥t❤ès❡s ❧❡ ♣♦✉r❝❡♥t❛❣❡ ❞✬é❧é♠❡♥ts ♣rés❡♥ts ❡♥ ❢♦♥❝t✐♦♥ ❞✉ ♥♦♠❜r❡ t♦t❛❧ ❞✬é❧é♠❡♥ts ♣rés❡♥ts ❞❛♥s ❧❡ rés❡❛✉ s❛♥s s❡✉✐❧✳ ❚r♦✐s t②♣❡s ❞❡ ❝♦♥tr❛✐♥t❡s ♦♥t été ❛♣♣❧✐q✉és ❛❧t❡r♥❛t✐✈❡♠❡♥t ♣♦✉r ♦❜t❡♥✐r ❧❡s rés❡❛✉① ❚❛❜❧❡❛✉ ✷✳✶✵ ✿ ✶✳ ▲❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❞♦✐✈❡♥t ❛✈♦✐r ✉♥ s❝♦r❡ ✐♥❢ér✐❡✉r ♦✉ é❣❛❧ à ✉♥ s❡✉✐❧✱ ✐❝✐ ✲✵✳✸ q✉✐ ❛ été ✉t✐❧✐sé ❞❛♥s ❞✬❛✉tr❡s ♣✉❜❧✐❝❛t✐♦♥s ❬✶✷✷✱ ✶✷✸❪ ❀ ✷✳ ▲❡s ❝♦✉♣❧❡s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❞♦✐✈❡♥t ❛✈♦✐r ✉♥ ♥♦♠❜r❡ ❞❡ s✐t❡s ❞❡ ✜①❛t✐♦♥ ❞✉ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ s✉r s❛ ❝✐❜❧❡ s✉♣ér✐❡✉r ♦✉ é❣❛❧ à ✉♥ s❡✉✐❧✱ ✐❝✐ ✷ s✐t❡s ❞❡ ✜①❛t✐♦♥ ❀ ✸✳ ▲❡s ❞❡✉① ❝♦♥tr❛✐♥t❡s ♣ré❝é❞❡♥t❡s ❞♦✐✈❡♥t êtr❡ ✈ér✐✜é❡s✳ ▲❛ ré❞✉❝t✐♦♥ ❞✉ rés❡❛✉ ❛✉① s✐t❡s ❞❡ ✜①❛t✐♦♥ ❛✈❡❝ ✉♥ s❝♦r❡ ✐♥❢ér✐❡✉r ♦✉ é❣❛❧ à ✲✵✳✸ ♣❡r♠❡t ❞❡ ♥❡ ❣❛r❞❡r q✉❡ ❧❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ q✉✐ s♦♥t ♣ré❞✐ts ❝♦♠♠❡ ✐♥❞✉✐s❛♥t ❧❛ ♣❧✉s ❢♦rt❡ ré♣r❡ss✐♦♥ ❞❡ ❧❛ tr❛❞✉❝t✐♦♥ ❞❡ ❧✬❆❘◆♠ ❡t✴♦✉ ré❞✉❝t✐♦♥ ❞❡ s❛ ❞❡♠✐✲✈✐❡ ❬✺✶❪ ❡t ❞♦♥❝ ❧❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ q✉✐ ♦♥t ♣♦t❡♥t✐❡❧❧❡♠❡♥t ❧❡ ♣❧✉s ❞✬✐♥✢✉❡♥❝❡✳ ▲❛ ✜❧tr❛t✐♦♥ ❞✉ rés❡❛✉ ❛✉① ❝♦✉♣❧❡s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❛②❛♥t ❛✉ ♠✐♥✐♠✉♠ ✷ s✐t❡s ❞❡ ✜①❛t✐♦♥ ♣❡r♠❡t ❧à ❛✉ss✐ ❞❡ ❣❛r❞❡r ❞❡s ❝♦✉♣❧❡s ♦ù ❧❛ ré♣r❡ss✐♦♥ s❡r❛ ❧❛ ♣❧✉s ❢♦rt❡ ❞û ❛✉① ❡✛❡ts ♣♦ss✐❜❧❡s ❞❡ ❝♦♦♣ér❛t✐♦♥ ❡♥tr❡ s✐t❡s ❞❡ ✜①❛t✐♦♥ ❬✺✶✱ ✹✷❪ ✭✈♦✐r ❧✬■♥tr♦❞✉❝t✐♦♥ ♣♦✉r ♣❧✉s ❞❡ ❞ét❛✐❧s✮✳ ❉❡ ♣❧✉s✱ ❞✉ ❢❛✐t ❞✉ ♥♦♠❜r❡ é❧❡✈é ❞❡ ❢❛✉① ♣♦s✐t✐❢s ✭✈♦✐r ❧✬■♥tr♦❞✉❝t✐♦♥ ♣♦✉r ♣❧✉s ❞❡ ❞ét❛✐❧s✮ ♣❛r♠✐ ❧❡s ♣ré❞✐❝t✐♦♥s ❞❡ s✐t❡s ❞❡ ✜①❛t✐♦♥✱ s✬❛ss✉r❡r q✉✬❛✉ ♠♦✐♥s ✷ s✐t❡s ❞❡ ✜①❛t✐♦♥ s♦♥t ♣ré❞✐ts ❡♥tr❡ ✉♥ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❡t ✉♥ ❆❘◆♠ ♣❡r♠❡t ❞❡ ❞✐♠✐♥✉❡r ❧❛ ♣r♦❜❛❜✐❧✐té q✉❡ ❝❡tt❡ ✐♥t❡r❛❝t✐♦♥ s♦✐t ❢❛✉ss❡✳ ▲✬✉t✐❧✐s❛t✐♦♥ ❝♦♥❥♦✐♥t❡ ❞❡s ❞❡✉① ré❞✉❝t✐♦♥s ♣❡r♠❡t ❞❡ ❝❡♥tr❡r ❡♥❝♦r❡ ♣❧✉s ❧❡ rés❡❛✉ s✉r ❧❡s ✐♥t❡r❛❝t✐♦♥s q✉✐ ♦♥t ❧❡ ♣❧✉s ❞✬✐♥✢✉❡♥❝❡ ❡t ❞❡ ❧✐♠✐t❡r ❧❡ ♣♦✉r❝❡♥t❛❣❡ ❞❡ ❢❛✉ss❡s ✐♥t❡r❛❝t✐♦♥s✳ P♦✉r ❧❡ rés❡❛✉ s❛♥s r❡str✐❝t✐♦♥✱ t♦✉s ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♣ré❞✐ts ❝✐❜❧❡♥t ❛✉ ♠✐♥✐✲ ♠✉♠ ✶ ❆❘◆♠ ❡t s♦♥t ❞♦♥❝ ♣rés❡♥ts ❞❛♥s ❧❡ rés❡❛✉✳ ❉❡ ♣❧✉s✱ ✸✸✳✽✵✾ ❆❘◆♠ ♣❛r♠✐ ❧❡s ✸✺✳✹✻✷ ✭✾✺ ✪✮ ✉t✐❧✐sés ♣♦✉r ❧❛ ♣ré❞✐❝t✐♦♥ ❞❡s s✐t❡s ❞❡ ✜①❛t✐♦♥s s♦♥t ❝✐❜❧és ♣❛r ❛✉ ♠♦✐♥s ✶ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ♣♦✉r ✉♥ ♥♦♠❜r❡ t♦t❛❧ ❞❡ s✐t❡s ❞❡ ✜①❛t✐♦♥ ❞❡ ✹✳✶✸✾✳✼✺✼ q✉✐ r❡♣rés❡♥t❡ ✷✳✼✸✻✳✵✵✺ ❝♦✉♣❧❡s✳❈❛t❛❧♦❣✉❡ ❡t ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡s ❆❘◆♠✱ ❞❡s ♠✐❝r♦❆❘◆ ❡t ❞❡ ❧❡✉rs ✐♥t❡r❛❝t✐♦♥s ✻✶ ▲❡ ♣r❡♠✐❡r s❡✉✐❧ ❛♣♣❧✐q✉é ❡st ❧❛ r❡str✐❝t✐♦♥ s✉r ❧❡ s❝♦r❡ ❞❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ✭✷è♠❡ ❧✐❣♥❡ ❞✉ ❚❛❜❧❡❛✉ ✷✳✶✵✮✳ ▲❡ rés❡❛✉ ❧✐♠✐té ❛✉① s✐t❡s ❛②❛♥t ✉♥ s❝♦r❡ ❣❧♦❜❛❧ ✐♥❢ér✐❡✉r ♦✉ é❣❛❧ à ✲✵✳✸ ré❞✉✐t ❣r❛♥❞❡♠❡♥t ❧❛ ❝♦♠❜✐♥❛t♦✐r❡ ❡♥tr❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❆❘◆♠ ♣♦✉r ✉♥ ♥♦♠❜r❡ ✐♥❝❤❛♥❣é ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ✉♥ ♥♦♠❜r❡ é❧❡✈é ❞✬❆❘◆♠✳ ❊♥ ❡✛❡t✱ ❧❡s ♥♦♠❜r❡ ❞❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❡t ❞❡ ❝♦✉♣❧❡s ♣❛ss❡♥t r❡s♣❡❝t✐✈❡♠❡♥t à ✶✳✶✻✷✳✺✻✶ ✭✷✽✱✶ ✪✮ ❡t ✾✻✶✳✾✶✺ ✭✸✺✱✷ ✪✮ ❛❧♦rs q✉❡ ❧❡ ♥♦♠❜r❡ ❞❡ ♠✐❝r♦❆❘◆ ❡t ❞✬❆❘◆♠ s♦♥t r❡s♣❡❝t✐✈❡♠❡♥t ❞❡ ✽✵✷ ✭✶✵✵ ✪✮ ❡t ✸✶✳✾✻✹ ✭✾✹✱✺ ✪✮✳ P♦✉r ❧❡ rés❡❛✉ ❧✐♠✐té ❛✉① ❝♦✉♣❧❡s ♣♦ssé❞❛♥t ✷ s✐t❡s ❞❡ ✜①❛t✐♦♥s ✭✸è♠❡ ❧✐❣♥❡ ❞✉ ❚❛❜❧❡❛✉ ✷✳✶✵✮✱ ❧❡ ♥♦♠❜r❡ ❞❡ ♠✐❝r♦❆❘◆ ❡t ❞✬❆❘◆♠ ♥❡ ❜❛✐ss❡ q✉❡ très ❢❛✐❜❧❡♠❡♥t ✿ r❡s♣❡❝t✐✈❡♠❡♥t ✽✵✶ ✭✾✾✱✾ ✪✮ ❡t ✷✻✳✸✽✷ ✭✼✽ ✪✮✳ ▲❡ ♥♦♠❜r❡ ❞❡ ❝♦✉♣❧❡s✱ ✼✹✵✳✷✽✵ ✭✷✼✱✶ ✪✮✱ ❛♣♣r♦❝❤❡ ❧❡ ♥♦♠❜r❡ ♦❜t❡♥✉ ♣❛r ❧❛ ♣r❡♠✐èr❡ ré❞✉❝t✐♦♥ ♠❛✐s ♣❛r ❝♦♥tr❡ ❧❡ ♥♦♠❜r❡ ❞❡ s✐t❡s ❞❡ ✜①❛t✐♦♥ r❡st❡ é❧❡✈é✱ ✷✳✶✷✺✳✻✾✷ ✭✺✶✱✸ ✪✮✳ ❈❡ q✉✐ ❡st ❝♦❤ér❡♥t ❝❛r ❧✬♦♥ ♣r❡♥❞ ❡♥ ❝♦♠♣t❡ ✉♥✐q✉❡♠❡♥t ❧❡s ✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❛✈❡❝ ❞❡✉① s✐t❡s ❞❡ ✜①❛t✐♦♥ ▲❛ tr♦✐s✐è♠❡ ré❞✉❝t✐♦♥ ❡st ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞❡s ❞❡✉① s❡✉✐❧s ✭✹è♠❡ ❧✐❣♥❡ ❞✉ ❚❛❜❧❡❛✉ ✷✳✶✵✱ ✷ s✐t❡s ❞❡ ✜①❛t✐♦♥ ❛✈❡❝ ♣♦✉r ❧❡s ✷ ✉♥ s❝♦r❡ ❣❧♦❜❛❧ s✉♣ér✐❡✉r à ✲✵✳✸✮✳ ❈❡tt❡ ré❞✉❝t✐♦♥ ❛ ❧✬❡✛❡t ❧❡ ♣❧✉s ❞r❛st✐q✉❡ ❡♥ ❧✐♠✐t❛♥t ❣r❛♥❞❡♠❡♥t ❧❡ ♥♦♠❜r❡ ❞✬❆❘◆♠ ✭✶✾✳✻✷✶✱ ✺✽ ✪✮✱ ❞❡ s✐t❡s ❞❡ ✜①❛t✐♦♥ ✭✸✹✹✳✼✹✽✱ ✽✱✸ ✪✮ ❡t ❞❡ ❝♦✉♣❧❡s ✭✶✹✹✳✸✽✷✱ ✺✱✸ ✪✮ ❡t ♠♦✐♥s ❢♦rt❡♠❡♥t ❧❡ ♥♦♠❜r❡ ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✭✼✵✶✱ ✽✼✱✹ ✪✮✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ré❞✉❝t✐♦♥s ❛♣♣❧✐q✉é❡s ❛✉ rés❡❛✉✱ ❧❡ ♥♦♠❜r❡ ❞❡ ♠✐❝r♦❆❘◆ r❡st❡ q✉❛s✐ ❝♦♥st❛♥t✳ ▲❡ ♥♦♠❜r❡ ❞✬❆❘◆♠ ✈❛r✐❡ s✉rt♦✉t ❛✈❡❝ ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞❡s ✷ s❡✉✐❧s✳ P♦✉r ❧❛ ❝♦♠❜✐♥❛t♦✐r❡ ❡♥tr❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❆❘◆♠✱ ❧❡s ré❞✉❝t✐♦♥s ♦♥t t♦✉❥♦✉rs ♣♦✉r ❡✛❡t ❞❡ ❞✐♠✐♥✉❡r ❢♦rt❡♠❡♥t à ❧❛ ❢♦✐s ❧❡ ♥♦♠❜r❡ ❞❡ s✐t❡s ❞❡ ✜①❛t✐♦♥ ❡t ❧❡ ♥♦♠❜r❡ ❞❡ ❝♦✉♣❧❡s✳ ❆✜♥ ❞❡ ❝♦♠♣❛r❡r ❝❡s ♣ré❞✐❝t✐♦♥s ❛✈❡❝ ❝❡❧❧❡s ❞✬❛✉tr❡s ❡s♣è❝❡s✱ ♥♦✉s ❛✈♦♥s ♣ré❞✐t ♣❛r ❚❛r❣❡t❙❝❛♥ ✈✺ ❧❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ♥♦♥ ❝♦♥s❡r✈és ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❝❤❡③ ❉r♦✲ s♦♣❤✐❧❛ ♠❡❧❛♥♦❣❛st❡r ✳ ▲❡s ✸✬❯❚❘ ❞❡ ❉✳ ♠❡❧❛♥♦❣❛st❡r ♦♥t été té❧é❝❤❛r❣és à ♣❛rt✐r ❞❡ ❋❧②❇❛s❡ ❬✶✶✵❪ ♣♦✉r ❧❛ ❞❡r♥✐èr❡ ✈❡rs✐♦♥ ❞✉ ❣é♥♦♠❡ ✭✈❡rs✐♦♥ ✻✳✵✶✸ ✮✱ ❡t ❧❡s ♠✐❝r♦❆❘◆ à ♣❛rt✐r ❞❡ ♠✐❘❇❛s❡✳ ▲❡s rés❡❛✉① ♣♦✉r ❆✳ ♣✐s✉♠ ❡t ❉✳ ♠❡❧❛♥♦❣❛st❡r ♦♥t été ❝♦♠♣❛rés ❛✈❡❝ ✉♥ s❡✉✐❧ ❞❡ ✲✵✱✸ s✉r ❧❡ s❝♦r❡✳ ▲❡ rés❡❛✉ ❞❡ ❉✳ ♠❡❧❛♥♦❣❛st❡r ❝♦♥t✐❡♥t ✹✷✻ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ✷✻✳✺✹✼ ❆❘◆♠✱ ✷✸✼✳✵✷✸ s✐t❡s ❞❡ ✜①❛t✐♦♥ ❡t ✷✶✻✳✷✻✹ ❝♦✉♣❧❡s✳ ❙✉r ❝❡ rés❡❛✉✱ ❧❡ ♥♦♠❜r❡ ♠♦②❡♥ ❞✬✐♥t❡r❛❝t✐♦♥s ❡st ❞❡ ✺✵✽ ♣❛r ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞❡ ✽ ♣❛r ❆❘◆♠✳ ❙✉r ❧❡ rés❡❛✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✱ ✐❧ ② ❛ ❡♥ ♠♦②❡♥♥❡ ✶✳✶✾✶ ✐♥t❡r❛❝t✐♦♥s ♣❛r ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ✸✵ ♣❛r ❆❘◆♠✳ ❖♥ ♣❡✉t ✈♦✐r q✉❡ ❧❡s ♥♦♠❜r❡s ❞✬✐♥t❡r❛❝t✐♦♥s ♠♦②❡♥s s♦♥t s✉♣ér✐❡✉rs ❝❤❡③ ❆✳ ♣✐s✉♠✳ ◆♦✉s ♣♦✉✈♦♥s ❢❛✐r❡ ♣❧✉s✐❡✉rs ❤②♣♦t❤ès❡s ♣♦✉r ❡①♣❧✐q✉❡r ❝❡s ❞✐✛ér❡♥❝❡s✳ ❖♥ ♣❡✉t s✉♣♣♦s❡r q✉❡ s✐ ✉♥ ❣è♥❡ ❞✬❆❘◆♠ ❛♥❝❡str❛❧ ❛ été ❞✉♣❧✐q✉é ❡t q✉✬✐❧ ét❛✐t ❝✐❜❧é ♣❛r ✉♥ ♠✐❝r♦❆❘◆ ♠❛t✉r❡✱ ❛❧♦rs ❧❡s ❆❘◆♠ ✐ss✉s ❞❡ s❛ ❞✉♣❧✐❝❛t✐♦♥ s❡r♦♥t ❡✉① ❛✉ss✐ ❝✐❜❧és ♣❛r ❝❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡✳ ❊t ❝♦♠♠❡ ❧❡ ♥♦♠❜r❡ ❞❡ ❞✉♣❧✐❝❛t✐♦♥s ❡st ✐♠♣♦rt❛♥t ❝❤❡③ ❆✳ ♣✐✲ s✉♠✱ ❝❡❝✐ ♣♦✉rr❛✐t ❡♥ ♣❛rt✐❡ ❡①♣❧✐q✉❡r q✉❡ ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❞✉ ♣✉❝❡r♦♥s ❞✉ ♣♦✐s ❝✐❜❧❡♥t q✉❛s✐♠❡♥t ❞❡✉① ❢♦✐s ♣❧✉s ❡♥ ♠♦②❡♥♥❡ ❞✬❆❘◆♠✳ P♦✉r ❡①♣❧✐q✉❡r ❧❛ ❞✐✛ér❡♥❝❡ ❞✉ ♥♦♠❜r❡ ♠♦②❡♥ ❞✬✐♥t❡r❛❝t✐♦♥s ♣❛r ❆❘◆♠✱ r❛♣♣❡❧♦♥s q✉❡ s✉r ♠✐❘❇❛s❡ ✭♣♦✉r ❞r♦s♦♣❤✐❧❡✮ ❛✉❝✉♥❡ ❞✐st✐♥❝t✐♦♥ ♥✬❡st ❢❛✐t❡ ❡♥tr❡ ❞❡✉① séq✉❡♥❝❡s ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✐❞❡♥t✐q✉❡s ❛❧♦rs q✉✬✐❝✐ ♣♦✉r ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✱ ♥♦✉s ❛✈♦♥s ❣❛r❞é ❧❛ ❞✐st✐♥❝t✐♦♥ ❞❡ t②♣❡ ✓ ✲✶✱ ✲✷ ✔ ♣♦✉r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✳ ❈❡❝✐ ✐♠♣❧✐q✉❡ q✉❡ ❞❛♥s ❧❡ ❝❛s ❞❡ ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✐❞❡♥t✐q✉❡s✱ ❞❡✉① ✐♥t❡r❛❝t✐♦♥s s♦♥t ♥♦té❡s ❞❛♥s ❧❡ rés❡❛✉ ❝❤❡③ ❆✳ ♣✐s✉♠✱ ❡t ✉♥❡ s❡✉❧❡ ♣♦✉r ❉✳ ♠❡❧❛♥♦❣❛st❡r ✳ ❉❡ ♣❧✉s✱ ❧❡s ♥✐✈❡❛✉① ❡t q✉❛❧✐tés ❞✬❛♥♥♦t❛t✐♦♥s ❞✐✛èr❡♥t ❣r❛♥❞❡✲ ✸ ❢t♣✿✴✴❢t♣✳❢❧②❜❛s❡✳♥❡t✴❣❡♥♦♠❡s✴❉r♦s♦♣❤✐❧❛❴♠❡❧❛♥♦❣❛st❡r✴❝✉rr❡♥t✴❢❛st❛✴✻✷ ❈❛t❛❧♦❣✉❡s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ♠❡♥t ❡♥tr❡ ❧❛ ❞r♦s♦♣❤✐❧❡ ❡t ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✳ ▲❛ ♣rés❡♥❝❡ ❞❡ ♠✐❝r♦❆❘◆ ♦✉ ❞❡ ❣è♥❡s ♠❛❧ ❛♥♥♦tés ♣♦✉rr❛✐t ❛✉ss✐ ❡①♣❧✐q✉❡r ❝❡s ❞✐✛ér❡♥❝❡s✳ ❉❛♥s t♦✉s ❧❡s ❝❛s✱ ❧❡ ♥♦♠❜r❡ ♣❧✉s é❧❡✈é ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆✳ ♣✐s✉♠ ♦✉✈r❡ ✉♥ ❝❤❛♠♣ ✐♠♣♦rt❛♥t ❞❡ ♠♦❞✐✜❝❛t✐♦♥ ❞❡ ❧✬❡①♣r❡ss✐♦♥ ❣é♥✐q✉❡ ❝❤❡③ ❝❡tt❡ ❡s♣è❝❡✳■❞❡♥t✐✜❝❛t✐♦♥ ❡t ❛♥❛❧②s❡ ❞✬✉♥ ♥♦✉✈❡❛✉ ❝❛t❛❧♦❣✉❡ ❞❡ ♠✐❝r♦❆❘◆ ❝❤❡③ ❆✳ ♣✐s✉♠ ✻✸ ✷✳✸ ❘és✉♠é ❡t ❝♦♥❝❧✉s✐♦♥ ✿ ❧✬✐❞❡♥t✐✜❝❛t✐♦♥ ❡t ❧✬❛♥❛❧②s❡ ❞✬✉♥ ♥♦✉✈❡❛✉ ❝❛t❛❧♦❣✉❡ ❞❡ ♠✐❝r♦❆❘◆ ❝❤❡③ ❆✳ ♣✐s✉♠ ❈❡ ❝❤❛♣✐tr❡ ❞é❝r✐t ❧❡ ❝❛t❛❧♦❣✉❡ ❞❡s ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥s ❞✉ ♣♦✐s ❡♥ ✉t✐❧✐s❛♥t ❧❡s ♥♦✉✈❡❧❧❡s ❜❛♥q✉❡s ❞❡ séq✉❡♥❝❡s ♦❜t❡♥✉❡s s✉r ❞❡s ❡♠❜r②♦♥s s②♥❝❤r♦♥✐sés ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s à ❧✬❛✈❡♥✐r ❛s❡①✉és ♦✉ s❡①✉és✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ✼ ❡s♣è❝❡s ❞✉ ♣❤②❧✉♠ ❍❡①❛♣♦❞❛ ❞♦♥t ❢❛✐t ♣❛rt✐❡ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠✱ ❧❡ ♥♦♠❜r❡ ❞❡ ♣ré❝✉rs❡✉rs ❞❡ ♠✐❝r♦❆❘◆ ❡t ❧❡ ♥♦♠❜r❡ ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❢♦♥t ♣❛rt✐❡ ❞❡s ♣❧✉s é❧❡✈és✳ ▲❡s ✸✷✾ ♣ré❝✉rs❡✉rs ✐❞❡♥t✐✜és ❝♦rr❡s♣♦♥❞❡♥t à ✹✵✶ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆✱ ❝❡ q✉✐ ✐♥❞✐q✉❡ ✉♥❡ ❞✉✲ ♣❧✐❝❛t✐♦♥ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆✳ ▲✬❤②♣♦t❤ès❡ ❞✬✉♥ ♥♦♠❜r❡ ✐♠♣♦rt❛♥t ❞❡ ❞✉♣❧✐❝❛t✐♦♥s ❡st s♦✉t❡♥✉❡ ♣❛r ❧❛ ♣rés❡♥❝❡ ❞❡ ♥♦♠❜r❡✉s❡s ❢❛♠✐❧❧❡s ❞❡ ♠✐❝r♦❆❘◆✱ ❝♦♠♣❛ré❡ à ❉r♦✲ s♦♣❤✐❧❛ ♠❡❧❛♥♦❣❛st❡r ✱ ❡t ❧❡ ❢❛✐t q✉✬❡❧❧❡s s♦✐❡♥t q✉❛s✐ ✉♥✐q✉❡♠❡♥t ❝♦♥st✐t✉é❡s ❞❡ ❣è♥❡s ✐❞❡♥t✐✜és ✉♥✐q✉❡♠❡♥t ❝❤❡③ ❆✳ ♣✐s✉♠✳ ❈❡tt❡ ❞✉♣❧✐❝❛t✐♦♥ ❡t ❧❛ ❞✐✈❡r❣❡♥❝❡ ❡♥tr❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❛♣rès ❞✉♣❧✐❝❛t✐♦♥ ♣♦✉rr❛✐❡♥t êtr❡ à ❧✬♦r✐❣✐♥❡ ❞✉ ♥♦♠❜r❡ ♣❧✉s é❧❡✈é ❞❡ ♣ré❝✉rs❡✉rs ✉♥✐q✉❡s ❞❡ ♠✐❝r♦❆❘◆ ❡t ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✉♥✐q✉❡s ❝❤❡③ ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✳ P❧✉s ❞❡ ❧❛ ♠♦✐t✐é ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ✭✺✶✱✻ ✪✮ ❡st ré♣❛rt✐ ❡♥ ❝❧✉st❡rs ❣é♥♦♠✐q✉❡s✳ ❈❡tt❡ ré♣❛rt✐t✐♦♥ ❡♥ ❝❧✉st❡rs ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❝❤❡③ ❧❡ ♣✉❝❡r♦♥ ❡st ❞✐✛ér❡♥t❡ ❞❡ ❝❡❧❧❡ ♦❜s❡r✈é❡ ❝❤❡③ ❉r♦s♦♣❤✐❧❛ ♠❡❧❛♥♦❣❛st❡r✳ ❊♥ ❡✛❡t✱ ❧❡ ♣♦✉r✲ ❝❡♥t❛❣❡ ❞❡ ❝❧✉st❡rs ❞❡ ✓ ♣❡t✐t❡ t❛✐❧❧❡ ✔✱ ❡♥tr❡ ✷ ❡t ✸ ❣è♥❡s✱ ❡st ♣❧✉s ✐♠♣♦rt❛♥t ❝❤❡③ ❉✳ ♠❡❧❛♥♦❣❛st❡r✱ ❛❧♦rs q✉❡ ❝❤❡③ ❆✳ ♣✐s✉♠ ❧❡s ❝❧✉st❡rs ❞❡ t❛✐❧❧❡ ✓ ♠♦②❡♥♥❡ ✔✱ ❡♥tr❡ ✹ ❡t ✻ ❣è♥❡s✱ s♦♥t ♣❧✉s ❛❜♦♥❞❛♥ts✳ ■❧ ❡st ❛✉ss✐ ❛♣♣❛r✉ q✉❡ ❧❡ ♣✉❝❡r♦♥ ♣♦ssè❞❡ tr♦✐s ❝❧✉st❡rs ❞❡ ✓ ❣r❛♥❞❡ t❛✐❧❧❡ ✔ ❛✈❡❝ ✶✷✱ ✶✹ ❡t ✶✻ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆✳ ▲✬❛❧✐❣♥❡♠❡♥t ♠♦♥tr❡ q✉❡ ♣♦✉r ❝❡s tr♦✐s ❝❧✉st❡rs✱ ❧❡s ♠✐❝r♦❆❘◆ ❛♣♣❛rt✐❡♥♥❡♥t ♣r✐♥❝✐♣❛❧❡♠❡♥t ❛✉① ♠ê♠❡s ❢❛♠✐❧❧❡s q✉✐ ♦♥t ❞❡s séq✉❡♥❝❡s q✉❛s✐♠❡♥t ✐❞❡♥t✐q✉❡s✳ ❈❡s ❝❧✉st❡rs ❞é❝♦✉❧❡r❛✐❡♥t ❞♦♥❝ ❞❡ ❧❛ ❞✉♣❧✐❝❛✲ t✐♦♥ ❞✬✉♥ ♦✉ ♣❧✉s✐❡✉rs ❣è♥❡s ❛♥❝❡str❛✉①✱ ❝❡ q✉✐ ❡①♣❧✐q✉❡r❛✐t ❧❡ ♣❧✉s ♣❡t✐t ♣♦✉r❝❡♥t❛❣❡ ❞❡ ❝❧✉st❡rs ❞❡ ✓ ♣❡t✐t❡ t❛✐❧❧❡ ✔ ❝❛r ❧❡ t❛✉① ❞❡ ❞✉♣❧✐❝❛t✐♦♥ ♣❧✉s é❧❡✈é ✐♥❞✉✐r❛✐t ❞❡s ❝❧✉st❡rs ♣❧✉s ❣r❛♥❞s ❡♥ ♥♦♠❜r❡ ❞❡ ❣è♥❡s✳ ❉❡ ♣❧✉s✱ ♦♥ ❛ ♣✉ ✈♦✐r q✉❡ ❧❛ ré♣❛rt✐t✐♦♥ ❡♥ ❢❛♠✐❧❧❡s ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❛✉ s❡✐♥ ❞❡s ❝❧✉st❡rs ét❛✐❡♥t q✉❛s✐♠❡♥t ✐❞❡♥t✐q✉❡ ❡♥tr❡ ❆✳ ♣✐s✉♠ ❡t ❉✳ ♠❡❧❛♥♦❣❛st❡r ✳ ❈❡ ❝❤❛♣✐tr❡ ✐♥tr♦❞✉✐t ❛✉ss✐ ❧❡ ♣r❡♠✐❡r rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥ ❡♥tr❡ ❧❡s ♠✐❝r♦❆❘◆ ♠❛✲ t✉r❡s ❡t ❧❡s ❆❘◆♠ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ♣ré❝é❞❡♠♠❡♥t ✐❞❡♥t✐✜és ❬✶✺✱ ✼✽❪ ❡t ♠✐s à ❥♦✉r s✉r ❧❛ ✈❡rs✐♦♥ ✷ ❞✉ ❣é♥♦♠❡✳ ❙❛♥s r❡str✐❝t✐♦♥✱ ❝❡ rés❡❛✉ ♣ré❞✐t à ❧✬❛✐❞❡ ❞❡ ❚❛r❣❡t❙❝❛♥ ❬✺✶❪ ✐♠♣❧✐q✉❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ✽✵✷ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✭✐ss✉s ❞❡s ✹✵✶ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆✮ ❡t ✸✸✳✽✵✾ ❆❘◆♠ ✭❝❡ q✉✐ r❡♣rés❡♥t❡ ✾✺ ✪ ❞❡s ❆❘◆♠ ✐♥✐t✐❛❧❡♠❡♥t ✉t✐❧✐sés ♣♦✉r ❧❛ ♣ré✲ ❞✐❝t✐♦♥✮ ♣♦✉r ✉♥ ♥♦♠❜r❡ ❞❡ s✐t❡s ❞❡ ✜①❛t✐♦♥ ❞❡ ✹✳✶✸✾✳✼✺✼ ❡t ✉♥ ♥♦♠❜r❡ ❞❡ ❝♦✉♣❧❡s ❞❡ ✷✳✼✸✻✳✵✵✺✳ ▲❡s ❞✐✛ér❡♥t❡s ré❞✉❝t✐♦♥s ♦♣éré❡s s✉r ❝❡ rés❡❛✉ ♣❡r♠❡tt❡♥t ❞❡ ❧✐♠✐t❡r ❧❡ ♥♦♠❜r❡ ❞❡ s✐t❡s ❞❡ ✜①❛t✐♦♥ ❡t ❧❡ ♥♦♠❜r❡ ❞✬✐♥t❡r❛❝t✐♦♥s r❡s♣❡❝t✐✈❡♠❡♥t à ✼ ✪ ❡t ✹ ✪ ❞✉ ♥♦♠❜r❡ ✐♥✐t✐❛❧ ♣♦✉r ❧✬❛ss♦❝✐❛t✐♦♥ ❞❡s ✷ ✜❧tr❡s t♦✉t ❡♥ ❣❛r❞❛♥t ✉♥ ♥♦♠❜r❡ é❧❡✈é ❞❡ ♠✐✲ ❝r♦❆❘◆ ❡t ❞✬❆❘◆♠ r❡s♣❡❝t✐✈❡♠❡♥t à ✽✸ ✪ ❡t ✹✼✪ ❞✉ ♥♦♠❜r❡ ✐♥✐t✐❛❧ ♣♦✉r ❧✬❛ss♦❝✐❛t✐♦♥ ❞❡s ✷ ✜❧tr❡s✳ ▲❡ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ♦❜t❡♥✉✱ ❛✈❡❝ ♦✉ s❛♥s r❡str✐❝t✐♦♥✱ ✐♠✲ ♣❧✐q✉❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✐❞❡♥t✐✜és ❞❛♥s ❞❡s ❡♠❜r②♦♥s ❞✬❆❝②rt❤♦s✐♣❤♦♥ ♣✐✲ s✉♠ ❡t ❧✬❡♥s❡♠❜❧❡ ❞❡s ❆❘◆♠ ✐❞❡♥t✐✜és ❞❛♥s ❧❛ ✈❡rs✐♦♥ ✷ ❞✉ ❣é♥♦♠❡✳ ❆✜♥ ❞❡ ♠❡ttr❡ ❡♥ é✈✐❞❡♥❝❡ ❧❡s ❞✐✛ér❡♥❝❡s ❞❛♥s ❧❡s ♣r♦❝❡ss✉s ❞❡ ré❣✉❧❛t✐♦♥ ❞❡s ❆❘◆♠ ♣❛r ❧❡s ♠✐❝r♦❆❘◆ ❡♥tr❡ ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞✬❡♠❜r②♦♥s à ❧✬❛✈❡♥✐r ❛s❡①✉é ❡t ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞✬❡♠❜r②♦♥s à✻✹ ❈❛t❛❧♦❣✉❡s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ❧✬❛✈❡♥✐r s❡①✉é✱ ❧❡ rés❡❛✉ ❞♦✐t êtr❡ ré❞✉✐t ❛✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❆❘◆♠ ❞♦♥t ❧✬❡①♣r❡s✲ s✐♦♥ é✈♦❧✉❡ ❞❡ ❢❛ç♦♥ ❞✐✛ér❡♥t❡ ❛✉ ❝♦✉rs ❞✉ ❞é✈❡❧♦♣♣❡♠❡♥t ❞❡s ❞❡✉① ♠♦r♣❤❡s ét✉❞✐és✳ ▲❛ ♠ét❤♦❞❡ ✉t✐❧✐sé❡ ♣♦✉r ❡①tr❛✐r❡ ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❧❡s ❆❘◆♠ à ❝❡✉① ♣♦ssé✲ ❞❛♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t❡s ❛✐♥s✐ q✉❡ ❧❡✉rs ❛♥❛❧②s❡s ❡t ❧❡ rés❡❛✉ q✉✐ ❞é❝♦✉❧❡ ❞❡ ❝❡tt❡ ré❞✉❝t✐♦♥ s♦♥t ♣rés❡♥té❡s ❞❛♥s ❧❡ ❝❤❛♣✐tr❡ s✉✐✈❛♥t✳❈❤❛♣✐tr❡ ✸ ❆♥❛❧②s❡✱ ❝❧❛ss✐✜❝❛t✐♦♥ ❡t ❝♦♠♣❛r❛✐s♦♥ ❞❡s ❝✐♥ét✐q✉❡s ❞✬❡①♣r❡ss✐♦♥ ❞❡s ❆❘◆♠ ❡t ♠✐❝r♦❆❘◆ ❛✉ ❝♦✉rs ❞✉ ❞é✈❡❧♦♣♣❡♠❡♥t ❞❡s ❡♠❜r②♦♥s s❡①✉és ❡t ❛s❡①✉és ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ▲❡ ❝❤❛♣✐tr❡ ♣ré❝é❞❡♥t ♣rés❡♥t❡ ✉♥ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ❡♥tr❡ ❧❡s ❆❘◆♠ ❡t ❧❡s ♠✐✲ ❝r♦❆❘◆ ♠❛t✉r❡s ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡ ❝❡ rés❡❛✉✱ s❡✉❧❡♠❡♥t ❝❡rt❛✐♥s é❧é♠❡♥ts s♦♥t ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ré❣✉❧és ❛✉ ❝♦✉rs ❞✉ t❡♠♣s ❡♥tr❡ ❧✬❡♠❜r②♦❣❡♥ès❡ s❡①✉é❡ ❡t ❧✬❡♠❜r②♦❣❡♥ès❡ ❛s❡①✉é❡✳ ❈❡ ❝❤❛♣✐tr❡ ♣rés❡♥t❡ ❧❛ ♠ét❤♦❞❡ ✉t✐❧✐sé❡ ♣♦✉r ✐❞❡♥t✐✜❡r ❡t ❛♥❛❧②s❡r ❧❡s ❆❘◆♠ ❡t ❧❡s ♠✐❝r♦❆❘◆ ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ré❣✉❧és ❡♥tr❡s ❧❡s ❞❡✉① ❡♠❜r②♦✲ ❣❡♥ès❡s ❛✐♥s✐ q✉❡ ❧❛ ré❞✉❝t✐♦♥ ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥ à ❝❡s é❧é♠❡♥ts✳ ✻✺✻✻ ❆♥❛❧②s❡✱ ❝❧❛ss✐✜❝❛t✐♦♥ ❡t ❝♦♠♣❛r❛✐s♦♥ ❞❡s ❡①♣r❡ss✐♦♥ ❞❡s ❆❘◆♠ ❡t ♠✐❝r♦❆❘◆ ✸✳✶ ▼❛tér✐❡❧s ❡t ♠ét❤♦❞❡s ✿ ❞✐s❝rét✐s❛t✐♦♥ ❞❡s ❝✐♥ét✐q✉❡s ❡t ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡s tr❛♥s✐t✐♦♥s ❝✐♥ét✐q✉❡s ❈❡tt❡ ♣❛rt✐❡ ♣rés❡♥t❡ ❧❛ ❢❛ç♦♥ ❞♦♥t ❧❡s ❝✐♥ét✐q✉❡s ❞✬❡①♣r❡ss✐♦♥ ❞❡s ❆❘◆♠ ❡t ♠✐✲ ❝r♦❆❘◆ ♦♥t été ❛♥❛❧②sé❡s✱ ❞✐s❝rét✐sé❡s ❡t ❝♦♠♣❛ré❡s✳ ✸✳✶✳✶ ❉❡s❝r✐♣t✐♦♥ ❞✉ ♣❛q✉❡t ❘ ❡❞❣❡❘ ❡❞❣❡❘ ❬✶✷✹✱ ✶✷✺✱ ✶✷✻✱ ✶✷✼❪ ❡st ✉♥❡ s✉✐t❡ ❧♦❣✐❝✐❡❧❧❡ ❞é✈❡❧♦♣♣é❡ ♣♦✉r ❞❡s ❛♥❛❧②s❡s st❛✲ t✐st✐q✉❡s ❘ ❬✶✷✽❪✳ ❊❧❧❡ ♣❡r♠❡t✱ ❡♥tr❡ ❛✉tr❡s✱ ❞❡ ❢❛✐r❡ ✉♥❡ ❛♥❛❧②s❡ ❞✐✛ér❡♥t✐❡❧❧❡ ❡♥tr❡ ❞❡✉① ❝♦♥❞✐t✐♦♥s ♣♦✉r ❞❡s ❞♦♥♥é❡s ✐ss✉❡s ❞❡ séq✉❡♥ç❛❣❡ ❤❛✉t✲❞é❜✐t ✭tr❛♥s❝r✐ts✱ ❡①♦♥s✱ ❡t❝✮ q✉❡ ♥♦✉s ❛♣♣❡❧❧❡r♦♥s é❧é♠❡♥ts ❞❛♥s ❧❛ s✉✐t❡ ♣♦✉r r❡st❡r ❣é♥ér✐q✉❡✳ ❡❞❣❡❘ ♠♦❞é❧✐s❡ ♣❛r ✉♥ ❧♦✐ ❜✐♥♦♠✐❛❧❡ ♥é❣❛t✐✈❡ ❧✬❡①♣r❡ss✐♦♥ ❞❡s é❧é♠❡♥ts ✐❞❡♥t✐✜és ♣❛r ❧❡ séq✉❡♥ç❛❣❡✳ ❈❡tt❡ ❜✐♥♦♠✐❛❧❡ ♥é❣❛t✐✈❡ ♣♦ssè❞❡ ❞❡✉① ♣❛r❛♠ètr❡s ✿ ❧❛ ✈❛❧❡✉r ♠♦②❡♥♥❡ ❞✬❡①♣r❡ss✐♦♥✱ q✉✐ ❝♦r✲ r❡s♣♦♥❞ à ❧✬❛❜♦♥❞❛♥❝❡ ❞❡ ❧✬é❧é♠❡♥t ❞❛♥s ❧✬é❝❤❛♥t✐❧❧♦♥✱ ❡t ❧❛ ✈❛r✐❛♥❝❡✱ ❞♦♥t ❧❛ ✈❛❧❡✉r ❞é♣❡♥❞ ❞❡ ❧❛ ♠♦②❡♥♥❡ ❡t ❞✬✉♥ ✈❛❧❡✉r ❞❡ ❞✐s♣❡rs✐♦♥ ✭✈♦✐r ♣❧✉s ❧♦✐♥✮✳ ❉❛♥s ♥♦tr❡ ❝❛s✱ ❧✬❛♥❛❧②s❡ ❞✐✛ér❡♥t✐❡❧❧❡ à ❧✬❛✐❞❡ ❞❡ ❡❞❣❡❘ s❡ ❢❛✐t ❡♥ q✉❛tr❡ ét❛♣❡s ✿ ✶✳ ❈❛❧❝✉❧ ❞❡s ❢❛❝t❡✉rs ❞❡ ♥♦r♠❛❧✐s❛t✐♦♥ ❞❡s t❛✐❧❧❡s ❜r✉t❡s ❞❡s ❜❛♥q✉❡s ❞❡ séq✉❡♥ç❛❣❡ ♣❛r r❛♣♣♦rt à ✉♥❡ ❜❛♥q✉❡ ❞❡ ré❢ér❡♥❝❡ ❡♥ ✉t✐❧✐s❛♥t ❧❛ ♠ét❤♦❞❡ ✓ tr✐♠♠❡❞ ♠❡❛♥ ♦❢ ▼✲✈❛❧✉❡s ✔ ✭❚▼▼✮ ❞é✈❡❧♦♣♣é❡ ♣❛r ❘♦❜✐♥s♦♥ ❡t ❖s❤❧❛❝❦ ❬✶✷✾❪✳ ❈❡tt❡ ♠ét❤♦❞❡ ♣❛rt ❞✉ ♣r✐♥❝✐♣❡ q✉❡ ♣❡✉ ❞✬é❧é♠❡♥ts s♦♥t ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ❡①♣r✐♠és✳ ❊❧❧❡ ❝❛❧❝✉❧❡ ❞♦♥❝ ❧❡s ❢❛❝t❡✉rs q✉✐ ♣❡r♠❡tt❡♥t ❞❡ ♠✐♥✐♠✐s❡r ❧❡ ❧♦❣ ❞❡ ❧✬❛❝❝r♦✐ss❡♠❡♥t ✭❧♦❣✲❢♦❧❞ ❝❤❛♥❣❡✮ ♣♦✉r ❧❛ ♠❛❥♦r✐té ❞❡s é❧é♠❡♥ts s✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ❜❛♥q✉❡s ❡♥ s✉♣♣r✐♠❛♥t ❧❡s é❧é♠❡♥ts ❢♦rt❡♠❡♥t ❡①♣r✐♠és ♦✉ ❛✈❡❝ ✉♥ r❛♣♣♦rt ❧♦❣❛r✐t❤♠✐q✉❡ ❞❡ ♣r♦❜❛❜✐❧✐té ✭❧♦❣✲r❛t✐♦✮ é❧❡✈é ❞❛♥s ❧✬❛♥❛❧②s❡✳ ▲❛ ❢♦♥❝t✐♦♥ ✉t✐❧✐sé❡ ❡st ✿ ❝❛❧❝◆♦r♠❋❛❝t♦rs ❀ ✷✳ ❊st✐♠❛t✐♦♥ ❞❡ ❧❛ ❞✐s♣❡rs✐♦♥ ❡♥tr❡ ❧❡s ❞✐✛ér❡♥t❡s ❜❛♥q✉❡s ❛✈❡❝ ✉♥❡ ✈❛❧❡✉r ❞❡ ❞✐s✲ ♣❡rs✐♦♥ ✐❞❡♥t✐q✉❡ ♣♦✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s é❧é♠❡♥ts ❞❛♥s ❧❡s ❜❛♥q✉❡s✳ ❈✬❡st✲à✲❞✐r❡ q✉❡ ❧❛ ❞✐✛ér❡♥❝❡ ❡♥tr❡ ❧❡ ♣❛r❛♠ètr❡ ❞❡ ✈❛r✐❛♥❝❡ ♣♦✉r ❝❤❛❝✉♥ ❞❡s é❧é♠❡♥ts ♥❡ ❞é♣❡♥❞r❛ q✉❡ ❞❡ ❧❛ ✈❛❧❡✉r ❞❡ ❧❛ ♠♦②❡♥♥❡✳ ▲❛ ❢♦♥❝t✐♦♥ ✉t✐❧✐sé❡ ❡st ✿ ❡st✐♠❛t❡❈♦♠♠♦♥❉✐s♣ ❀ ✸✳ ❊st✐♠❛t✐♦♥ ❞❡ ❧❛ ❞✐s♣❡rs✐♦♥ s♣é❝✐✜q✉❡ à ❝❤❛❝✉♥ ❞❡s é❧é♠❡♥ts✳ ❆✜♥ ❞❡ ♣❛❧❧✐❡r ❧❡ ♥♦♠❜r❡ s♦✉✈❡♥t ❢❛✐❜❧❡ ❞✬é❝❤❛♥t✐❧❧♦♥s✱ ❧❛ ❞✐s♣❡rs✐♦♥ ❞❡ ❝❤❛q✉❡ é❧é♠❡♥t ❡st ✓ t✐ré❡ ✔ ✈❡rs ❧❛ ❞✐s♣❡rs✐♦♥ ❝♦♠♠✉♥❡✳ ▲❛ ❢♦♥❝t✐♦♥ ✉t✐❧✐sé❡ ❡st ✿ ❡st✐♠❛t❡❚❛❣✇✐s❡❉✐s♣ ❀ ✹✳ P♦✉r ❝❤❛❝✉♥ ❞❡s é❧é♠❡♥ts✱ ✉♥ t❡st ❞❡ ❞✐✛ér❡♥❝❡ ❞❡ ♠♦②❡♥♥❡ ❡♥tr❡ ❞❡✉① ❣r♦✉♣❡s ❞❡ ✈❛r✐❛❜❧❡s ❞♦♥t ❧❡s ❞✐str✐❜✉t✐♦♥s s✉✐✈❡♥t ✉♥❡ ❧♦✐ ❜✐♥♦♠✐❛❧❡ ♥é❣❛t✐✈❡ ❡st ❡✛❡❝t✉é✳ ❈❡ t❡st ❞é✈❡❧♦♣♣é ♣❛r ❘♦❜✐♥s♦♥ ❡t ❙♠②t❤ ❬✶✷✺❪ ♣❡r♠❡t ❞✬❛ss♦❝✐❡r ✉♥❡ ♣✲✈❛❧✉❡ à ❝❤❛❝✉♥❡ ❞❡s ❝♦♠♣❛r❛✐s♦♥s ❡♥tr❡ é❧é♠❡♥ts ♣♦✉r ❞❡✉① ❣r♦✉♣❡s✱ ❝✬❡st✲à✲❞✐r❡ ❞❡✉① ❝♦♥❞✐t✐♦♥s ❜✐♦❧♦❣✐q✉❡s ❞❛♥s ♥♦tr❡ ❝❛s✳ ▲❛ ❢♦♥❝t✐♦♥ ✉t✐❧✐sé❡ ❡st ✿ ❡①❛❝t❚❡st✳ ▲✬❡♥s❡♠❜❧❡ ❞❡ ❝❡s ❢♦♥❝t✐♦♥s ❛ été ✉t✐❧✐sé ❛✈❡❝ ❧❡s ♣❛r❛♠ètr❡s ♣❛r ❞é❢❛✉t✳ ✸✳✶✳✷ ❉✐s❝rét✐s❛t✐♦♥ ❞❡s ❝✐♥ét✐q✉❡s ❞✬❡①♣r❡ss✐♦♥ ❆✜♥ ❞❡ ❞✐s❝rét✐s❡r ❧❡s ❝✐♥ét✐q✉❡s s❡①✉é❡s ❡t ❛s❡①✉é❡s✱ ❧❡ t❡st st❛t✐st✐q✉❡ q✉❡ ♥♦✉s ✈❡♥♦♥s ❞❡ ❞é❝r✐r❡ ❛ été ❛♣♣❧✐q✉é ❡♥tr❡ ❧❡s ❡①♣r❡ss✐♦♥s ❛✉① t❡♠♣s ❚i ❡t ❚i + 1 à ❧❛ ❢♦✐s ♣♦✉r ❧❡s ❆❘◆♠ ❞❵✉♥❡ ♣❛rt✱ ❡t ❧❡s ♠✐❝r♦❆❘◆ ❞❵❛✉tr❡ ♣❛rt✱ ♣r❡♥❛♥t ❡♥ ❝♦♠♣t❡ ❧❡s ré♣é✲ t✐t✐♦♥s ❜✐♦❧♦❣✐q✉❡s ❡t t❡❝❤♥✐q✉❡s ✭✈♦✐r ❝❤❛♣✐tr❡ ✷✳✶✳✷ t❛❜❧❡❛✉ ✷✳✷✮✳ P♦✉r ❝❤❛q✉❡ ♣❛✐r❡ ❞❡ ♣❛s ❞❡ t❡♠♣s ❝♦♥sé❝✉t✐❢s✱ ✉♥ t❡st st❛t✐st✐q✉❡ ❞❡ ❞✐✛ér❡♥❝❡ ❞❡ ♠♦②❡♥♥❡s ❡♥tr❡ ❧❡s ❞❡✉①❉✐s❝rét✐s❛t✐♦♥ ❞❡s ❝✐♥ét✐q✉❡s ❡t ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡s tr❛♥s✐t✐♦♥s ❝✐♥ét✐q✉❡s ✻✼ é❝❤❛♥t✐❧❧♦♥s s✉✐✈❛♥t ✉♥❡ ❧♦✐ ❜✐♥♦♠✐❛❧❡ ♥é❣❛t✐✈❡ ❛ été ❡✛❡❝t✉é ♣❛r ❡❞❣❡❘✳ ▲✬❡♥s❡♠❜❧❡ ❞❡s ♣✲✈❛❧✉❡s ❛ été ❛❥✉sté ♣❛r ❧❛ ♠ét❤♦❞❡ ❞❡ ❇❡♥❥❛♠✐♥✐ ❡t ❍♦❝❤❜❡r❣ ❬✶✸✵❪✳ ▲✬❡①♣r❡ss✐♦♥ ❡♥tr❡ ❧❡s t❡♠♣s ❚i ❡t ❚i + 1 ❛ été ❝♦♥s✐❞éré❡ ❝♦♠♠❡ ❞✐✛ér❡♥t❡ q✉❛♥❞ ❧❛ ♣✲✈❛❧✉❡ ❛❥✉sté❡ ❛ss♦❝✐é❡ ❛✉ t❡st ❡♥tr❡ ❝❡s ❞❡✉① t❡♠♣s ét❛✐t ✐♥❢ér✐❡✉r❡ ♦✉ é❣❛❧❡ ❛✉ s❡✉✐❧ ❞❡ ✺ ✪✳ ❯♥❡ ❢♦✐s ❧❡s ❞✐✛ér❡♥❝❡s s✐❣♥✐✜❝❛t✐✈❡s ❡♥tr❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s t❡♠♣s ❚i ❡t ❚i + 1 ♦❜t❡♥✉❡s✱ ❝❡s ❞✐✛ér❡♥❝❡s ♦♥t été ❞✐s❝rét✐sé❡s ❞❡ ❧❛ ❢❛ç♦♥ s✉✐✈❛♥t❡ ✿ ✕ ✵ s✐ ❧❛ ❞✐✛ér❡♥❝❡ ❞✬❡①♣r❡ss✐♦♥ ❡♥tr❡ ❚i ❡t ❚i + 1 ♥✬❡st ♣❛s s✐❣♥✐✜❝❛t✐✈❡ ❀ ✕ ✶ s✐ ❧❛ ❞✐✛ér❡♥❝❡ ❞✬❡①♣r❡ss✐♦♥ ❡♥tr❡ ❚i ❡t ❚i + 1 ❡st s✐❣♥✐✜❝❛t✐✈❡ ❡t q✉❡ ❧✬❡①♣r❡ss✐♦♥ ❝r♦ît ❡♥ ❢♦♥❝t✐♦♥ ❞✉ t❡♠♣s ❀ ✕ ✲✶ s✐ ❧❛ ❞✐✛ér❡♥❝❡ ❞✬❡①♣r❡ss✐♦♥ ❡♥tr❡ ❚i ❡t ❚i + 1 ❡st s✐❣♥✐✜❝❛t✐✈❡ ❡t q✉❡ ❧✬❡①♣r❡ss✐♦♥ ❞é❝r♦ît ❡♥ ❢♦♥❝t✐♦♥ ❞✉ t❡♠♣s✳ P♦✉r ❧❡s ❆❘◆♠✱ ❧❛ ❞✐s❝rét✐s❛t✐♦♥ ❛ été ❡✛❡❝t✉é❡ s✉r ❧❡ ❝♦♠♣t❛❣❡ ❞❡s ✸✻✳✾✾✵ séq✉❡♥❝❡s ❞✬❆❘◆♠ ♣♦✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ✶✾ ❜❛♥q✉❡s ❞❡ séq✉❡♥ç❛❣❡ ✭❧❡s ❝♦♠♣t❛❣❡s ♣♦✉r ❧❡s tr♦✐s ré♣❧✐❝❛ts ❞❡ séq✉❡♥ç❛❣❡ ♣♦✉r ❧❡ t❡♠♣s ❚✵ ♦♥t été s♦♠♠és✮✳ ▲❛ ❞✐s❝rét✐s❛t✐♦♥ ♣♦✉r ❧❡s ❝✐♥ét✐q✉❡s ❞❡s ♠✐❝r♦❆❘◆ ❛ été ❡✛❡❝t✉é❡ s✉r ❧❡ ❝♦♠♣t❛❣❡ ❞❡s ✺✼✸ séq✉❡♥❝❡s ✉♥✐q✉❡s ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♣♦✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ✷✶ ❜❛♥q✉❡s ❞❡ séq✉❡♥ç❛❣❡ ✭❧❡s ❝♦♠♣t❛❣❡s ♣♦✉r ❧❡s tr♦✐s ré♣❧✐❝❛ts ❞❡ séq✉❡♥ç❛❣❡ ♣♦✉r ❝❤❛❝✉♥ ❞❡s ré♣❧✐❝❛ts ❜✐♦❧♦❣✐q✉❡s ♦♥t été s♦♠♠és✮✳ P♦✉r ❧❡s ❆❘◆♠ ❡t ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ❧❡ ♠ê♠❡ ♣r♦t♦❝♦❧❡ ❛ été ❛♣♣❧✐q✉é✳ ▲❡s rés✉❧t❛ts s✉r ❝❡s ❞✐s❝rét✐s❛t✐♦♥s s♦♥t rés✉♠és ❞❛♥s ❧❡s ❚❛❜❧❡❛✉① ✸✳✷ ❡t ✸✳✺ ❞❛♥s ❧❛ ♣❛rt✐❡ ✸✳✷✳✶✳ ■❧s ♣rés❡♥t❡♥t ❧❡s ✈❛❧❡✉rs ❞✐s❝rèt❡s ❛ss♦❝✐é❡s r❡s♣❡❝t✐✈❡♠❡♥t ❛✉① ❆❘◆♠ ❡t ❛✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡♥tr❡ ❝❤❛q✉❡ ♣❛s ❞❡ t❡♠♣s ❝♦♥sé❝✉t✐❢✱ ♣♦✉r ❧❡s ♣r♦✜❧s s❡①✉és ❡t ❛s❡①✉és sé♣❛ré♠❡♥t✳ P♦✉r ❝❤❛❝✉♥ ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ❧❛ ❞②♥❛♠✐q✉❡ ❞✬❡①♣r❡ss✐♦♥ ❡st r❡♣rés❡♥té❡ ♣❛r ✉♥ ❝♦✉♣❧❡ ❞❡ ♣r♦✜❧s ❞❡ tr♦✐s ✈❛❧❡✉rs ❞✐s❝rèt❡s ♣r❡♥❛♥t ❧❡✉r ✈❛❧❡✉r ❞❛♥s ④✲✶✱✵✱✶⑥✱ ❧✬✉♥ ♣♦✉r ❧❛ ❝✐♥ét✐q✉❡ s❡①✉é❡ ❡t ❧✬❛✉tr❡ ♣♦✉r ❧❛ ❝✐♥ét✐q✉❡ ❛s❡①✉é❡✳ P❛r ❡①❡♠♣❧❡ ❧❡ ♣r♦✜❧ s❡①✉é ❙❂④✵✱✶✱✲✶⑥ ❞✬✉♥ ♠✐❝r♦❆❘◆ ♦✉ ❞✬✉♥ ❆❘◆♠ ❛✈❡❝ ✉♥ s❡✉✐❧ ❞❡ ✺ ✪ s✐❣♥✐✜❡ q✉❡ ❧❡s ❡①♣r❡ss✐♦♥s ❛✉① t❡♠♣s ❚✵ ❡t ❚✶❙ ♥❡ s♦♥t ♣❛s s✐❣♥✐✜❝❛t✐✈❡♠❡♥t ❞✐✛ér❡♥t❡s✱ q✉❡ ❧✬❡①♣r❡ss✐♦♥ ❛✉ t❡♠♣s ❚✶❙ ❡st st❛t✐st✐q✉❡♠❡♥t ♣❧✉s ❢❛✐❜❧❡ q✉❡ ❧✬❡①♣r❡ss✐♦♥ ❛✉ t❡♠♣s ❚✷❙ ❡t q✉❡ ❧✬❡①♣r❡ss✐♦♥ ❛✉ t❡♠♣s ❚✷❙ ❡st st❛t✐st✐q✉❡♠❡♥t ♣❧✉s é❧❡✈é❡ q✉❡ ❧✬❡①♣r❡ss✐♦♥ ❛✉ t❡♠♣s ❚✸❙✳ ❉❛♥s ❧❛ s✉✐t❡ ❞❡ ❧❛ t❤ès❡✱ ❧❡ ♠♦t ✓ ♣r♦✜❧ ✔ s❡r❛ ✉t✐❧✐sé ♣♦✉r ❢❛✐r❡ ré❢ér❡♥❝❡ à ❝❡s ♣r♦✜❧s s❡①✉és ✭❙✮ ♦✉ ❛s❡①✉és ✭❆✮ ❛ss♦❝✐és ❛✉① ❆❘◆♠ ❡t ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✳ ✸✳✶✳✸ ❈❧❛ss✐✜❝❛t✐♦♥ ❞❡s tr❛♥s✐t✐♦♥s ❝✐♥ét✐q✉❡s ❆✜♥ ❞❡ ❝❛r❛❝tér✐s❡r ❧❡s tr❛♥s✐t✐♦♥s ❞❡s ❝✐♥ét✐q✉❡s s❡①✉é❡s ✈❡rs ❧❡s ❝✐♥ét✐q✉❡s ❛s❡①✉é❡s ♣♦✉r ❝❤❛❝✉♥ ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ✉♥ ❡♥s❡♠❜❧❡ ❞❡ ♥❡✉❢ rè❣❧❡s q✉✐ ❣é♥ér❛❧✐s❡♥t ❡t ❝❧❛ss✐✜❡♥t ❧❡s ❞✐✛ér❡♥❝❡s ❡♥tr❡ ❧❡ ❝❛r❛❝tèr❡ s❡①✉é ❡t ❧❡ ❝❛r❛❝tèr❡ ❛s❡①✉é ❛ été ❞é✜♥✐✳ ❈❡s rè❣❧❡s ♦♥t ♣♦✉r ❜✉t ❞✬❛✐❞❡r à ❧✬✐♥t❡r♣rét❛t✐♦♥✱ ❝✬❡st✲à✲❞✐r❡ ❞❡ ❞✐st✐♥❣✉❡r ❞❡s ❝✐♥ét✐q✉❡s ❝♦♠♣❛r❛❜❧❡s ❞✉ ♣♦✐♥t ❞❡ ✈✉❡ ❞❡ ❧❛ ré❣✉❧❛t✐♦♥✳ ❊❧❧❡s ♣❡r♠❡tt❡♥t tr♦✐s ❝❤♦s❡s ✿ ✶✳ P❛rt✐t✐♦♥♥❡♠❡♥t ❞❡s ❝♦✉♣❧❡s ❞❡ ♣r♦✜❧s ❀ ✷✳ Pr✐s❡ ❡♥ ❝♦♠♣t❡ ❞✬✉♥❡ é✈♦❧✉t✐♦♥ ♠♦♥♦t♦♥❡✱ tr❛♥s✐t♦✐r❡ ♦✉ ❡♥❝♦r❡ ❞✬✉♥ ❞é❝❛❧❛❣❡ t❡♠♣♦r❡❧ ❀ ✸✳ ❘❡❣r♦✉♣❡♠❡♥t ♣♦ss✐❜❧❡ ❞❡s rè❣❧❡s ♣❛r ♣❛✐r❡s ♣♦s✐t✐✈❡s✴♥é❣❛t✐✈❡s✳ ❈❡s rè❣❧❡s ❝❛r❛❝tér✐s❡♥t ❧❡ ❝❤❛♥❣❡♠❡♥t ❞❡ ❧❛ ❝✐♥ét✐q✉❡ s❡①✉é❡ ✈❡rs ❧❛ ❝✐♥ét✐q✉❡ ❛s❡①✉é❡✱ ❞❛♥s ❝❡t ♦r❞r❡✳ ❊❧❧❡s ♦♥t été ❞é✜♥✐❡s ♣♦✉r ❝♦✉✈r✐r ❧✬❡♥s❡♠❜❧❡ ❞❡s 3 6 − 3 3 = 702✻✽ ❆♥❛❧②s❡✱ ❝❧❛ss✐✜❝❛t✐♦♥ ❡t ❝♦♠♣❛r❛✐s♦♥ ❞❡s ❡①♣r❡ss✐♦♥ ❞❡s ❆❘◆♠ ❡t ♠✐❝r♦❆❘◆ ❝♦♠❜✐♥❛✐s♦♥s ♣♦ss✐❜❧❡s ♣♦✉r ❧❡s s✐① ✈❛❧❡✉rs ❛ss♦❝✐é❡s à ✉♥ é❧é♠❡♥t ❡t ♦ù ✐❧ ② ❛ ❛✉ ♠♦✐♥s ✉♥❡ ❞✐✛ér❡♥❝❡ ❡♥tr❡ ❧❡ ♣r♦✜❧ ❙ ❡t ❆ ♣♦✉r ✉♥❡ i è♠❡ ✈❛❧❡✉r ✿ ∃i ∈ {1, 2, 3} v s i 6= v a i ✳ ▲❛ ♣❛rt✐❡ q✉✐ s✉✐t ❞é❝r✐t ❝❡s ♥❡✉❢ rè❣❧❡s✱ ❧❡s ❝❧❛ss❡ ♣♦s✐t✐✈❡♠❡♥t ♦✉ ♥é❣❛t✐✈❡♠❡♥t ❡t ❞♦♥♥❡ ❡♥tr❡ ♣❛r❡♥t❤ès❡ ❧❡ ♥♦♠❜r❡ ❞❡ ❝♦♠❜✐♥❛✐s♦♥ ❞❡ ♣r♦✜❧s q✉✐ s♦♥t ❝♦✉✈❡rts ♣❛r ❝❤❛❝✉♥❡ ❞❡s rè❣❧❡s✳ ❖♥ ♥♦t❡ regle(S, A) s✐ ❧❡ ❝♦✉♣❧❡ ❞❡ ♣r♦✜❧ ❙✱❆ ❝♦rr❡s♣♦♥❞ à ❧❛ rè❣❧❡ regle✳ ❉❡✉① rè❣❧❡s s♦♥t ❞é✜♥✐❡s ♣♦✉r ✉♥❡ é✈♦❧✉t✐♦♥ ♠♦♥♦t♦♥❡✱ ✉♥❡ ♣♦s✐t✐✈❡ ✿ ✓ ❛✉❣♠❡♥t❡ ✔ ✭✶✽✾✮ ❡t ✉♥❡ ♥é❣❛t✐✈❡ ✿ ✓ ❞✐♠✐♥✉t✐♦♥ ✔ ✭✶✽✾✮ ✿ augmente(S, A) ⇔ ∀v s i , va i , i ∈ {1, 2, 3} v s i ≤ v a i ; diminution(S, A) ⇔ ∀v s i , va i , i ∈ {1, 2, 3} v s i ≥ v a i . ❉❡✉① rè❣❧❡s s♦♥t ❞é✜♥✐❡s ♣♦✉r ✉♥ ❞é❝❛❧❛❣❡ t❡♠♣♦r❡❧✱ ✉♥❡ ♣♦s✐t✐✈❡ ✿ ✓ ❛✈❛♥❝❡ ✔ ✭✶✽✮ ❡t ✉♥❡ ♥é❣❛t✐✈❡ ✿ ✓ r❡t❛r❞ ✔ ✭✶✽✮✱ ♦ù x1, x2 ∈ {−1, 1} ✿ avance(S, A) ⇔ S = (0, 0, x1) ∧ A = ((0, x1, 0) ∨ (x1, 0, 0)) ∨ S = (0, x1, 0) ∧ A = (x1, 0, 0) ∨ S = (0, x1, x2) ∧ A = ((x1, 0, x2) ∨ (x1, x2, 0)) ∨ S = (x1, 0, x2) ∧ A = (x1, x2, 0). retard(S, A) ⇔ S = (0, x1, 0) ∧ A = (0, 0, x1) ∨ S = (x1, 0, 0) ∧ A = ((0, x1, 0) ∨ (0, 0, x1)) ∨ S = (x1, 0, x2) ∧ A = (0, x1, x2) ∨ S = (x1, x2, 0) ∧ A = ((0, x1, x2) ∨ (x1, 0, x2)). ◗✉❛tr❡ rè❣❧❡s ♦♥t été ❞é✜♥✐❡s ♣♦✉r ✉♥❡ é✈♦❧✉t✐♦♥ tr❛♥s✐t♦✐r❡✱ ❞❡✉① ♣♦s✐t✐✈❡s ✿ ✓ ❛♣♣❛✲ r✐t✐♦♥ ♣✐❝ ♣♦s✐t✐❢ ✔ ✭✼✮ ❡t ✓ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♥é❣❛t✐❢ ✔ ✭✼✮ ❡t ❞❡✉① ♥é❣❛t✐✈❡s ✿ ✓ ❛♣♣❛r✐t✐♦♥ ♣✐❝ ♥é❣❛t✐❢ ✔ ✭✼✮ ❡t ✓ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♣♦s✐t✐❢ ✔ ✭✼✮✱ ♦ù x ∈ {−1, 0, 1} ✿ apparitionP icP ositif(S, A) ⇔ S = (x, 0, 0) ∧ A = (x, 1, −1) ∨ S = (0, 0, x) ∧ A = (1, −1, x) ∨ S = (0, 0, 0) ∧ A = (1, 0, −1). disparitionP icNegatif(S, A) ⇔ S = (x, −1, 1) ∧ A = (x, 0, 0) ∨ S = (−1, 1, x) ∧ A = (0, 0, x) ∨ S = (−1, 0, 1) ∧ A = (0, 0, 0). apparitionP icNegatif(S, A) ⇔ S = (x, 0, 0) ∧ A = (x, −1, 1) ∨ S = (0, 0, x) ∧ A = (−1, 1, x) ∨ S = (0, 0, 0) ∧ A = (−1, 0, 1). disparitionP icP ositif(S, A) ⇔ S = (x, 1, −1) ∧ A = (x, 0, 0) ∨ S = (1, −1, x) ∧ A = (0, 0, x) ∨ S = (1, 0, −1) ∧ A = (0, 0, 0). ❯♥❡ rè❣❧❡✱ ✓ ❞é❢❛✉t ✔ ✭✷✻✵✮✱ ❡st ❛ss♦❝✐é❡ ♣❛r ❞é❢❛✉t à t♦✉s ❧❡s ❝♦✉♣❧❡s ❞❡ ♣r♦✜❧s q✉✐ ♥❡ ❝♦rr❡s♣♦♥❞❡♥t à ❛✉❝✉♥❡ ❞❡s ❤✉✐t rè❣❧❡s ♣ré❝é❞❡♥t❡s✳ ▲❡ ❚❛❜❧❡❛✉ ✸✳✶ r❡❞♦♥♥❡ ✉♥❡ ❞é✜♥✐t✐♦♥ ❞❡s rè❣❧❡s ❡t ❧❛ ❋✐❣✉r❡ ✸✳✶ ✐❧❧✉str❡ ❝❡s rè❣❧❡s✳❉✐s❝rét✐s❛t✐♦♥ ❞❡s ❝✐♥ét✐q✉❡s ❡t ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡s tr❛♥s✐t✐♦♥s ❝✐♥ét✐q✉❡s ✻✾ ❈❡s rè❣❧❡s s♦♥t ♠✉t✉❡❧❧❡♠❡♥t ❡①❝❧✉s✐✈❡s✱ ❝✬❡st✲à✲❞✐r❡ q✉✬✉♥ ❝♦✉♣❧❡ ❞❡ ♣r♦✜❧s ♥❡ s❡r❛ ❛ss♦❝✐é q✉✬à ✉♥❡ ❡t ✉♥❡ s❡✉❧❡ rè❣❧❡ ❛✜♥ ❞✬❛✐❞❡r à ❧✬✐♥t❡r♣rét❛t✐♦♥✳ P♦✉r ❝❤❛❝✉♥ ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ❧❛ rè❣❧❡ à ❧❛q✉❡❧❧❡ ❝♦rr❡s♣♦♥❞ ❧❡ ❝♦✉♣❧❡ ❞❡ ♣r♦✜❧s s❡r❛ ❛ss♦❝✐é❡ à ❝❡t ❆❘◆♠ ♦✉ ❝❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡✳ rè❣❧❡ ❞❡s❝r✐♣t✐♦♥ ✭s❡①✉é ✈❡rs ❛s❡①✉é✮ ❡①❡♠♣❧❡ s❡①✉é ❛s❡①✉é ❛✉❣♠❡♥t❛t✐♦♥ ❆✉ ♠♦✐♥s ❧✬✉♥❡ ❞❡s tr♦✐s ✈❛❧❡✉rs ❛✉❣♠❡♥t❡ ❡t ❧❡s ❛✉tr❡s s♦♥t ✐❞❡♥✲ t✐q✉❡s✳ ✲✶✱ ✵✱ ✲✶ ✲✶✱ ✶✱ ✵ ❞✐♠✐♥✉t✐♦♥ ❆✉ ♠♦✐♥s ❧✬✉♥❡ ❞❡s tr♦✐s ✈❛❧❡✉rs ❞✐✲ ♠✐♥✉❡ ❡t ❧❡s ❛✉tr❡s s♦♥t ✐❞❡♥t✐q✉❡s✳ ✲✶✱ ✵✱ ✲✶ ✲✶✱ ✲✶✱ ✲✶ ❛✈❛♥❝❡ ❯♥❡ ♦✉ ❞❡✉① ✈❛❧❡✉rs s♦♥t ❛✈❛♥❝é❡s✳ ❈❡✴❝❡s ✈❛❧❡✉rs r❡♠♣❧❛❝❡♥t ✉♥ ③ér♦ ♦✉ ✉♥❡ ❞❡s ✈❛❧❡✉rs q✉✐ ❜♦✉❣❡♥t✳ ✵✱ ✶✱ ✶ ✶✱ ✶✱ ✵ r❡t❛r❞ ❯♥❡ ♦✉ ❞❡✉① ✈❛❧❡✉rs s♦♥t r❡t❛r❞é❡s✳ ❈❡✴❝❡s ✈❛❧❡✉rs r❡♠♣❧❛❝❡♥t ✉♥ ③ér♦ ♦✉ ✉♥❡ ❞❡s ✈❛❧❡✉rs q✉✐ ❜♦✉❣❡♥t✳ ✲✶✱ ✲✶✱ ✵ ✲✶✱ ✵✱ ✲✶ ❛♣♣❛r✐t✐♦♥ ♣✐❝ ♣♦s✐t✐❢ ❯♥ ♣✐❝ ❞✬❡①♣r❡ss✐♦♥ ♣♦s✐t✐❢ ❛♣♣❛✲ r❛ît✳ ✲✶✱ ✵✱ ✵ ✲✶✱ ✶✱ ✲✶ ❛♣♣❛r✐t✐♦♥ ♣✐❝ ♥é❣❛t✐❢ ❯♥ ♣✐❝ ❞✬❡①♣r❡ss✐♦♥ ♥é❣❛t✐❢ ❛♣♣❛✲ r❛ît✳ ✲✶✱ ✵✱ ✵ ✲✶✱ ✲✶✱ ✶ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♣♦s✐t✐❢ ❯♥ ♣✐❝ ❞✬❡①♣r❡ss✐♦♥ ♣♦s✐t✐❢ ❞✐s♣❛✲ r❛ît✳ ✶✱ ✵✱ ✲✶ ✵✱ ✵✱ ✵ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♥é❣❛t✐❢ ❯♥ ♣✐❝ ❞✬❡①♣r❡ss✐♦♥ ♥é❣❛t✐❢ ❞✐s♣❛✲ r❛ît✳ ✲✶✱ ✶✱ ✶ ✵✱ ✵✱ ✶ ❞é❢❛✉t ▲❡ ❝♦✉♣❧❡ ♥❡ ❝♦rr❡s♣♦♥❞ à ❛✉❝✉♥❡ ❛✉tr❡ rè❣❧❡✳ ✵✱ ✶✱ ✶ ✶✱ ✵✱ ✵ ❚❛❜❧❡❛✉ ✸✳✶ ✕ ❚❛❜❧❡❛✉ ❞é❝r✐✈❛♥t ❧❡s rè❣❧❡s ♣❡r♠❡tt❛♥t ❞❡ ♣❛rt✐t✐♦♥♥❡r ❡♥ ♥❡✉❢ ❝❧❛ss❡s ❧❡s ❞✐✛ér❡♥❝❡s ❡♥tr❡ ❧❡ ♣r♦✜❧ s❡①✉é ❡t ❧❡ ♣r♦✜❧ ❛s❡①✉é ♣♦✉r ❧❡s ❆❘◆♠ ❡t ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✳ P♦✉r ❝❤❛❝✉♥❡ ❞❡s rè❣❧❡s✱ ✉♥❡ ❞❡s❝r✐♣t✐♦♥ ❡st ❞♦♥♥é❡ ❛✐♥s✐ q✉✬✉♥ ❡①❡♠♣❧❡✳ ✸✳✶✳✹ ➱t✉❞❡ ❞❡s ❆❘◆♠ ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ❡①♣r✐♠és ❡♥r✐❝❤✐s ❡♥ ❛♥♥♦✲ t❛t✐♦♥s ❢♦♥❝t✐♦♥♥❡❧❧❡s ❖❜t❡♥t✐♦♥ ❞❡s ❆❘◆♠ ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ❡①♣r✐♠és ❡♥r✐❝❤✐s ❡♥ ❛♥♥♦t❛t✐♦♥s ❢♦♥❝t✐♦♥♥❡❧❧❡s ♣❛r ❇❧❛st✷●❖ ❇❧❛st✷●❖ ❬✾✼✱ ✾✽❪ ♣❡r♠❡t✱ ❡♥ ♣❧✉s ❞❡s ❢♦♥❝t✐♦♥♥❛❧✐tés ❞é❝r✐t❡s ♣ré❝é❞❡♠♠❡♥t✱ ❞❡ ❝❛❧❝✉❧❡r ✉♥ ❡♥r✐❝❤✐ss❡♠❡♥t ❡♥ ❛♥♥♦t❛t✐♦♥s ❢♦♥❝t✐♦♥♥❡❧❧❡s ❞✬✉♥ s♦✉s✲❡♥s❡♠❜❧❡ ❞✬❆❘◆♠ ❞✬✐♥térêt ♣♦ssé❞❛♥t ✉♥❡ ❛♥♥♦t❛t✐♦♥ ❢♦♥❝t✐♦♥♥❡❧❧❡ ✭✐❝✐ ❧❡s ❆❘◆♠ q✉✐ s❡r♦♥t ❞✐✛ér❡♥t✐❡❧❧❡✲ ♠❡♥t ❡①♣r✐♠és✮ ❝♦♥tr❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❆❘◆♠ ❛♥♥♦tés ✭❧❛ ❧✐st❡ ❞❡ ré❢ér❡♥❝❡✮✳ ▲✬❛♥♥♦t❛✲ t✐♦♥ ✉t✐❧✐s❡ ❞❡s t❡r♠❡s ❞❡ ❧✬♦♥t♦❧♦❣✐❡ ●❖✳ P♦✉r s❛✈♦✐r s✐ ✉♥❡ ❛♥♥♦t❛t✐♦♥ ●❖ ❞♦♥♥é❡ ❡st ❡♥r✐❝❤✐❡ ❞❛♥s ✉♥❡ ❧✐st❡ ❞✬❆❘◆♠ s♣é❝✐✜q✉❡✱ ❇❧❛st✷●❖ ❡✛❡❝t✉❡ ✉♥ t❡st ❡①❛❝t ❞❡ ❋✐s❤❡r ❡♥tr❡ ❞✬✉♥❡ ♣❛rt ❧❡ r❛t✐♦ ❡♥tr❡ ❧❡ ♥♦♠❜r❡ ❞✬❆❘◆♠ ♣♦ssé❞❛♥t ❝❡tt❡ ❛♥♥♦t❛t✐♦♥ ❡t ❝❡✉① ♥❡ ♣♦ssé❞❛♥t ♣❛s ❝❡tt❡ ❛♥♥♦t❛t✐♦♥ ❞❛♥s ❧❡ s♦✉s✲❡♥s❡♠❜❧❡ ❞✬❆❘◆♠ ❞✬✐♥térêt✱ ❝♦♥tr❡ ❞✬❛✉tr❡✼✵ ❆♥❛❧②s❡✱ ❝❧❛ss✐✜❝❛t✐♦♥ ❡t ❝♦♠♣❛r❛✐s♦♥ ❞❡s ❡①♣r❡ss✐♦♥ ❞❡s ❆❘◆♠ ❡t ♠✐❝r♦❆❘◆ S -1 0 -1 A -1 1 0 T0 T1 T2 T3 augmentation S -1 0 -1 A -1 -1 -1 S 0 1 1 A 1 1 0 avance S -1 -1 0 A -1 0 -1 S -1 0 0 A -1 1 -1 apparition pic positif S -1 0 0 A -1 -1 1 S 1 0 -1 A 0 0 0 disparition pic positif S -1 1 1 A 0 0 1 diminution retard apparition pic négatif disparition pic négatif T0 T1 T2 T3 T0 T1 T2 T3 T0 T1 T2 T3 T0 T1 T2 T3 T0 T1 T2 T3 T0 T1 T2 T3 T0 T1 T2 T3 ❋✐❣✳ ✸✳✶ ✕ ❙❝❤é♠❛ ❞❡s ❝♦✉♣❧❡s ❞❡ ♣r♦✜❧s ❞❡s ❝✐♥ét✐q✉❡s s❡①✉é❡s ❡t ❛s❡①✉é❡s ❛ss♦❝✐és ❛✉① ♣r✐♥❝✐♣❛❧❡s rè❣❧❡s ❞❡ tr❛♥s✐t✐♦♥s ❞é❝r✐t❡s ❞❛♥s ❧❡ ❚❛❜❧❡❛✉ ✸✳✶✳ P♦✉r ❝❤❛❝✉♥ ❞❡s ❤✉✐t s❝❤é♠❛s ✐❧❧✉str❛♥t ❧❡s ❤✉✐t rè❣❧❡s✱ ❧❡s q✉❛tr❡ t❡♠♣s ❚✵✱ ❚✶✱ ❚✷✱ ❚✸ s♦♥t ✈✐s✐❜❧❡s ❡♥ ❤❛✉t ❡t ❧❡ ♥♦♠ ❞❡ ❧❛ rè❣❧❡ ❡♥ ❜❛s✳ ▲❡ ♣r♦✜❧ s❡①✉é ❡st s❝❤é♠❛t✐sé ❡♥ ❜❧❡✉ ❡t ♣❛r ❧❛ ❧❡ttr❡ ❙ ❡t ❧❡ ♣r♦✜❧ ❛s❡①✉é ❡st s❝❤é♠❛t✐sé ❡♥ r♦✉❣❡ ❡t ♣❛r ❧❛ ❧❡ttr❡ ❆✳ P♦✉r ❝❤❛❝✉♥❡ ❞❡s rè❣❧❡s✱ ❞❡s ✢è❝❤❡s ❧✐❡♥t ❧❡s ✈❛❧❡✉rs q✉✐ ❝❤❛♥❣❡♥t ❡♥tr❡ ❧❡ ♣r♦✜❧ s❡①✉é ❡t ❛s❡①✉é ❡t q✉✐ ❝❛r❛❝tér✐s❡♥t ❧❡ ❝❧❛ss❡♠❡♥t ❞✉ ❝♦✉♣❧❡ ❞❡ ♣r♦✜❧s ♣❛r ❝❡tt❡ rè❣❧❡✳ ♣❛rt ❝❡ ♠ê♠❡ r❛t✐♦ ♠❛✐s ♦❜t❡♥✉ s✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ❆❘◆♠ ❞❡ ré❢ér❡♥❝❡✳ ▲❡s ❞✐✛ér❡♥ts t❡sts ❡①❛❝ts ❞❡ ❋✐s❤❡r ♦♥t été ré❛❧✐sés ✐❝✐ ❡♥ ✉t✐❧✐s❛♥t ❧✬✐♥t❡r❢❛❝❡ ❣r❛♣❤✐q✉❡ ❞❡ ❇❧❛st✷●❖✶ ❛✈❡❝ ✉♥ s❡✉✐❧ s✉r ❧❡s ♣✲✈❛❧✉❡s ❛❥✉sté❡s à ✺ ✪✳ ❱✐s✉❛❧✐s❛t✐♦♥ ❡t ❛♥❛❧②s❡ ❞❡s ❆❘◆♠ ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ❡①♣r✐♠és ❡♥r✐❝❤✐s ❡♥ ❛♥♥♦t❛t✐♦♥s ❢♦♥❝t✐♦♥♥❡❧❧❡s ❆✜♥ ❞❡ s✉♣♣r✐♠❡r ❧❛ r❡❞♦♥❞❛♥❝❡✱ ❞❡ rés✉♠❡r ❡t ❞❡ ✈✐s✉❛❧✐s❡r ❧❡s rés✉❧t❛ts ♦❜t❡♥✉s s✉r ❧❡s ❛♥♥♦t❛t✐♦♥s ●❖ q✉✐ s♦♥t ❡♥r✐❝❤✐❡s✱ ❧❡ ❧♦❣✐❝✐❡❧ ❘❊❱✐●❖✷ ❬✶✸✶❪ ❛ été ✉t✐❧✐sé✳ ❘❊❱✐●❖ ❢♦✉r♥✐t✱ à ♣❛rt✐r ❞✬✉♥❡ ❧✐st❡ ❞❡ t❡r♠❡s ●❖✱ ✉♥ ❡♥s❡♠❜❧❡ ❞❡ ❝❧✉st❡rs ❞❡ t❡r♠❡s ●❖ s✐♠✐❧❛✐r❡s✳ ❈❡❧❛ ♣❡r♠❡t ❞✬♦❜t❡♥✐r ✉♥❡ ♣❛rt✐t✐♦♥ ❞❡s t❡r♠❡s ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❡✉r s✐♠✐❧❛r✐té✳ ➱t❛♥t ❞♦♥♥é ✉♥ ❡♥s❡♠❜❧❡ ❞❡ t❡r♠❡s ●❖ ❡♥r✐❝❤✐s ❛✈❡❝ ✉♥❡ ♣✲✈❛❧✉❡ ❛ss♦❝✐é❡✱ ❘❊❱✐●❖ ✈❛ ♣♦✉r ❝❤❛q✉❡ ♣❛✐r❡ ❞❡ t❡r♠❡s ❝❛❧❝✉❧❡r ✉♥❡ s✐♠✐❧❛r✐té ✿ ❝❡❧❧❡ ♣❛r ❞é❢❛✉t ❡t q✉✐ ❛ été ✉t✐❧✐sé❡ ✐❝✐ ❡st ❧❛ s✐♠✐❧❛r✐té ❙✐♠❘❡❧ ❬✶✸✷❪✳ ❊❧❧❡ r❡♥✈♦✐❡ ✉♥❡ ✈❛❧❡✉r ❝♦♠♣r✐s❡ ❡♥tr❡ ✵ ❡t ✶✱ ✶❉✐s♣♦♥✐❜❧❡ à ❝❡tt❡ ❛❞r❡ss❡ ✿ ❤tt♣✿✴✴✇✇✇✳❜❧❛st✷❣♦✳❝♦♠✴❜✷❣❤♦♠❡ ✷ ❤tt♣✿✴✴r❡✈✐❣♦✳✐r❜✳❤r✴❉✐s❝rét✐s❛t✐♦♥ ❞❡s ❝✐♥ét✐q✉❡s ❡t ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡s tr❛♥s✐t✐♦♥s ❝✐♥ét✐q✉❡s ✼✶ ♦ù ✉♥❡ ✈❛❧❡✉r ❞❡ ✶ s✐❣♥✐✜❡ q✉❡ ❧❡s t❡r♠❡s s♦♥t s✐♠✐❧❛✐r❡s✳ ❊♥ ♣❛rt❛♥t ❞❡s ❞❡✉① t❡r♠❡s ti ❡t tj ❧❡s ♣❧✉s s✐♠✐❧❛✐r❡s✱ ❘❊❱✐●❖ ❣❛r❞❡ ❧❡s ❞❡✉① t❡r♠❡s s✬✐❧s ♦♥t ✉♥ ❞❡❣ré ❞❡ s✐♠✐❧❛r✐té ✐♥❢ér✐❡✉r à ✉♥ ❝❡rt❛✐♥ s❡✉✐❧ ✭✵✱✼ ♣❛r ❞é❢❛✉t✮✳ ❙✐♥♦♥ ✉♥ ❡♥s❡♠❜❧❡ ❞❡ rè❣❧❡s ❡st ✉t✐❧✐sé ♣♦✉r ❝❤♦✐s✐r q✉❡❧ t❡r♠❡ ❡st s✉♣♣r✐♠é✳ ❯♥ rés✉♠é ❞❡s ❞✐✛ér❡♥t❡s ét❛♣❡s ❡t ❞❡s rè❣❧❡s ❞❡ ❝❤♦✐① s♦♥t ♣rés❡♥té ❋✐❣✉r❡ ✸✳✷✳ ❋✐❣✳ ✸✳✷ ✕ ▲❡s ❞✐✛ér❡♥t❡s ét❛♣❡s ❡t rè❣❧❡s ❞❡ ❧❛ ♠ét❤♦❞❡ ❘❊❱✐●❖✳ ✯❙✐ ❧❡ t❡r♠❡ ✜❧s r❡♣rés❡♥t❡ ✼✺ ✪ ♦✉ ♣❧✉s ❞❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s t❡r♠❡s ✜❧s ✉ t❡r♠❡ ♣❛r❡♥t✱ ❛❧♦rs ❧❡ t❡r♠❡ ♣❛r❡♥t ❡st s✉♣♣r✐♠é à ❧❛ ♣❧❛❝❡ ❞✉ t❡r♠❡ ✜❧s✳ ❋✐❣✉r❡ t✐ré❡ ❞❡ ❙✉♣❡❦ ❡t ❛❧✳ ❬✶✸✶❪✳ ▲❡s t❡r♠❡s q✉✐ s✉❜s✐st❡♥t à ❧❛ ✜♥ ❞❡ ❝❡tt❡ ♣r♦❝é❞✉r❡ s♦♥t ❧❡s t❡r♠❡s q✉✐ r❡♣rés❡♥t❡✲✼✷ ❆♥❛❧②s❡✱ ❝❧❛ss✐✜❝❛t✐♦♥ ❡t ❝♦♠♣❛r❛✐s♦♥ ❞❡s ❡①♣r❡ss✐♦♥ ❞❡s ❆❘◆♠ ❡t ♠✐❝r♦❆❘◆ r♦♥t ❧❡s ❝❧✉st❡rs ❞❡ t❡r♠❡s ●❖ ❡t ♦ù ✉♥ t❡r♠❡ ❡st ❛ss♦❝✐é à ✉♥ ❝❧✉st❡r s✐ s❛ s✐♠✐❧❛r✐té ❡st ❧❛ ♣❧✉s é❧❡✈é❡ ♣♦✉r ❧❡ t❡r♠❡ r❡♣rés❡♥t❛♥t ❝❡ ❝❧✉st❡r✳ ❘❊❱✐●❖ ♣❡r♠❡t ❞❡ ✈✐s✉❛❧✐s❡r ❝❡s ❝❧✉st❡rs ♥♦t❛♠♠❡♥t ♣❛r ✉♥❡ ✈✐s✉❛❧✐s❛t✐♦♥ ♣❛r ✉♥ ❞✐❛❣r❛♠♠❡ ❞❡ ❞✐s♣❡rs✐♦♥✳ ❈❡ ❞✐❛✲ ❣r❛♠♠❡ ❡st ♦❜t❡♥✉ ❡♥ ✉t✐❧✐s❛♥t ❧❛ s✐♠✐❧❛r✐té ❡♥tr❡ ❧❡s ❝❧✉st❡rs ❡t ❡♥ ❧❡s ♣r♦❥❡t❛♥t s✉r ❞❡✉① ❛①❡s✱ ❛♣♣❡❧és ❛①❡s sé♠❛♥t✐q✉❡s✱ à ❧✬❛✐❞❡ ❡♥tr❡ ❛✉tr❡ ❞✉ ♠✉❧t✐❞✐♠❡♥s✐♦♥❛❧ s❝❛❧✐♥❣ ✭▼❉❙✮✳❈♦♠♣❛r❛✐s♦♥ ❞❡s ❡①♣r❡ss✐♦♥s ❣é♥✐q✉❡s ❡♥tr❡ ❡♠❜r②♦♥s s❡①✉és ❡t ❛s❡①✉és ✼✸ ✸✳✷ ❘és✉❧t❛ts ✿ ❈♦♠♣❛r❛✐s♦♥ ❞❡s ❡①♣r❡ss✐♦♥s ❣é♥✐q✉❡s ❡♥tr❡ ❡♠❜r②♦♥s s❡①✉és ❡t ❛s❡①✉és ▲✬♦❜❥❡❝t✐❢ ❞❡s ❡①♣ér✐❡♥❝❡s ré❛❧✐sé❡s ✈✐s❡ à ❝♦♠♣❛r❡r ❞❡s ♣r♦✜❧s ❞✬❡①♣r❡ss✐♦♥ ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❞❛♥s ❞❡s ❡♠❜r②♦♥s ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❡♥❣❛❣és ❞❛♥s ✉♥ ❞é✈❡❧♦♣♣❡♠❡♥t s❡①✉é ♦✉ ❛s❡①✉é✳ ❈❡❝✐ ♣❡r♠❡ttr❛ ♣❛r ❧❛ s✉✐t❡ ❞❡ ré❞✉✐r❡ ❧❡ ❣r❛♣❤❡ ❞✬✐♥t❡r❛❝t✐♦♥s ❛✉① é❧é♠❡♥ts ❞✬✐♥térêt ✿ ♦♥ ♥❡ r❡t✐❡♥t q✉❡ ❧❡s ✐♥t❡r❛❝t✐♦♥s ❡♥tr❡ ❞❡s ♠✐✲ ❝r♦❆❘◆ ❡t ❞❡s ❆❘◆♠ ♣♦ssé❞❛♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t❡s ❡♥tr❡ ❧❡s ❞é✈❡❧♦♣♣❡♠❡♥ts s❡①✉és ❡t ❛s❡①✉és✳ ▲❡ ♣r♦t♦❝♦❧❡ ❡①♣ér✐♠❡♥t❛❧ ♣rés❡♥té ♣ré❝é❞❡♠♠❡♥t ✭✈♦✐r ❋✐❣✉r❡ ✷✳✶✮ ✐♥❞✐q✉❡ ❧❛ ❢❛ç♦♥ ❞✬♦❜t❡♥✐r ❞❡s ❝✐♥ét✐q✉❡s ❞❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❡♠❜r②♦♥♥❛✐r❡ s②♥❝❤r♦♥❡s ❡♥tr❡ ❧❡s ❡♠❜r②♦❣❡♥ès❡s s❡①✉é❡s ❡t ❛s❡①✉é❡s✳ ▲❡s é❝❤❛♥t✐❧❧♦♥s ♦❜t❡♥✉s ❝♦rr❡s♣♦♥❞❡♥t à ❞✐✛ér❡♥ts st❛❞❡s ❡♠❜r②♦♥♥❛✐r❡s ✭❞✉ ❙t❛❞❡ ✶✼ ♦✉ ❙t❛❞❡ ✷✵✱ ✈♦✐r ❚❛❜❧❡❛✉ ✷✳✷✮ à ❧❛ ❢♦✐s ❞❡s ❡♠❜r②♦♥s s❡①✉és ❡t ❛s❡①✉és✳ ▲❛ ❋✐❣✉r❡ ✸✳✸ ❝✐✲❞❡ss♦✉s ❞é❝r✐t ❧❡s ❞❡✉① ❝✐♥ét✐q✉❡s ❞✬❡♠❜r②♦❣❡♥ès❡s ❛✐♥s✐ ♦❜t❡♥✉❡s✳ ▲❡ t❡♠♣s ❚✵ ❝♦rr❡s♣♦♥❞ ❛✉ st❛❞❡ ✶✼ q✉✐ ❡st ❧❡ st❛❞❡ ❞✐t ✢❡①✐❜❧❡ ♦ù ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞❡ ❦✐♥♦♣rè♥❡ ♣❡r♠❡t ❞❡ ❞✐r✐❣❡r ❧❡ ❞❡✈❡♥✐r ❞✬❡♠❜r②♦♥s à ❧✬❛✈❡♥✐r s❡①✉é ❡♥ ❡♠❜r②♦♥s à ❧✬❛✈❡♥✐r ❛s❡①✉é✳ ▲❡s ❡①tr❛❝t✐♦♥s ❛✉① st❛❞❡s ✶✽✱ ✶✾ ❡t ✷✵ s♦♥t ❧❡s ❡①tr❛❝t✐♦♥s ♦❜t❡♥✉❡s à ❧❛ ❢♦✐s ❝❤❡③ ❧❡s ♣✉❝❡r♦♥s s❛♥s ❛♣♣❧✐❝❛t✐♦♥ ❞❡ ❦✐♥♦♣rè♥❡ ✭s❡①✉és ✿ ❙✮ ❡t ❛✈❡❝ ❛♣♣❧✐❝❛t✐♦♥ ❞❡ ❦✐♥♦♣rè♥❡ ✭❛s❡①✉és ✿ ❆✮✳ ▲❡ t❡♠♣s ❚✵ ❡st ❞♦♥❝ ❝♦♠♠✉♥ ❛✉① ❞❡✉① ❝✐♥ét✐q✉❡s ❡t ❧❡s t❡♠♣s ❚✶✱ ❚✷ ❡t ❚✸ s♦♥t s♣é❝✐✜q✉❡s ❛✉① ❝✐♥ét✐q✉❡s✳ ▲❡s t❡♠♣s ❙❂④❚✵✱❚✶❙✱❚✷❙✱❚✸❙ ⑥ ❝♦♥st✐t✉❡♥t ❧❛ ❝✐♥ét✐q✉❡ s❡①✉é❡ ❡t ❧❡s t❡♠♣s ❆❂④❚✵✱❚✶❙✱❚✷❙✱❚✸❙ ⑥ ❝♦♥st✐t✉❡♥t ❧❛ ❝✐♥ét✐q✉❡ ❛s❡①✉é❡✳ Stade 18 Stade 19 Stade 20 T1S T2S T3S T2A T3A Sexué Asexué Stade 17 flexible Jours courts Jours longs Embryon T1A T0 ❋✐❣✳ ✸✳✸ ✕ ❙❝❤é♠❛ ❞❡s ❝✐♥ét✐q✉❡s ♦❜t❡♥✉❡s s✉r ❞❡s ❡♠❜r②♦❣❡♥ès❡s ❞❡ ♣✉❝❡r♦♥ ❢❡♠❡❧❧❡s à ❧✬❛✈❡♥✐r s❡①✉é ♦✉ ❛s❡①✉é ♣♦✉r ❧❡s st❛❞❡s ✶✼✱ ✶✽✱ ✶✾ ❡t ✷✵✳ ❊♥ ❜❧❡✉ ✿ ❧✬❡♠❜r②♦❣❡♥ès❡ s❡①✉é❡ ✭❙✮ ❀ ❡♥ r♦✉❣❡ ❧✬❡♠❜r②♦❣❡♥ès❡ ❛s❡①✉é❡ ✭❆✮ ❀ ❧❡s t❡♠♣s ❚✵✱ ❚✶❙✱ ❚✷❙✱ ❚✸❙ ❡t ❚✶❆✱ ❚✷❆✱ ❚✸❆ r❡♣rés❡♥t❡♥t r❡s♣❡❝t✐✈❡♠❡♥t ❧❡s ❡①tr❛❝t✐♦♥s ❛✉① st❛❞❡s ✶✼✱ ✶✽ s❡①✉é✱ ✶✾ s❡①✉é✱ ✷✵ s❡①✉é ❡t ✶✽ ❛s❡①✉é✱ ✶✾ ❛s❡①✉é✱ ✷✵ ❛s❡①✉é✳ ❈❡tt❡ ♣❛rt✐❡ ♣rés❡♥t❡ t♦✉t ❞✬❛❜♦r❞ ❧✬✐❞❡♥t✐✜❝❛t✐♦♥ ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ q✉✐ s♦♥t ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ré❣✉❧és ❡♥tr❡ ❧❡s ❡♠❜r②♦❣❡♥ès❡s s❡①✉é❡s ❡t ❛s❡①✉é❡s✳ P❛r ❧❛ s✉✐t❡✱ ✐❧ ❡st ❞é❝r✐t ❝♦♠♠❡♥t ❧❛ ré❞✉❝t✐♦♥ ❞❡ ❝❡s ❞❡✉① ❝❛t❛❧♦❣✉❡s ♣❡r♠❡t ❞❡ ❧✐♠✐t❡r ❧❡ ♥♦♠❜r❡ ❞✬✐♥t❡r❛❝t✐♦♥s ❞✉ rés❡❛✉✳✼✹ ❆♥❛❧②s❡✱ ❝❧❛ss✐✜❝❛t✐♦♥ ❡t ❝♦♠♣❛r❛✐s♦♥ ❞❡s ❡①♣r❡ss✐♦♥ ❞❡s ❆❘◆♠ ❡t ♠✐❝r♦❆❘◆ ✸✳✷✳✶ ■❞❡♥t✐✜❝❛t✐♦♥ ❡t ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ♠❛✲ t✉r❡s ré❣✉❧és ❈❡tt❡ ét✉❞❡ ❝♦♥s✐st❡ à ❝♦♠♣❛r❡r ❧✬❡①♣r❡ss✐♦♥ ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ♣❡♥❞❛♥t ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞❡ ❞❡✉① t②♣❡s ❞✬❡♠❜r②♦♥s✳ ❆✜♥ ❞✬❛✐❞❡r à ❧✬✐♥t❡r♣rét❛t✐♦♥✱ ✐❧ ❛ été ❞é❝✐❞é ❞❡ ❞✐s❝rét✐s❡r ❧✬❡①♣r❡ss✐♦♥ ❡♥tr❡ ❝❤❛q✉❡ ♣❛✐r❡ ❞❡ ♣❛s ❞❡ t❡♠♣s ❝♦♥sé❝✉t✐❢s ❛✜♥ ❞❡ r❡♥❞r❡ ❝♦♠♣❛r❛❜❧❡ ❧❡s ❝✐♥ét✐q✉❡s ❞✬❡①♣r❡ss✐♦♥✳ ■❞❡♥t✐✜❝❛t✐♦♥ ❡t ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡s ❆❘◆♠ ■❞❡♥t✐✜❝❛t✐♦♥ ❞❡s ❆❘◆♠ ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ré❣✉❧és P♦✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ❆❘◆♠ ❡t ♣♦✉r ❧❡s ❞❡✉① ❝✐♥ét✐q✉❡s✱ s❡①✉é❡ ✿ ❙❂④❚✵✱❚✶❙✱❚✷❙✱❚✸❙ ⑥ ❡t ❛s❡①✉é❡ ✿ ❆❂④❚✵✱❚✶❙✱❚✷❙✱❚✸❙ ⑥✱ ✉♥❡ ❞✐s❝rét✐s❛t✐♦♥ ❞❡ ❧✬é✈♦❧✉t✐♦♥ ❞❡ ❧✬❡①♣r❡ss✐♦♥ ❡♥tr❡ ❝❤❛q✉❡ ♣❛✐r❡ ❞❡ ♣❛s ❞❡ t❡♠♣s ❝♦♥sé❝✉t✐❢s ❛ été ❡✛❡❝t✉é❡ ✭✈♦✐r ♣❛rt✐❡ ✸✳✶✳✷✮✳ ▲❡s rés✉❧t❛ts ♦❜t❡♥✉s ♣♦✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ❆❘◆♠ s♦♥t ♣rés❡♥tés ❞❛♥s ❧❡ ❚❛❜❧❡❛✉ ✸✳✷ ❝✐✲❞❡ss♦✉s✳ s❡①✉é ✭✪ ❞❡ ✈❛r✐❛t✐♦♥ ♣♦✉r ❧❡ ♣r♦✜❧ ❛s❡①✉é✮ ✈❛❧❡✉r ❚✵✴❚✶❙ ❚✶❙✴❚✷❙ ❚✷❙✴❚✸❙ ✵ ✷✼✳✸✾✼ ✭✲✵✱✶✪✮ ✸✷✳✾✻✾ ✭✰✵✱✷✪✮ ✸✶✳✵✵✺ ✭✰✶✱✹✪✮ ✲✶ ✺✳✺✽✺ ✭✲✵✱✷✪✮ ✶✳✶✾✵ ✭✰✸✱✹✪✮ ✷✳✻✷✺ ✭✲✶✺✱✻✪✮ ✶ ✹✳✵✵✽ ✭✰✶✱✷✪✮ ✷✳✾✸✶ ✭✲✼✱✼✪✮ ✸✳✸✻✵ ✭✲✵✱✼✪✮ t♦t❛❧ ✭✲✶✴✶✮ ✾✳✺✾✸ ✭✰✵✱✹✪✮ ✹✳✶✷✶ ✭✲✹✪✮ ✺✳✾✽✺ ✭✲✼✱✷✪✮ ❚❛❜❧❡❛✉ ✸✳✷ ✕ ◆♦♠❜r❡ ❞✬❆❘◆♠ ❛ss♦❝✐és ❛✉① ✈❛❧❡✉rs ❞✐s❝rèt❡s ✲✶✱ ✵ ❡t ✶ ♣♦✉r ❧✬❡♥✲ s❡♠❜❧❡ ❞❡s ♣❛✐r❡s ❞❡ ♣❛s ❞❡ t❡♠♣s ❝♦♥sé❝✉t✐❢s ❞❡s ❝✐♥ét✐q✉❡s s❡①✉é❡s✳ P♦✉r ❧❡s ❝✐♥ét✐q✉❡s ❛s❡①✉é❡s✱ ❧❡ ♣♦✉r❝❡♥t❛❣❡ ❞❡ ❞✐✛ér❡♥❝❡ ❡st ♣rés❡♥té ❡♥tr❡ ♣❛r❡♥t❤ès❡s✳ ▲✬❛♥❛❧②s❡ ❛ été ❢❛✐t❡ s✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ✸✻✳✾✾✵ séq✉❡♥❝❡s ✉♥✐q✉❡s ❞✬❆❘◆♠✳ ▲❛ ❞❡r♥✐èr❡ ❧✐❣♥❡ r❡♣rés❡♥t❡ ❧❛ s♦♠♠❡ ❞❡s ❧✐❣♥❡s ✲✶ ❡t ✶✳ ❖♥ ♣❡✉t ✈♦✐r q✉❡ ❧❛ ré♣❛rt✐t✐♦♥ ❞❡s ❆❘◆♠ ❡♥ ✲✶✱ ✵ ❡t ✶ ♣♦✉r ❞❡s t❡♠♣s ❝♦♥sé❝✉t✐❢s ✐❞❡♥t✐q✉❡s ❡st s❡♠❜❧❛❜❧❡ ❡♥tr❡ ❧❛ ❝✐♥ét✐q✉❡ s❡①✉é❡ ❡t ❧❛ ❝✐♥ét✐q✉❡ ❛s❡①✉é❡✳ ▲❡ ♥♦♠❜r❡ ❞✬❆❘◆♠ ❛②❛♥t ✉♥❡ ✈❛❧❡✉r ❞✐✛ér❡♥t❡ ❞❡ ③ér♦ ✈❛r✐❡ ❡♥tr❡ ❡♥✈✐r♦♥ ✶✵ ✪ ✭❞✐✛ér❡♥❝❡ ❡♥tr❡ ❚✶❙✴✷❆ ❡t ❚✷❙✴✷❆✮ ❡t ✷✻ ✪ ✭❚✵✴❚✶❙✴✶❆✮✳ ❈❡tt❡ ❞✐✛ér❡♥❝❡ ❞❡ ré♣❛rt✐t✐♦♥ ♥♦✉s ✐♥❞✐q✉❡ q✉❡ ❧❡s ♣❧✉s ❣r❛♥❞❡s ✈❛r✐❛t✐♦♥s ❞✬❡①♣r❡ss✐♦♥ s❡ ❢♦♥t ❡♥tr❡ ❧❡ t❡♠♣s ❚✵ ❡t ❧❡ t❡♠♣s ❚✶ ♣♦✉r ❧❛ ❝✐♥ét✐q✉❡ s❡①✉é❡ ❡t ❧❛ ❝✐♥ét✐q✉❡ ❛s❡①✉é❡✳ ▲❡ t❡♠♣s ❚✵ ❡st ❧❡ ❞❡r♥✐❡r t❡♠♣s ♣❡♥❞❛♥t ❧❡q✉❡❧ ❧✬❡♠❜r②♦♥ ❡st s❡♥s✐❜❧❡ ❛✉ ❦✐♥♦♣rè♥❡✱ ♦ù s♦♥ ❛✈❡♥✐r ♥✬❡st ♣❛s ❡♥❝♦r❡ ❞ét❡r♠✐♥é✱ ❝❡ q✉✐ ✈❡✉t ❞✐r❡ q✉❡ ❧❡ ♠♦♠❡♥t ♦ù ❧✬♦♥ ♦❜s❡r✈❡ ❧❡ ♣❧✉s ❞✬❆❘◆♠ ❞♦♥t ❧✬❡①♣r❡ss✐♦♥ é✈♦❧✉❡ ❡st ❧❡ ♠♦♠❡♥t ♦ù ❧✬❡♠❜r②♦♥ ♣❛ss❡ ❞✬✉♥ ét❛t ✢❡①✐❜❧❡ à ✉♥ ét❛t ♦ù ✐❧ ♥❡ ❧✬❡st ♣❧✉s✳ ❉❡ ♣❧✉s✱ ❧❡s ♣♦✉r❝❡♥t❛❣❡s ❞❡ ✈❛r✐❛t✐♦♥ ❡♥tr❡ ❧✬❡♠❜r②♦❣❡♥ès❡ s❡①✉é❡ ❡t ❛s❡①✉é❡ s♦♥t ❣❧♦❜❛❧❡♠❡♥t ❢❛✐❜❧❡s✳ ❙❛✉❢ ♣♦✉r ❧❛ tr❛♥s✐t✐♦♥ ❚✷❙✴❚✸❙ ✈❛❧❡✉r ✲✶ ✭❜❛✐ss❡ ❞❡ ❧✬❡①♣r❡ss✐♦♥✮ q✉✐ ♣♦✉rr❛✐t ♠♦♥tr❡r ✉♥❡ ré❣✉❧❛t✐♦♥ ❞✐✛ér❡♥t❡ ❛✉ ❞❡r♥✐❡r st❛❞❡ ❞❡ t②♣❡ ré♣r❡ss✐♦♥ s✉♣ér✐❡✉r❡ ❞❛♥s ❧❡ ❝❛s s❡①✉é✳ P♦✉r ❝❤❛❝✉♥ ❞❡s ❆❘◆♠✱ ❞❡✉① ♣r♦✜❧s ❝✐♥ét✐q✉❡s ❞✐s❝rét✐sés s♦♥t ♦❜t❡♥✉s ✿ ❧✬✉♥ ♣♦✉r ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t s❡①✉é ❡t ❧❡ s❡❝♦♥❞ ♣♦✉r ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❛s❡①✉é✳ P♦✉r rés✉♠❡r ✿ ♣♦✉r ❝❤❛q✉❡ ❆❘◆♠✱ ♦♥ ❞é✜♥✐t ❛✐♥s✐ à ❧❛ ❢♦✐s ✉♥ ✈❡❝t❡✉r ✭♣r♦✜❧✮ ❞❡ tr♦✐s ✈❛❧❡✉rs ♣♦✉r ❧❛ ❝✐♥ét✐q✉❡ s❡①✉é❡ ❡t ✉♥ ✈❡❝t❡✉r ♣♦✉r ❧❛ ❝✐♥ét✐q✉❡ ❛s❡①✉é❡✳ ❈❡ s♦♥t ❝❡s ❞❡✉① ♣r♦✜❧s q✉✐ s♦♥t ❡♥s✉✐t❡ ❝♦♠♣❛rés✳ ❉❛♥s ❧❛ s✉✐t❡ ❞❡ ❧❛ t❤ès❡✱ ❧❡ ♠♦t ♣r♦✜❧ ❡st ✉t✐❧✐sé ♣♦✉r ❢❛✐r❡ ré❢ér❡♥❝❡ à ❝❡s ♣r♦✜❧s s❡①✉és ♦✉ ❛s❡①✉és ❛ss♦❝✐és ❛✉① ❆❘◆♠ ❡t ❝♦♠♣♦sés ❞❡ ✈❛❧❡✉rs❈♦♠♣❛r❛✐s♦♥ ❞❡s ❡①♣r❡ss✐♦♥s ❣é♥✐q✉❡s ❡♥tr❡ ❡♠❜r②♦♥s s❡①✉és ❡t ❛s❡①✉és ✼✺ ❞✐s❝rèt❡s✳ P❛r♠✐ ❧❡s ✸✻✳✾✾✵ ❆❘◆♠✱ ✹✳✾✾✻ ❆❘◆♠ ✭✶✸✱✺ ✪✮ ♦♥t ✉♥ ♣r♦✜❧ s❡①✉é q✉✐ ❡st ❞✐✛ér❡♥t ❞✉ ♣r♦✜❧ ❛s❡①✉é ♣❛r ❛✉ ♠♦✐♥s ✉♥❡ ✈❛❧❡✉r✳ P❛r ❧❛ s✉✐t❡✱ ♥♦✉s ❞é❝r✐r♦♥s ❝❡s ❆❘◆♠ ❝♦♠♠❡ ❛②❛♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t✐❡❧❧❡s✳ ❊♥r✐❝❤✐ss❡♠❡♥t ❢♦♥❝t✐♦♥♥❡❧ ❞❡s ❆❘◆♠ ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ré❣✉❧és ❆✉ s❡✐♥ ❞❡s ❆❘◆♠ ❛②❛♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t✐❡❧❧❡s✱ ✶✳✻✹✵ ♣♦ssè❞❡♥t ✉♥❡ ❛♥♥♦t❛t✐♦♥ ●❖✳ ➚ ❧✬❛✐❞❡ ❞✉ ❧♦❣✐❝✐❡❧ ❇❧❛st✷●❖ ✭✈♦✐r ♣❛rt✐❡ ✸✳✶✳✹✮✱ ✉♥ ❡♥r✐❝❤✐ss❡♠❡♥t ❢♦♥❝t✐♦♥♥❡❧ ❛ été ré❛❧✐sé s✉r ❝❡s ✶✳✻✹✵ ❆❘◆♠ ❝♦♥tr❡ ❧❛ ❧✐st❡ ❞❡ ré❢ér❡♥❝❡ ❝♦♠♣r❡♥❛♥t ✶✵✳✵✻✷ ❆❘◆♠ ✭♥♦♠❜r❡ ❞❡s ❆❘◆♠ ❞✉ ♣✉❝❡r♦♥s ❞✉ ♣♦✐s ❛②❛♥t ✉♥❡ ❛♥♥♦t❛t✐♦♥ ●❖✮✳ ❙✉r ❧❡s ✷✳✸✹✵ ❛♥♥♦t❛t✐♦♥s ●❖ ❞✐✛ér❡♥t❡s ♣♦✉r ❧❡s ❆❘◆♠ ❛②❛♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t✐❡❧❧❡s✱ ✸✾ s♦♥t ❡♥r✐❝❤✐❡s ❞♦♥t ✷✺ ❞❛♥s ❧❛ ❝❧❛ss❡ ♣r♦❝❡ss✉s ❜✐♦❧♦❣✐q✉❡ ✭❜✐♦❧♦❣✐❝❛❧ ♣r♦❝❡ss✱ ❇P✮✱ ❞❡✉① ❞❛♥s ❧❛ ❝❧❛ss❡ ❢♦♥❝t✐♦♥ ♠♦❧é❝✉❧❛✐r❡ ✭♠♦❧❡❝✉❧❛r ❢♦♥❝t✐♦♥✱ ▼❋✮ ❡t ✶✷ ❞❛♥s ❧❛ ❝❧❛ss❡ ❝♦♠♣♦s❛♥t❡ ❝❡❧❧✉❧❛✐r❡ ✭❝❡❧❧✉❧❛r ❝♦♠♣♦♥❡♥t✱ ❈❈✮✳ ❆✉ ✈✉ ❞✉ ❢❛✐❜❧❡ ♥♦♠❜r❡ ❞❛♥s ❧❛ ❝❧❛ss❡ ▼❋ ❡t ❞✉ ❝❛r❛❝tèr❡ ♣❡✉ ✐♥❢♦r♠❛t✐❢ ❞❡s ❛♥♥♦t❛t✐♦♥s ❞❡ ❧❛ ❝❛té❣♦r✐❡ ❈❈ ❞❛♥s ❝❡tt❡ ét✉❞❡✱ s❡✉❧❡ ✉♥❡ ❛♥❛❧②s❡ ♣❛r ❘❊❱✐●❖ ❞❡s ❛♥♥♦t❛t✐♦♥s ❇P ❛ été ❢❛✐t❡✱ ❛✈❡❝ ❧❡s ♣❛r❛♠ètr❡s ♣❛r ❞é❢❛✉t✳ ▲❛ ❋✐❣✉r❡ ✸✳✹ r❡♣rés❡♥t❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝❧✉st❡rs ♦❜t❡♥✉s s✉r ❇P ❛✈❡❝ ❧❡s t❡r♠❡s ❧❡s r❡♣rés❡♥t❛♥t✱ ❡t ❧❡ ❚❛❜❧❡❛✉ ✸✳✸ r❡♣rés❡♥t❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❛♥♥♦t❛t✐♦♥s ●❖ ❇P ❡♥r✐❝❤✐❡s ❛✐♥s✐ q✉❡ ❧❡s ❧♦❣✶✵ ♣✲✈❛❧✉❡ q✉✐ ♦♥t été ♦❜t❡♥✉❡s ♣❛r ❇❧❛st✷●❖✳ ▲❡s ✷✺ ❛♥♥♦t❛t✐♦♥s s♦♥t r❡❣r♦✉♣é❡s ❡♥ ♥❡✉❢ ❣r♦✉♣❡s✱ ❛✈❡❝ ❧❡s ❝❧✉st❡r ✶✱ ✺✱ ✼ ❡t ✾ q✉✐ r❡❣r♦✉♣❡♥t ♣❧✉s✐❡✉rs t❡r♠❡s✳ ▲❡ ❝❧✉st❡r ✶✱ ✐♥❝❧✉❛♥t q✉❛s✐♠❡♥t ❧❛ ♠♦✐t✐é ❞❡s t❡r♠❡s✱ r❡❣r♦✉♣❡ ❞❡s t❡r♠❡s ❛ss♦❝✐és à ❧❛ ré❣✉❧❛t✐♦♥ ♥é❣❛t✐✈❡ ❞❡ ❧✬❡①♣r❡ss✐♦♥ ❞❡s ❣è♥❡s✱ ❞❡ ❧❛ tr❛♥s❝r✐♣t✐♦♥ ❡t ❞❡ ❝❡rt❛✐♥❡s ❜r❛♥❝❤❡s ❞✉ ♠ét❛❜♦❧✐s♠❡✳ ▲❡ s❡❝♦♥❞ ❝❧✉st❡r ❡♥ ✐♠♣♦rt❛♥❝❡ ♣❛r r❛♣♣♦rt ❛✉ ♥♦♠❜r❡ ❞❡ t❡r♠❡s✱ ❧❡ ❝❧✉st❡r ✺✱ r❡❣r♦✉♣❡ ❞❡s t❡r♠❡s ❝♦♥❝❡r♥❛♥t ❧❡ ❞é✲ ✈❡❧♦♣♣❡♠❡♥t ❡t ♥♦t❛♠♠❡♥t ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞✉ s②stè♠❡ ♥❡r✈❡✉①✳ ▲❡ ❝❧✉st❡r ✼✱ q✉✐ ❜é♥é✜❝✐❡ ❞✬✉♥ ❢♦rt s✉♣♣♦rt ❡♥ ❆❘◆♠ ❛♥♥♦té ✭♣❧✉s ❞❡ ✷✵✵✮✱ ❝♦♥❝❡r♥❡ ❞❡s t❡r♠❡s ❧✐és ❛✉ ❞❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❛♥❛t♦♠✐q✉❡✳ ▲❡ ❝❧✉st❡r ✾ ❝♦♥❝❡r♥❡ ❞❡s t❡r♠❡s ❧✐és à ❧❛ tr❛♥s❝r✐♣t✐♦♥ ♣❛r ❧✬❆❘◆ ♣♦❧②♠ér❛s❡ ■■✳ ❖♥ ♣❡✉t ✈♦✐r q✉✬✉♥ ❝❡rt❛✐♥ ♥♦♠❜r❡ ❞❡ t❡r♠❡s ❝♦♥❝❡r♥❡♥t s♦✐t ❧❛ ré❣✉❧❛t✐♦♥ ❞❡ ❧❛ tr❛♥s❝r✐♣t✐♦♥✱ s♦✐t ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t✳ ❈❡tt❡ ❞❡r♥✐èr❡ ❢♦♥❝t✐♦♥ ❡st ❝♦❤ér❡♥t❡ ✈✉❡ ❧✬❡①♣ér✐✲ ♠❡♥t❛t✐♦♥ ♠❡♥é❡ ✿ ❧❛ ré❞✉❝t✐♦♥ ❞❡s ❆❘◆♠ à ❝❡✉① ♣♦ssé❞❛♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t❡s ❡♥tr❡ ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞✬❡♠❜r②♦♥s s❡①✉és ❡t ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞✬❡♠❜r②♦♥s ❛s❡①✉és✳ ❊♥ ♥♦♠❜r❡ ❞✬❆❘◆♠ ❛♥♥♦tés✱ ♦♥ ♦❜s❡r✈❡ ✉♥❡ ❢♦rt❡ s✐❣♥❛t✉r❡ ❞✉ ❝❧✉st❡r ✼✳ ❉❡ ♠ê♠❡ ♣♦✉r ❧❡ ❝❧✉st❡r ✺ ♦ù s❡✉❧ ❧❡ t❡r♠❡ ✓ ❝❡♥tr❛❧ ♥❡r✈♦✉s s②st❡♠ ❞❡✈❡❧♦♣♠❡♥t ✔ ❡st ❢❛✐❜❧❡♠❡♥t r❡✲ ♣rés❡♥té ❡♥ ♥♦♠❜r❡ ❞✬❆❘◆♠ ❛♥♥♦tés✳ P♦✉r ❧❡ ❝❧✉st❡r ✶✱ ❧❡s t❡r♠❡s s♦♥t ❣❧♦❜❛❧❡♠❡♥t ♣❡✉ r❡♣rés❡♥tés ♠❛✐s ❞❡ ❢❛ç♦♥ ✉♥✐❢♦r♠❡✳ ▲❡ ❝❧✉st❡r ✾ ♣♦ssè❞❡ ❧❛ ♣❧✉s ❢❛✐❜❧❡ s✐❣♥❛t✉r❡ ❡♥ t❡r♠❡ ❞❡ ♥♦♠❜r❡ ❞✬❆❘◆♠✳ ■❧ s❡♠❜❧❡ q✉❡ ♣❛r♠✐ ❧❡s ❆❘◆♠ ❛②❛♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t✐❡❧❧❡s✱ ✉♥ ♥♦♠❜r❡ é❧❡✈é s♦✐t ❛♥♥♦té ♣❛r ❞❡s ❢♦♥❝t✐♦♥s ❛②❛♥t ✉♥ ❧✐❡♥ ❛✈❡❝ ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❡t ❞❡s ❢♦♥❝t✐♦♥s ❞❡ ré❣✉❧❛t✐♦♥✳ ❈❧❛ss✐✜❝❛t✐♦♥ ❞❡s ❆❘◆♠ ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ré❣✉❧és ▲❡s ✹✳✾✾✻ ❆❘◆♠ ❛②❛♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t✐❡❧❧❡s ♦♥t ❡♥s✉✐t❡ été ❝❧❛ssés ❛✜♥ ❞❡ ❝♦♠♣❛r❡r ❧✬❡♥s❡♠❜❧❡ ❞❡s ♣r♦✜❧s ❞❡s ❞é✈❡❧♦♣♣❡♠❡♥ts ❡♠❜r②♦♥♥❛✐r❡s s❡①✉és ❡t ❛s❡①✉és✳ ▲❛ ♠ét❤♦❞❡ ✉t✐❧✐sé❡ ♣♦✉r ❝❧❛ss❡r ❧❡s ❆❘◆♠ ❛✈❡❝ ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t✐❡❧❧❡s à ❧✬❛✐❞❡ ❞❡ rè❣❧❡s ❞é✜♥✐s ❛ ♣r✐♦r✐ ❡st ❞é❝r✐t❡ ♣❛rt✐❡ ✸✳✶✳✸✳ ▲❡ ❚❛❜❧❡❛✉ ✸✳✹ ♣rés❡♥t❡ ❧❡ ♥♦♠❜r❡ ❞✬❆❘◆♠ ❛ss♦❝✐é à ❝❡s rè❣❧❡s✳ ❖♥ ♣❡✉t ✈♦✐r q✉❡ ❧❡s ❞❡✉① rè❣❧❡s ❞♦♠✐♥❛♥t❡s s♦♥t ❧❡s rè❣❧❡s ✓ ❛✉❣♠❡♥t❛t✐♦♥ ✔ ❡t✼✻ ❆♥❛❧②s❡✱ ❝❧❛ss✐✜❝❛t✐♦♥ ❡t ❝♦♠♣❛r❛✐s♦♥ ❞❡s ❡①♣r❡ss✐♦♥ ❞❡s ❆❘◆♠ ❡t ♠✐❝r♦❆❘◆❝❧✉st❡r ●❖ ■❉ ❞❡s❝r✐♣t✐♦♥ ❧♦❣✶✵ ♣✲✈❛❧✉❡ ♥♦♠❜r❡ ✶ ●❖ ✿✵✵✵✾✽✾✷ ♥❡❣❛t✐✈❡ r❡❣✉❧❛t✐♦♥ ♦❢ ♠❡t❛❜♦❧✐❝ ♣r♦❝❡ss ✲✷✳✹✸✸✽ ✻✵ ●❖ ✿✵✵✸✶✸✷✹ ♥❡❣❛t✐✈❡ r❡❣✉❧❛t✐♦♥ ♦❢ ❝❡❧❧✉❧❛r ♠❡t❛❜♦❧✐❝ ♣r♦❝❡ss ✲✶✳✽✻✼✵ ✹✼ ●❖ ✿✵✵✹✺✽✾✷ ♥❡❣❛t✐✈❡ r❡❣✉❧❛t✐♦♥ ♦❢ tr❛♥s❝r✐♣t✐♦♥✱ ❉◆❆✲❞❡♣❡♥❞❡♥t ✲✷✳✹✽✻✾ ✹✶ ●❖ ✿✵✵✶✵✻✵✺ ♥❡❣❛t✐✈❡ r❡❣✉❧❛t✐♦♥ ♦❢ ♠❛❝r♦♠♦❧❡❝✉❧❡ ♠❡t❛❜♦❧✐❝ ♣r♦❝❡ss ✲✷✳✷✸✾✹ ✺✼ ●❖ ✿✵✵✺✶✷✺✸ ♥❡❣❛t✐✈❡ r❡❣✉❧❛t✐♦♥ ♦❢ ❘◆❆ ♠❡t❛❜♦❧✐❝ ♣r♦❝❡ss ✲✷✳✸✺✽✷ ✹✶ ●❖ ✿✵✵✸✶✸✷✼ ♥❡❣❛t✐✈❡ r❡❣✉❧❛t✐♦♥ ♦❢ ❝❡❧❧✉❧❛r ❜✐♦s②♥t❤❡t✐❝ ♣r♦❝❡ss ✲✷✳✵✼✹✹ ✹✷ ●❖ ✿✵✵✶✵✻✷✾ ♥❡❣❛t✐✈❡ r❡❣✉❧❛t✐♦♥ ♦❢ ❣❡♥❡ ❡①♣r❡ss✐♦♥ ✲✷✳✹✵✷✻ ✺✵ ●❖ ✿✵✵✵✾✽✾✵ ♥❡❣❛t✐✈❡ r❡❣✉❧❛t✐♦♥ ♦❢ ❜✐♦s②♥t❤❡t✐❝ ♣r♦❝❡ss ✲✶✳✾✹✵✵ ✹✷ ●❖ ✿✵✵✶✵✺✺✽ ♥❡❣❛t✐✈❡ r❡❣✉❧❛t✐♦♥ ♦❢ ♠❛❝r♦♠♦❧❡❝✉❧❡ ❜✐♦s②♥t❤❡t✐❝ ♣r♦❝❡ss ✲✷✳✵✼✹✹ ✹✷ ●❖ ✿✷✵✵✵✶✶✸ ♥❡❣❛t✐✈❡ r❡❣✉❧❛t✐♦♥ ♦❢ ❝❡❧❧✉❧❛r ♠❛❝r♦♠♦❧❡❝✉❧❡ ❜✐♦s②♥t❤❡t✐❝ ♣r♦❝❡ss ✲✷✳✶✶✶✽ ✹✷ ●❖ ✿✵✵✺✶✶✼✷ ♥❡❣❛t✐✈❡ r❡❣✉❧❛t✐♦♥ ♦❢ ♥✐tr♦❣❡♥ ❝♦♠♣♦✉♥❞ ♠❡t❛❜♦❧✐❝ ♣r♦❝❡ss ✲✷✳✹✽✻✾ ✹✸ ●❖ ✿✵✵✹✺✾✸✹ ♥❡❣❛t✐✈❡ r❡❣✉❧❛t✐♦♥ ♦❢ ♥✉❝❧❡♦❜❛s❡✲❝♦♥t❛✐♥✐♥❣ ❝♦♠♣♦✉♥❞ ♠❡t❛❜♦❧✐❝ ♣r♦❝❡ss ✲✷✳✹✽✻✾ ✹✸ ✷ ●❖ ✿✵✵✸✷✺✵✶ ♠✉❧t✐❝❡❧❧✉❧❛r ♦r❣❛♥✐s♠❛❧ ♣r♦❝❡ss ✲✸✳✻✶✵✽ ✸✵✽ ✸ ●❖ ✿✵✵✸✷✺✵✷ ❞❡✈❡❧♦♣♠❡♥t❛❧ ♣r♦❝❡ss ✲✸✳✵✷✾✸ ✷✽✽ ✹ ●❖ ✿✵✵✹✹✻✾✾ s✐♥❣❧❡✲♦r❣❛♥✐s♠ ♣r♦❝❡ss ✲✸✳✵✹✶✻ ✺✽✹ ✺ ●❖ ✿✵✵✹✹✼✵✼ s✐♥❣❧❡✲♠✉❧t✐❝❡❧❧✉❧❛r ♦r❣❛♥✐s♠ ♣r♦❝❡ss ✲✸✳✵✶✼✶ ✷✾✵ ●❖ ✿✵✵✹✽✼✸✶ s②st❡♠ ❞❡✈❡❧♦♣♠❡♥t ✲✶✳✽✾✼✹ ✷✶✷ ●❖ ✿✵✵✵✼✹✶✼ ❝❡♥tr❛❧ ♥❡r✈♦✉s s②st❡♠ ❞❡✈❡❧♦♣♠❡♥t ✲✷✳✺✺✼✽ ✹✼ ●❖ ✿✵✵✵✼✷✼✺ ♠✉❧t✐❝❡❧❧✉❧❛r ♦r❣❛♥✐s♠❛❧ ❞❡✈❡❧♦♣♠❡♥t ✲✷✳✽✼✼✽ ✷✺✼ ✻ ●❖ ✿✵✵✵✻✸✻✻ tr❛♥s❝r✐♣t✐♦♥ ❢r♦♠ ❘◆❆ ♣♦❧②♠❡r❛s❡ ■■ ♣r♦♠♦t❡r ✲✶✳✻✹✽✾ ✼✵ ✼ ●❖ ✿✵✵✹✹✼✻✼ s✐♥❣❧❡✲♦r❣❛♥✐s♠ ❞❡✈❡❧♦♣♠❡♥t❛❧ ♣r♦❝❡ss ✲✷✳✹✽✻✾ ✷✶✻ ●❖ ✿✵✵✹✽✽✺✻ ❛♥❛t♦♠✐❝❛❧ str✉❝t✉r❡ ❞❡✈❡❧♦♣♠❡♥t ✲✷✳✹✽✻✾ ✷✺✺ ✽ ●❖ ✿✵✵✹✹✼✻✸ s✐♥❣❧❡✲♦r❣❛♥✐s♠ ❝❡❧❧✉❧❛r ♣r♦❝❡ss ✲✶✳✻✹✽✾ ✹✾✽ ✾ ●❖ ✿✵✵✵✻✸✺✼ r❡❣✉❧❛t✐♦♥ ♦❢ tr❛♥s❝r✐♣t✐♦♥ ❢r♦♠ ❘◆❆ ♣♦❧②♠❡r❛s❡ ■■ ♣r♦♠♦t❡r ✲✷✳✶✽✹✹ ✻✹ ●❖ ✿✵✵✵✵✶✷✷ ♥❡❣❛t✐✈❡ r❡❣✉❧❛t✐♦♥ ♦❢ tr❛♥s❝r✐♣t✐♦♥ ❢r♦♠ ❘◆❆ ♣♦❧②♠❡r❛s❡ ■■ ♣r♦♠♦t❡r ✲✷✳✵✽✺✷ ✷✾ s✉✐✈❛♥t ❧❡✉r s✐♠✐❧❛r✐té✳ ▲❡s ✈❛❧❡✉rs ❞❡ ❧♦❣ ❚❛❜❧❡❛✉ ✸✳✸ ✕ ❙②♥t❤ès❡ ❞❡s rés✉❧t❛ts ♦❜t❡♥✉s ♣❛r ❘❊❱✐●❖ ❛✈❡❝ ❧❡s ♣❛r❛♠ètr❡s ♣❛r ❞é❢❛✉t s✉r ❧❛ ❝❧✉st❡r✐s❛t✐♦♥ ❞❡s t❡r♠❡s ●❖ ❇P ✶✵ ♣✲✈❛❧✉❡ s♦♥t ♦❜t❡♥✉❡s à ♣❛rt✐r ❞❡s rés✉❧t❛ts ❞❡ ❇❧❛st✷●❖ ❡t ❧❛ ❝♦❧♦♥♥❡ ✓ ♥♦♠❜r❡ ✔ ❞♦♥♥❡ ❧❡ ♥♦♠❜r❡ ❞✬❆❘◆♠ ❛♥♥♦tés ❛✈❡❝ ❧❡ t❡r♠❡ ❝♦♥s✐❞éré✳ ▲❡ ♣r❡♠✐❡r t❡r♠❡ ❞❡ ❝❤❛q✉❡ ❝❧✉st❡r r❡♣rés❡♥t❡ ❧❡ ❣r♦✉♣❡✳❈♦♠♣❛r❛✐s♦♥ ❞❡s ❡①♣r❡ss✐♦♥s ❣é♥✐q✉❡s ❡♥tr❡ ❡♠❜r②♦♥s s❡①✉és ❡t ❛s❡①✉és ✼✼ ❋✐❣✳ ✸✳✹ ✕ ❋✐❣✉r❡ ❞❡s ❝❧✉st❡rs ❞❡ t❡r♠❡s ●❖ ❇P ♦❜t❡♥✉❡ ♣❛r ❘❊❱✐●❖ ❛✈❡❝ ❧❡s ♣❛r❛✲ ♠ètr❡s ♣❛r ❞é❢❛✉t✳ ▲❡ ♥♦♠ ❛✣❝❤é ❡st ❝❡❧✉✐ ❞❡s t❡r♠❡s r❡♣rés❡♥t❛♥t ❧❡s ❝❧✉st❡rs ❡t ❧❡s ✈❛❧❡✉rs ❞❡ ❧♦❣✶✵ ♣✲✈❛❧✉❡ s♦♥t ♦❜t❡♥✉❡s à ♣❛rt✐r ❞❡s rés✉❧t❛ts ❞❡ ❇❧❛st✷●❖✳ rè❣❧❡ ♥♦♠❜r❡ ❛✉❣♠❡♥t❛t✐♦♥ ✷✹✸✹ ❞✐♠✐♥✉t✐♦♥ ✷✷✺✻ ❛✈❛♥❝❡ ✶✸✹ r❡t❛r❞ ✼✺ ❛♣♣❛r✐t✐♦♥ ♣✐❝ ♥é❣❛t✐❢ ✷✺ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♥é❣❛t✐❢ ✷✷ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♣♦s✐t✐❢ ✷✵ ❞é❢❛✉t ✶✾ ❛♣♣❛r✐t✐♦♥ ♣✐❝ ♣♦s✐t✐❢ ✶✶ t♦t❛❧ ✹✳✾✾✻ ❚❛❜❧❡❛✉ ✸✳✹ ✕ ❉✐str✐❜✉t✐♦♥ ❞é❝r♦✐ss❛♥t❡ ❞✉ ♥♦♠❜r❡ ❞✬❆❘◆♠ ♣❛r♠✐ ❧❡s ❆❘◆♠ ❞✐✛ér❡♥✲ t✐❡❧❧❡♠❡♥t ré❣✉❧és ❛ss♦❝✐és à ❝❤❛❝✉♥❡ ❞❡s rè❣❧❡s ❞é❝r✐t❡s ♣❛rt✐❡ ✸✳✶✳✸✳✼✽ ❆♥❛❧②s❡✱ ❝❧❛ss✐✜❝❛t✐♦♥ ❡t ❝♦♠♣❛r❛✐s♦♥ ❞❡s ❡①♣r❡ss✐♦♥ ❞❡s ❆❘◆♠ ❡t ♠✐❝r♦❆❘◆ ✓ ❞✐♠✐♥✉t✐♦♥ ✔ q✉✐ r❡❣r♦✉♣❡♥t à ❡❧❧❡s s❡✉❧❡s ✹✳✻✾✵ ❆❘◆♠ ✭✾✸✱✾ ✪✮✳ ❙✉r ❧❡s ✸✵✻ ❆❘◆♠ r❡st❛♥ts ✭✻✱✶ ✪✮✱ ❧❡s rè❣❧❡s ✓ ❛✈❛♥❝❡ ✔ ❡t ✓ r❡t❛r❞ ✔ s♦♥t ❛ss♦❝✐é❡s à ✷✵✾ ❆❘◆♠ ✭✻✽✱✸ ✪ ❞❡s ✸✵✻ ❆❘◆♠✮✳ P♦✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ✺ ❛✉tr❡s rè❣❧❡s✱ ❧❡ ♥♦♠❜r❡ ❞✬❆❘◆♠ ❡st ré♣❛rt✐ ❞❡ ❢❛ç♦♥ s❡♠❜❧❛❜❧❡✳ ▲❛ ré♣❛rt✐t✐♦♥ ❞❡s ❆❘◆♠ ❡♥tr❡ ❝❡✉① ❛✈❡❝ ✉♥❡ ❛✈❛♥❝❡ ❡t ❝❡✉① ❛✈❡❝ ✉♥ r❡t❛r❞ ❡st ❞✐✛ér❡♥t❡✱ ❛✈❡❝ q✉❛s✐♠❡♥t ❧❡ ❞♦✉❜❧❡ ❞✬❆❘◆♠ q✉✐ s✉✐✈❡♥t ❧❛ rè❣❧❡ ✓ ❛✈❛♥❝❡ ✔ ❝♦♠♣❛ré à ❝❡✉① q✉✐ s✉✐✈❡♥t ❧❛ rè❣❧❡ ✓ r❡t❛r❞ ✔✳ ◆♦t♦♥s q✉❡ ❧❡ ❝♦✉♣❧❡ ✓ ❛✈❛♥❝❡✴r❡t❛r❞ ✔ ❡st ❧❡ s❡✉❧ ❝♦✉♣❧❡ q✉✐ ♣rés❡♥t❡ ✉♥❡ ❞✐str✐❜✉t✐♦♥ ❛s②♠étr✐q✉❡✱ ❡♥ ❢❛✈❡✉r ❞✬✉♥ s✐❣♥❛❧ ♣❧✉s ♣ré❝♦❝❡ ♣♦✉r ❧❡s ❡♠❜r②♦♥s ❛s❡①✉és✳ ■❞❡♥t✐✜❝❛t✐♦♥ ❡t ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❉❡ ❧❛ ♠ê♠❡ ❢❛ç♦♥ q✉❡ ♣♦✉r ❧❡s ❆❘◆♠✱ ❧❛ ❞✐s❝rét✐s❛t✐♦♥ ❛ été ❢❛✐t❡ s✉r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✭❞❡s❝r✐♣t✐♦♥ ♣❛rt✐❡ ✸✳✶✳✷✮ ❡t ❧❡ rés✉❧t❛t ❡st ♣rés❡♥té❡ ❚❛❜❧❡❛✉ ✸✳✺✳ s❡①✉é ❛s❡①✉é ✈❛❧❡✉r ❚✵✴❚✶❙ ❚✶❙✴❚✷❙ ❚✷❙✴❚✸❙ ❚✵✴❚✶❆ ❚✶❆✴❚✷❆ ❚✷❆✴❚✸❆ ✵ ✺✺✻ ✺✻✼ ✺✻✾ ✺✻✹ ✺✼✸ ✺✻✺ ✲✶ ✶ ✵ ✷ ✵ ✵ ✷ ✶ ✶✻ ✻ ✷ ✾ ✵ ✻ t♦t❛❧ ✭✲✶✴✶✮ ✶✼ ✻ ✹ ✾ ✵ ✽ ❚❛❜❧❡❛✉ ✸✳✺ ✕ ◆♦♠❜r❡ ❞❡ séq✉❡♥❝❡s ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❛ss♦❝✐é❡s ❛✉① ✈❛❧❡✉rs ❞✐s✲ ❝rèt❡s ✲✶✱ ✵ ❡t ✶ ♣♦✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ♣❛✐r❡s ❞❡ ♣❛s ❞❡ t❡♠♣s ❝♦♥sé❝✉t✐❢s ❞❡s ❝✐♥ét✐q✉❡s s❡①✉é❡s ❡t ❛s❡①✉é❡s✳ P♦✉r ❝❤❛❝✉♥❡ ❞❡s ❝✐♥ét✐q✉❡s✱ s❡①✉é❡ à ❣❛✉❝❤❡ ❡t ❛s❡①✉é❡ à ❞r♦✐t❡✱ ❧❡ ♥♦♠❜r❡ ❞❡ séq✉❡♥❝❡s ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ♣♦ssé❞❛♥t ❞❡s ❡①♣r❡ss✐♦♥s ❞é❝r♦✐ss❛♥t❡s ✭✲✶✮✱ ❝♦♥st❛♥t❡s ✭✵✮ ❡t ❝r♦✐ss❛♥t❡s ✭✶✮ ❡♥tr❡ ❝❤❛q✉❡ ♣❛✐r❡ ❡st ♥♦té✳ ▲✬❛♥❛❧②s❡ ❛ été ❢❛✐t❡ s✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ✺✼✸ séq✉❡♥❝❡s ✉♥✐q✉❡s ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✳ ▲❛ ❞❡r♥✐èr❡ ❧✐❣♥❡ ♣rés❡♥t❡ ❧❛ s♦♠♠❡ ❞❡s ❧✐❣♥❡s ✲✶ ❡t ✶✳ ▲❡ ♣♦✉r❝❡♥t❛❣❡ ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❞♦♥t ❧✬❡①♣r❡ss✐♦♥ ✈❛r✐❡ ❡♥tr❡ ❞❡✉① st❛❞❡s ❡st très ❢❛✐❜❧❡✳ ▲❡s ❡✛❡❝t✐❢s s♦♥t tr♦♣ ♣❡t✐ts ♣♦✉r ❡♥ t✐r❡r ❞❡s ❝♦♥❝❧✉s✐♦♥s r♦❜✉st❡s✳ ❖♥ ♥♦t❡ q✉❡ ❧❡ ♥♦♠❜r❡ ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❛✈❡❝ ✉♥❡ ✈❛❧❡✉r ❞✐✛ér❡♥t❡ ❞❡ ✵ ❡st s✉♣ér✐❡✉r ❞❛♥s ❧❡ ❝❛s ❞❡s ❡♠❜r②♦♥s s❡①✉és ❡t q✉❡ ❧❛ tr❛♥s✐t✐♦♥ ❚✵✴❚✶❙✱ ❝♦♠♠❡ ♣♦✉r ❧❡s ❆❘◆♠✱ r❡❣r♦✉♣❡ ❧❛ ♠❛❥♦r✐té ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ❡①♣r✐♠és✳ ❈♦♠♠❡ ♣♦✉r ❧❡s ❆❘◆♠✱ ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♣rés❡♥t❛♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥✲ t✐❡❧❧❡s ♦♥t étés ✐❞❡♥t✐✜és✳ ✶✺ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♣♦ssè❞❡♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t❡s ♣❛r♠✐ ❧❡s ✺✼✸ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✭✷✱✻ ✪✮✱ ❝❡ q✉✐ r❡♣rés❡♥t❡ ✉♥ ❢❛✐❜❧❡ ♣♦✉r❝❡♥t❛❣❡ ♣❛r r❛♣♣♦rt à ❝❡❧✉✐ ♦❜s❡r✈é ❝❤❡③ ❧❡s ❆❘◆♠ ✭✶✸✱✺ ✪✮✳ ❈❧❛ss✐✜❝❛t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ré❣✉❧és ❈♦♠♠❡ ♣♦✉r ❧❡s ❆❘◆♠✱ ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❛②❛♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t✐❡❧❧❡s ♦♥t ❡♥s✉✐t❡ été ❝❧❛ssés ❛✜♥ ❞❡ ❝♦♠♣❛r❡r ❧✬❡♥s❡♠❜❧❡ ❞❡s ♣r♦✜❧s ❞❡s ❞é✈❡❧♦♣♣❡♠❡♥ts ❡♠❜r②♦♥♥❛✐r❡s s❡①✉és ❡t ❛s❡①✉és ✭♣❛rt✐❡ ✸✳✶✳✸✮✳ ▲❡s rè❣❧❡s ❛ss♦❝✐é❡s ❛✉① ✶✺ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s♦♥t ✈✐s✐❜❧❡s ❚❛❜❧❡❛✉ ✸✳✻ ❛✐♥s✐ q✉❡ ❧❡✉rs ♣r♦✜❧s ❡t ❞❡s ❛♥♥♦t❛t✐♦♥s✴❢♦♥❝t✐♦♥s ❛ss♦❝✐é❡s s✐ ❡❧❧❡ s♦♥t ❝♦♥♥✉❡s✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ✾ rè❣❧❡s q✉✐ ♦♥t été ❞é✜♥✐❡s✱ s❡✉❧❡♠❡♥t ✹ s♦♥t ❛ss♦❝✐é❡s ❛✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❛✈❡❝ ✉♥❡ ❣r❛♥❞❡ ♠❛❥♦r✐té ❛ss♦❝✐é❡ à ❧❛ rè❣❧❡ ✓ ❞✐♠✐♥✉t✐♦♥ ✔ ✭✻✼ ✪✮✳❈♦♠♣❛r❛✐s♦♥ ❞❡s ❡①♣r❡ss✐♦♥s ❣é♥✐q✉❡s ❡♥tr❡ ❡♠❜r②♦♥s s❡①✉és ❡t ❛s❡①✉és ✼✾ ♥♦♠ s❡①✉é ❛s❡①✉é rè❣❧❡ ❝♦♥♥✉ ❛♥♥♦t❛t✐♦♥s ❝✐t❛t✐♦♥s ❛♣✐✲♠✐r✲✷✽✶✲✺♣ ✶✱✵✱✵ ✵✱✵✱✵ ❞✐♠✐♥✉t✐♦♥ ♦✉✐ ré❣✉❧❡ ❧✬❡❝❞②s♦♥❡ ❬✶✸✸❪ ❛♣✐✲♠✐r✲✷✻✸❛✲✺♣ ✶✱✵✱✵ ✵✱✵✱✵ ❞✐♠✐♥✉t✐♦♥ ♦✉✐ ❛♣♦♣t♦s❡✱ ❡①♣r✐♠é ❞❛♥s ❧❛ têt❡ ❬✶✸✹✱ ✺✻❪ ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣ ✶✱✵✱✵ ✵✱✵✱✵ ❞✐♠✐♥✉t✐♦♥ ♥♦♥ ❛♣✐✲♠✐r✲✷✼✽✲✺♣ ✵✱✶✱✶ ✵✱✵✱✶ ❞✐♠✐♥✉t✐♦♥ ♦✉✐ ❤♦♠é♦st❛s✐❡ é♥❡r❣ét✐q✉❡✱ ❞✐✈✐s✐♦♥ ❝❡❧❧✉❧❡s s♦✉❝❤❡s ❧✐❣♥é❡s ❣❡r♠✐♥❛❧❡s ❬✶✸✺✱ ✶✸✻❪ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✽✸✲✺♣ ✶✱✶✱✵ ✶✱✵✱✵ ❞✐♠✐♥✉t✐♦♥ ♥♦♥ ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣ ✶✱✵✱✵ ✵✱✵✱✵ ❞✐♠✐♥✉t✐♦♥ ♦✉✐ ❡①♣r✐♠é ❞❛♥s ❧❛ têt❡ ❬✶✸✼❪ ❛♣✐✲♠✐r✲✸✵✸✽✲✸♣ ✶✱✶✱✵ ✶✱✵✱✵ ❞✐♠✐♥✉t✐♦♥ ♥♦♥ ❛♣✐✲♠✐r✲✽✼✲✸♣ ✶✱✵✱✵ ✵✱✵✱✵ ❞✐♠✐♥✉t✐♦♥ ♦✉✐ ❛♣✐✲♠✐r✲✶✹✲✸♣ ✶✱✶✱✵ ✶✱✵✱✵ ❞✐♠✐♥✉t✐♦♥ ♦✉✐ s✉♣♣r❡ss✐♦♥ ♠♦rt ❝❡❧❧✉❧❛✐r❡✱ ♠ét❛❜♦❧✐s♠❡ ❛❝✐❞❡s ❣r❛s✱ s✐❣♥❛❧✐s❛t✐♦♥ ♣❛r ❧✬❡❝❞②s♦♥❡✱ ♣r♦✲ ❞✉❝t✐♦♥ ❞✬✐♥s✉❧✐♥❡✱ ❛♣♦♣t♦s❡ ❬✶✸✽✱ ✶✸✾✱ ✶✹✵✱ ✶✹✶❪ ❛♣✐✲♠✐r✲✸✵✷✻✲✺♣ ✶✱✵✱✵ ✵✱✵✱✵ ❞✐♠✐♥✉t✐♦♥ ♥♦♥ ❛♣✐✲♠✐r✲✸✹✲✺♣ ✵✱✵✱✵ ✵✱✵✱✶ ❛✉❣♠❡♥t❛t✐♦♥ ♦✉✐ ♥❡✉r♦❞é❣é♥ér❡s❝❡♥❝❡ ❬✶✹✷❪ ❛♣✐✲♠✐r✲✸✶✻✲✺♣ ✵✱✵✱✵ ✵✱✵✱✶ ❛✉❣♠❡♥t❛t✐♦♥ ♦✉✐ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹✻✲✺♣ ✲✶✱✵✱✵ ✵✱✵✱✵ ❛✉❣♠❡♥t❛t✐♦♥ ♥♦♥ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✽✺✲✸♣ ✶✱✶✱✵ ✶✱✵✱✶ r❡t❛r❞ ♥♦♥ ❛♣✐✲♠✐r✲✶✲✸♣ ✶✱✶✱✵ ✵✱✵✱✶ ❞é❢❛✉t ♦✉✐ ❞✐✛ér❡♥t✐❛t✐♦♥ ❝❡❧❧✉❧❡s ♠✉s❝✉❧❛✐r❡s ❬✶✹✸❪ ❚❛❜❧❡❛✉ ✸✳✻ ✕ ❉❡s❝r✐♣t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❛②❛♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t✐❡❧❧❡s ❛✈❡❝ ❧❡✉rs ♣r♦✜❧s ❡t ❧❛ rè❣❧❡ ❛ss♦❝✐é❡ ❛✐♥s✐ q✉❡ ❧❡s ❛♥♥♦t❛t✐♦♥s ❛ss♦❝✐é❡s ❡t ❧❡s ♣✉❜❧✐❝❛t✐♦♥s ❞❡ ré❢ér❡♥❝❡✳ ▲❛ ❝♦❧♦♥♥❡ ✓ ❝♦♥♥✉❡ ✔ ✐♥❞✐q✉❡ s✐ ❧❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❛ été ✐❞❡♥t✐✜é ❞❛♥s ❞✬❛✉tr❡s ❡s♣è❝❡s✳✽✵ ❆♥❛❧②s❡✱ ❝❧❛ss✐✜❝❛t✐♦♥ ❡t ❝♦♠♣❛r❛✐s♦♥ ❞❡s ❡①♣r❡ss✐♦♥ ❞❡s ❆❘◆♠ ❡t ♠✐❝r♦❆❘◆ ◆é❛♥♠♦✐♥s ❧✬❡✛❡❝t✐❢ ❡st tr♦♣ ❢❛✐❜❧❡ ♣♦✉r t✐r❡r ❞❡s ❝♦♥❝❧✉s✐♦♥s s✉r ❧❛ ré♣❛rt✐t✐♦♥ ❞❡s rè❣❧❡s✳ ◆❡✉❢ ❞❡s ✶✺ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❛②❛♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t❡s ♦♥t ❞é❥à été ✐❞❡♥t✐✜és ❞❛♥s ❞✬❛✉tr❡s ❡s♣è❝❡s ❡t ♦♥ ♣❡✉t ♥♦t❡r q✉❡ ❛♣✐✲♠✐r✲✶✹ ❛ ❞é❥à été ✐❞❡♥t✐✜é ♣❛r ▲❡❣❡❛✐ ❡t ❛❧✳ ❬✽✶❪ ❝♦♠♠❡ ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ❡①♣r✐♠é ❡♥tr❡ ❧❡s ♠♦r♣❤❡s s❡①✉♣❛r❡s ❡t ✈✐r❣✐♥♦♣❛r❡s✳ ❙✐ ❧✬♦♥ ♦❜s❡r✈❡ ❧❡s ❞✐✛ér❡♥t❡s ❛♥♥♦t❛t✐♦♥s ❞✐s♣♦♥✐❜❧❡s ❛ss♦❝✐é❡s à ❝❡s ♠✐❝r♦❆❘◆✱ ❝❡rt❛✐♥❡s s♦♥t ❝♦♠♠✉♥❡s à ♣❧✉s✐❡✉rs ♠✐❝r♦❆❘◆ ✿ ♦♥ ♣❡✉t ✈♦✐r q✉❡ ❛♣✐✲♠✐r✲✷✽✶ ❡t ❛♣✐✲♠✐r✲✶✹ s♦♥t ❞é❝r✐ts ❝♦♠♠❡ ét❛♥t ✐♠♣❧✐q✉és ❞❛♥s ❞❡s ♣r♦❝❡ss✉s q✉✐ ❝♦♥❝❡r♥❡♥t ❧✬❡❝❞②s♦♥❡✱ ✉♥❡ ❞❡s ❤♦r♠♦♥❡s ❝❤❡③ ❧❡s ✐♥s❡❝t❡s ré❣✉❧❛♥t ❧❛ ♠✉❡ ❡t ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞❡s ✐♥s❡❝t❡s✳ ◆♦t♦♥s q✉❡ ❛♣✐✲♠✐r✲✷✻✸❛ ❡t ❛♣✐✲♠✐r✲✶✵✵✵ ♦♥t été ❞ét❡❝tés t♦✉s ❧❡s ❞❡✉① ❝♦♠♠❡ ❡①♣r✐♠és r❡s♣❡❝✲ t✐✈❡♠❡♥t ❞❛♥s ❧❡s têt❡s ❞✉ ✈❡r à s♦✐❡ ❡t ❞❡ ❧✬❛❜❡✐❧❧❡✱ ❡t q✉❡ ❛♣✐✲♠✐r✲✷✻✸❛ ❡t ❛♣✐✲♠✐r✲✶✹ s♦♥t ✐♠♣❧✐q✉és ❞❛♥s ❧✬❛♣♦♣t♦s❡✳ ▲❡ ♠✐❝r♦❆❘◆ ❛♣✐✲♠✐r✲✷✼✽ ❡st ✐♠♣❧✐q✉é ❞❛♥s ❧❛ ❞✐✈✐s✐♦♥ ❞❡s ❝❡❧❧✉❧❡s s♦✉❝❤❡s ❣❡r♠✐♥❛❧❡s✱ ❝❡ q✉✐ ❡st ❝♦❤ér❡♥t ❛✈❡❝ ❧❡ s②stè♠❡ ❜✐♦❧♦❣✐q✉❡ ét✉❞✐é ✐❝✐ ♣✉✐sq✉❡ ❧❡s ❞✐✛ér❡♥ts ❡♠❜r②♦♥s ❞é✈❡❧♦♣♣❡♥t ❞❡s ❧✐❣♥é❡s ❣❡r♠✐♥❛❧❡s s♦✐t ❛✲♠é✐♦t✐q✉❡s ✭r❡♣r♦❞✉❝t✐♦♥ ❛s❡①✉é❡✮ s♦✐t ♠é✐♦t✐q✉❡ ✭r❡♣r♦❞✉❝t✐♦♥ s❡①✉é❡✮✳ ▲❡ ♠✐❝r♦❆❘◆ ❛♣✐✲♠✐r✲✶✹ ré❣✉❧❡ ❧✬✐♥s✉❧✐♥❡✱ ♠♦❧é❝✉❧❡ ♣♦t❡♥t✐❡❧❧❡♠❡♥t ✐♠♣❧✐q✉é❡ ❞❛♥s ❧❛ ré❝❡♣t✐♦♥ ❞❡ ❧❛ ♣❤♦t♦♣é✲ r✐♦❞❡ ❬✼✹❪✳ ❊♥✜♥✱ ❛♣✐✲♠✐r✲✶ ❡st ✐♠♣❧✐q✉é ❞❛♥s ❧❛ ❞✐✛ér❡♥❝✐❛t✐♦♥ ❞❡s ❝❡❧❧✉❧❡s ♠✉s❝✉❧❛✐r❡s ❡t ❧❡s ❝✐♥ét✐q✉❡s s✉r ❧❡sq✉❡❧❧❡s ♥♦✉s tr❛✈❛✐❧❧♦♥s ❝♦♥❝❡r♥❡♥t ❞❡s ❡♠❜r②♦♥s ❡♥ ❞é✈❡❧♦♣♣❡✲ ♠❡♥t ❡t ♣r♦❜❛❜❧❡♠❡♥t ❧❛ ❝♦♥str✉❝t✐♦♥ ❞❡s ♠✉s❝❧❡s ❞✉ ❢✉t✉r ♦r❣❛♥✐s♠❡✳ ❆✐♥s✐✱ ♣❧✉s✐❡✉rs ❞❡s ❛♥♥♦t❛t✐♦♥s ❞❡s ♠✐❝r♦❆❘◆ ré❣✉❧és ❧♦rs ❞✉ ❝❤❛♥❣❡♠❡♥t ❞✉ ♠♦❞❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❝♦rr❡s♣♦♥❞❡♥t à ❞❡s ❛tt❡♥❞✉s q✉❛♥t ❛✉① ❢♦♥❝t✐♦♥s ❜✐♦❧♦❣✐q✉❡s ❛ss♦❝✐é❡s✳ ■❧ ♥♦✉s s❡♠❜❧❡ ✐♠♣♦rt❛♥t ❞❡ ♣ré❝✐s❡r ❧❛ tr❛♥s✐t✐♦♥ ❡♥tr❡ ❧❡ ❚✵ ❡t ❧❡s ❞❡✉① ❚✶❆ ❡t ❚✶❙✱ ❝❛r ❝✬❡st à ❝❡ st❛❞❡ ❞é✈❡❧♦♣♣❡♠❡♥t❛❧ q✉❡ ❧✬♦♥ ♣❛ss❡ ❞✬❡♠❜r②♦♥s ✢❡①✐❜❧❡s ✭♦✉ ♣❧❛st✐q✉❡s à ❧❛ ❝♦♥❞✐t✐♦♥ ❡♥✈✐r♦♥♥❡♠❡♥t❛❧❡✮ à ❞❡s ❡♠❜r②♦♥s ❡♥❣❛❣és ❞❛♥s ❞❡s ✈♦✐❡s ❞é✈❡❧♦♣♣❡✲ ♠❡♥t❛❧❡s✳ ❙❡♣t ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♦♥t ✉♥❡ ❞✐✛ér❡♥❝❡ ❡♥tr❡ ❚✵ ❡t ❚✶❙✴✶❆✱ ❛ss♦❝✐és à ❧❛ rè❣❧❡ ✓ ❞é❢❛✉t ✔✳ ❆✐♥s✐✱ ♣rès ❞❡ ❧❛ ♠♦✐t✐é ❞❡s ♠✐❝r♦❆❘◆ ré❣✉❧és ❧❡ s♦♥t ❞é❥à ❞ès ❝❡tt❡ tr❛♥s✐t✐♦♥ ♣ré❝♦❝❡✳ ❊♥ ❝♦♥❝❧✉s✐♦♥ ❞❡ ❝❡tt❡ ♣❛rt✐❡✱ ♥♦✉s ❛✈♦♥s ✐❞❡♥t✐✜é ❞❡s ❝❛t❛❧♦❣✉❡s ❞✬❆❘◆♠ ❡t ❞❡ ♠✐✲ ❝r♦❆❘◆ ré❣✉❧és ❡♥tr❡ ❧❡s ❞❡✉① ❡♠❜r②♦❣❡♥ès❡s s❡①✉é❡s ❡t ❛s❡①✉é❡s✱ ❡t ❝❧❛ssés ❧❡s ❆❘◆♠ ❡t ♠✐❝r♦❆❘◆ ❡♥ t②♣❡s ❞❡ ♣r♦✜❧s ❞✬❡①♣r❡ss✐♦♥ ✭rè❣❧❡s✮ ❧❡s ❞✐✛ér❡♥❝✐❛♥t ❡♥tr❡ ❝❡s ❞❡✉① t②♣❡s ❞✬❡♠❜r②♦❣❡♥ès❡✳ ✸✳✷✳✷ ❘és❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥ ❡♥tr❡ ♠✐❝r♦❆❘◆ ❡t ❆❘◆♠ ré❣✉❧és ❯♥❡ ❢♦✐s ❧❡s ❆❘◆♠ ❡t ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ré❣✉❧és ❡♥tr❡ ❧❡s ❞❡✉① ❡♠❜r②♦❣❡♥ès❡s ✐❞❡♥t✐✜és✱ ❧❡ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ❡♥tr❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❆❘◆♠ ❞é✲ ✜♥✐ ♣ré❝é❞❡♠♠❡♥t s✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ♣❡✉t êtr❡ ré❞✉✐t ❛✉① s❡✉❧❡s ✐♥t❡r❛❝t✐♦♥s ✐♠♣❧✐q✉❛♥t ❝❡s é❧é♠❡♥ts ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ré❣✉❧és✳ ▲❡ ❚❛❜❧❡❛✉ ✸✳✼ ♣rés❡♥t❡ ❧❡ ♥♦♠❜r❡ ❞✬✐♥t❡r❛❝t✐♦♥s ✐♠♣❧✐q✉❛♥t ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞❡s ❆❘◆♠ ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ré❣✉❧és s✉r ❧❡s q✉❛tr❡ rés❡❛✉① ❞é❝r✐ts ❞❛♥s ❧❛ ♣❛rt✐❡ ✷✳✷✳✸ ✿ s❛♥s s❡✉✐❧✱ ❛✈❡❝ ✉♥ s❡✉✐❧ s✉r ❧❡ s❝♦r❡ ❞❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ✭✷è♠❡ ❧✐❣♥❡✮✱ ❛✈❡❝ ✉♥ s❡✉✐❧ s✉r ❧❡ ♥♦♠❜r❡ ❞❡ s✐t❡s ❞❡ ✜①❛t✐♦♥ ♣❛r ❝♦✉♣❧❡s ✭✸è♠❡ ❧✐❣♥❡✮ ❡t ❛✈❡❝ ❧❡s ❞❡✉① s❡✉✐❧s ✭❞❡r♥✐èr❡ ❧✐❣♥❡✮✳ P♦✉r ❧❡ ♣r❡♠✐❡r rés❡❛✉ s❛♥s s❡✉✐❧ ❡t ❛✈❡❝ ✉♥ s✐t❡✱ ❧❡s ✶✺ ♠✐❝r♦❆❘◆ ré❣✉❧és s♦♥t ❝♦♥s❡r✈és✳ P❛r ❝♦♥tr❡✱ ✸✸✱✻ ✪ ❞❡s ❆❘◆♠ ❛✈❡❝ ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t❡s ♥❡ s♦♥t ❝✐❜❧és ♣❛r ❛✉❝✉♥ ❞❡s ✶✺ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ✐❧s ♥❡ s♦♥t ❞♦♥❝ ♣❛s ❞❛♥s ❧❡✭s✮ rés❡❛✉✭①✮✳ P♦✉r ❧❡s ❞❡✉① ❝♦♥tr❛✐♥t❡s ✉t✐❧✐sé❡s ❞❡ ❢❛ç♦♥ sé♣❛ré❡ ✭✷è♠❡ ❡t ✸è♠❡ ❧✐❣♥❡s ❞✉ ❚❛❜❧❡❛✉✮✱ ❧❡s ♣♦✉r❝❡♥t❛❣❡s ❞❡ ❝♦♥s❡r✈❛t✐♦♥ ❡♥ ❝♦♠♣❛r❛✐s♦♥ ❛✉ rés❡❛✉ s❛♥s s❡✉✐❧ s♦♥t s❡♠❜❧❛❜❧❡s à ❝❡✉①❈♦♠♣❛r❛✐s♦♥ ❞❡s ❡①♣r❡ss✐♦♥s ❣é♥✐q✉❡s ❡♥tr❡ ❡♠❜r②♦♥s s❡①✉és ❡t ❛s❡①✉és ✽✶ s❡✉✐❧ s✐t❡s ♠✐❝r♦❆❘◆ ❆❘◆♠ s✐t❡s ❞❡ ✜①❛t✐♦♥ ❝♦✉♣❧❡s ❛✉❝✉♥ ✶ ✶✺ ✭✶✵✵ ✪✮ ✸✳✸✶✻ ✭✶✵✵ ✪✮ ✶✵✳✺✼✻ ✭✶✵✵ ✪✮ ✻✳✽✷✹ ✭✶✵✵ ✪✮ ✲✵✳✸ ✶ ✶✺ ✭✶✵✵ ✪✮ ✶✳✽✶✵ ✭✺✹✱✻ ✪✮ ✷✳✼✾✺ ✭✷✻✱✹ ✪✮ ✷✳✷✺✵ ✭✸✸ ✪✮ ❛✉❝✉♥ ✷ ✶✹ ✭✾✸✱✸ ✪✮ ✶✳✹✾✶ ✭✹✺ ✪✮ ✺✳✻✺✼ ✭✺✸✱✺ ✪✮ ✶✳✾✻✺ ✭✷✽✱✽ ✪✮ ✲✵✳✸ ✷ ✽ ✭✺✸✱✸ ✪✮ ✸✾✵ ✭✶✶✱✽ ✪✮ ✾✹✵ ✭✽✱✾ ✪✮ ✸✾✺ ✭✺✱✽ ✪✮ ❚❛❜❧❡❛✉ ✸✳✼ ✕ ❘és✉❧t❛ts ❞❡ ❧❛ ré❞✉❝t✐♦♥ ❞❡s ♣ré❞✐❝t✐♦♥s ❞❡ ❚❛r❣❡t❙❝❛♥ ❛✈❡❝ ♦✉ s❛♥s s❡✉✐❧ ✭✓ s❡✉✐❧ ✔✮✱ ❛✈❡❝ ✶ ♦✉ ✷ s✐t❡s ❞❡ ✜①❛t✐♦♥ ♠✐♥✐♠✉♠ ✭✓ s✐t❡s ✔✮ ❛✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❆❘◆♠ ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ré❣✉❧és✳ ❙♦♥t ✐♥❞✐q✉és ❧❡ ♥♦♠❜r❡ ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✭✓ ♠✐❝r♦❆❘◆ ✔✮ ❡t ❞✬❆❘◆♠ ❝♦♥❝❡r♥és ✭✓ ❆❘◆♠ ✔✮✱ ❧❡ ♥♦♠❜r❡ ❞❡ s✐t❡s ❞❡ ✜①❛t✐♦♥✱ ❡t ❧❡ ♥♦♠❜r❡ ❞❡ ❝♦✉♣❧❡s ♠✐❝r♦❆❘◆✴❆❘◆♠ ✭✓ ❝♦✉♣❧❡ ✔✮✳ ❊♥tr❡ ♣❛r❡♥t❤ès❡s ✿ ♣♦✉r❝❡♥t❛❣❡ ❞✬é❧é♠❡♥ts ♣rés❡♥ts ❡♥ ❢♦♥❝t✐♦♥ ❞✉ ♥♦♠❜r❡ t♦t❛❧ ❞✬é❧é♠❡♥ts ♣rés❡♥ts ❞❛♥s ❧❡ rés❡❛✉ s❛♥s s❡✉✐❧✳ ❞✉ rés❡❛✉ ♣❛♥❣é♥♦♠✐q✉❡ ✭✈♦✐r ❚❛❜❧❡❛✉ ✷✳✶✵ ♣❛rt✐❡ ✷✳✷✳✸✮✳ ❙✉r ❧❡ rés❡❛✉ ❛✈❡❝ ❧✬✉t✐❧✐s❛t✐♦♥ ❞❡s ❞❡✉① ✜❧tr❡s ✭❞❡r♥✐èr❡ ❧✐❣♥❡ ❞✉ ❚❛❜❧❡❛✉✮ ❧❡s ♣♦✉r❝❡♥t❛❣❡s ❞✉ ♥♦♠❜r❡ ❞❡ s✐t❡s ❞❡ ✜①❛t✐♦♥ ❡t ❞❡ ❝♦✉♣❧❡s s♦♥t s✐♠✐❧❛✐r❡s à ❝❡✉① ♣ré❝é❞❡♠♠❡♥t ♦❜s❡r✈és ✭❚❛❜❧❡❛✉ ✷✳✶✵✮✳ ➚ ❧✬✐♥✈❡rs❡✱ ❧❡s ♣♦✉r❝❡♥t❛❣❡s s✉r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❧❡s ❆❘◆♠ s♦♥t ❜❡❛✉❝♦✉♣ ♣❧✉s ❢❛✐❜❧❡s s✉r ❧❡ rés❡❛✉ ❛✈❡❝ ❧❡s ❞❡✉① ❝♦♥tr❛✐♥t❡s ❡t ❛✈❡❝ ❧❡s é❧é♠❡♥ts ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ré❣✉❧és ✿ ✺✸✱✸ ✪ ✭rés❡❛✉ ❞❡s é❧é♠❡♥ts ré❣✉❧és✮ ❝♦♥tr❡ ✽✼✱✹ ✪ ✭rés❡❛✉ ❞❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s é❧é♠❡♥ts✮ ♣♦✉r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞❡ ❧❛ ♠ê♠❡ ❢❛ç♦♥ ✶✶✱✽ ✪ ❝♦♥tr❡ ✺✽ ✪ ♣♦✉r ❧❡s ❆❘◆♠✳ ▲❡ ❢❛✐t q✉❡ ❧❡ ♣♦✉r❝❡♥t❛❣❡ ❞❡ ré❞✉❝t✐♦♥ ❡♥ ❛♣♣❧✐q✉❛♥t ❧❡s ❞❡✉① ✜❧tr❡s s♦✐t ♣❧✉s ❢♦rt ♣♦✉r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❧❡s ❆❘◆♠ q✉❡ ♣♦✉r ❧❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❡t ❧❡s ❝♦✉♣❧❡s s✐❣♥✐✜❡ q✉✬✐❧ ② ❛ ♣❧✉s ❞✬✐♥t❡r❛❝t✐♦♥s ♣❛r ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❡t ♣❛r ❆❘◆♠ ❡♥ ❝♦♠♣❛r❛✐s♦♥ ❛✈❡❝ ❧❡ rés❡❛✉ ré❞✉✐t ❛✈❡❝ ❧❡s ♠ê♠❡s s❡✉✐❧s ❞é❝r✐t ♣❛rt✐❡ ✷✳✷✳✸ ✿ ❧❛ ❝♦♠❜✐♥❛t♦✐r❡ ❡♥tr❡ ❝❡s ❞❡✉① ❡♥s❡♠❜❧❡s ❡st ♣❧✉s ❢♦rt❡✳ ■❧ ❛ été ❞é❝✐❞é ❞❡ ❣❛r❞❡r ❧❡ rés❡❛✉ ♦❜t❡♥✉ ❡♥ ♥❡ ❣❛r❞❛♥t q✉❡ ❧❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❛✈❡❝ ✉♥ s❝♦r❡ ❣❧♦❜❛❧ ❞❡ ❚❛r❣❡t❙❝❛♥ ✐♥❢ér✐❡✉r ♦✉ é❣❛❧❡ à ✲✵✳✸ ✭✷è♠❡ ❧✐❣♥❡ ❞✉ ❚❛❜❧❡❛✉ ✸✳✼✮ ❛✜♥ ❞❡ ♥❡ ❣❛r❞❡r q✉❡ ❧❡s r❡❧❛t✐♦♥s ❧❡s ♣❧✉s ❢♦rt❡s ❡♥tr❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❆❘◆♠ ❡t ❛✉ss✐ ❞✬é❧✐♠✐♥❡r ❞❡s ❢❛✉① ♣♦s✐t✐❢s✳ ◆❡ ❣❛r❞❡r q✉❡ ❧❡s ❝♦✉♣❧❡s ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞✬❆❘◆♠ ❛②❛♥t ❛✉ ♠✐♥✐♠✉♠ ❞❡✉① s✐t❡s ❞❡ ✜①❛t✐♦♥ ❛✉r❛✐t ♣❛r ❝♦♥tr❡ tr♦♣ ❢♦rt❡♠❡♥t ❧✐♠✐té ❧❡ ♥♦♠❜r❡ ❞❡ r❡❧❛t✐♦♥s ❡t ❛✉r❛✐t ❞♦♥❝ ❞✐♠✐♥✉é ❧❡ ♣♦t❡♥t✐❡❧ ❞❡ ❧✬❛♥❛❧②s❡ ❞❡ ❝❡ rés❡❛✉✳ ❉❛♥s ❧❡ r❡st❡ ❞❡ ❧❛ t❤ès❡✱ ❧♦rsq✉✬✐❧ ❡st ❢❛✐t ré❢ér❡♥❝❡ ❛✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥ ❡♥tr❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❆❘◆♠ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ s❛♥s ❛✉tr❡ ♣ré❝✐s✐♦♥✱ ❝❡❧❛ ❢❡r❛ ré❢ér❡♥❝❡ à ❝❡ rés❡❛✉ ❝♦♠♣r❡♥❛♥t ✶✺ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ✶✳✽✶✵ ❆❘◆♠✱ ✷✳✼✾✺ s✐t❡s ❞❡ ✜①❛t✐♦♥ ❡t ✷✳✷✺✵ ❝♦✉♣❧❡s ♠✐❝r♦❆❘◆✴❆❘◆♠✳ ❉❛♥s ❧❛ s✉✐t❡ ❞❡ ❝❡ ❝❤❛♣✐tr❡✱ ♥♦✉s ♣rés❡♥t♦♥s ❞❡ ❢❛ç♦♥ ❞ét❛✐❧❧é❡ ❧❡s ❛♥♥♦t❛t✐♦♥s ❞❡s ❆❘◆♠ ♣rés❡♥ts ❞❛♥s ❧❡ rés❡❛✉ ❛✐♥s✐ q✉❡ ❧❡s ❛♥♥♦t❛t✐♦♥s ♣❛r ❧❡s rè❣❧❡s ❞❡s ❝♦✉♣❧❡s ♠✐❝r♦❆❘◆✴❆❘◆♠✳ ❈❡♣❡♥❞❛♥t✱ ❧❡s ❛♥♥♦t❛t✐♦♥s ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♣rés❡♥ts ❞❛♥s ❧❡ rés❡❛✉ ♥✬♦♥t ♣❛s été ét✉❞✐é❡s ❝❛r ❧❡s ✶✺ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❛②❛♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t✐❡❧❧❡s s♦♥t ♣rés❡♥ts ❞❛♥s ❧❡ rés❡❛✉✳ ➱t✉❞❡ ❞❡s ❛♥♥♦t❛t✐♦♥s ❞❡s ❆❘◆♠ ♣rés❡♥ts ❞❛♥s ❧❡ rés❡❛✉ ➱t✉❞❡ ❞❡s ❛♥♥♦t❛t✐♦♥s ❢♦♥❝t✐♦♥♥❡❧❧❡s ❆✜♥ ❞❡ ❝♦♠♠❡♥❝❡r à ❡①tr❛✐r❡ ❞❡ ❧❛ ❝♦♥♥❛✐s✲ s❛♥❝❡ ❞❡ ❝❡ ♣r❡♠✐❡r rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ré❞✉✐t ❛✉① é❧é♠❡♥ts ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ré❣✉❧és ❡♥tr❡ ❧❡s ❞❡✉① ❡♠❜r②♦❣❡♥ès❡s s❡①✉é❡s ❡t ❛s❡①✉é❡s✱ ♥♦✉s ❛✈♦♥s ✉t✐❧✐sé ❡t ❛♥❛❧②sé ❧❡s ❛♥✲✽✷ ❆♥❛❧②s❡✱ ❝❧❛ss✐✜❝❛t✐♦♥ ❡t ❝♦♠♣❛r❛✐s♦♥ ❞❡s ❡①♣r❡ss✐♦♥ ❞❡s ❆❘◆♠ ❡t ♠✐❝r♦❆❘◆ ♥♦t❛t✐♦♥s ●❖✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ✶✳✽✶✵ ❆❘◆♠ ♣rés❡♥ts ❞❛♥s ❧❡ rés❡❛✉✱ ✻✾✵ ❆❘◆♠ ♣♦ssè❞❡♥t ✉♥❡ ❛♥♥♦t❛t✐♦♥ ●❖✳ ❯♥ ❡♥r✐❝❤✐ss❡♠❡♥t ❢♦♥❝t✐♦♥♥❡❧ ❛ été ❝❛❧❝✉❧é à ❧✬❛✐❞❡ ❞✉ ❧♦❣✐❝✐❡❧ ❇❧❛st✷●❖ ✭✈♦✐r ♣❛rt✐❡ ✸✳✶✳✹✮ ♣♦✉r ❧❡s ❆❘◆♠ ❛✈❡❝ ✉♥❡ ❛♥♥♦t❛t✐♦♥ ●❖ ♣rés❡♥ts ❞❛♥s ❧❡ rés❡❛✉ ✭✻✾✵✮ ♣❛r r❛♣♣♦rt ❧❛ t♦t❛❧✐té ❞❡ ❝❡✉① ❛②❛♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t❡s ✭✶✳✻✹✵✮✳ ❆✉❝✉♥ ❡♥r✐❝❤✐ss❡♠❡♥t ❛✈❡❝ ✉♥❡ ♣✲✈❛❧✉❡ ❛❥✉sté❡ ✐♥❢ér✐❡✉r❡ à ✺ ✪ ♥✬❛ été ❞ét❡❝té✳ ❈❡tt❡ ♦❜s❡r✈❛t✐♦♥ ❡st s❛♥s ❞♦✉t❡ ✉♥❡ ❝♦♥séq✉❡♥❝❡ ❞✉ ❢❛✐❜❧❡ ❡✛❡❝t✐❢ ❞❡s ❆❘◆♠ ✉t✐❧✐sés ♣♦✉r ❝❡tt❡ ét✉❞❡✳ ➱t✉❞❡ ❞❡s ❛♥♥♦t❛t✐♦♥s ♣❛r ❧❡s rè❣❧❡s ❞❡ tr❛♥s✐t✐♦♥s ▲❡ ❚❛❜❧❡❛✉ ✸✳✽ ♣rés❡♥t❡ ♣♦✉r ❝❤❛❝✉♥❡ ❞❡s rè❣❧❡s ❧❡ ♥♦♠❜r❡ ❞✬❆❘◆♠ ❛✈❡❝ ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t❡s q✉✐ ❡st ♣rés❡♥t ❞❛♥s ❧❡ rés❡❛✉ ❞é❝r✐t ✸✳✷✳✷✳ rè❣❧❡ ♥♦♠❜r❡ r❛t✐♦ ❛✉❣♠❡♥t❛t✐♦♥ ✾✼✸ ✹✵ ✪ ❞✐♠✐♥✉t✐♦♥ ✼✷✸ ✸✷ ✪ ❛✈❛♥❝❡ ✺✸ ✸✾✱✻ ✪ r❡t❛r❞ ✸✵ ✹✵ ✪ ❛♣♣❛r✐t✐♦♥ ♣✐❝ ♥é❣❛t✐❢ ✾ ✸✻ ✪ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♥é❣❛t✐❢ ✾ ✹✵✱✾ ✪ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♣♦s✐t✐❢ ✻ ✸✵ ✪ ❞é❢❛✉t ✺ ✷✻✱✸ ✪ ❛♣♣❛r✐t✐♦♥ ♣✐❝ ♣♦s✐t✐❢ ✷ ✶✽✱✷ ✪ t♦t❛❧ ✶✳✽✶✵ ✸✻✱✷ ✪ ❚❛❜❧❡❛✉ ✸✳✽ ✕ ◆♦♠❜r❡ ❞✬❆❘◆♠ ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ré❣✉❧és ♣rés❡♥t ❞❛♥s ❧❡ rés❡❛✉ ❛ss♦❝✐é à ❝❤❛❝✉♥❡ ❞❡s rè❣❧❡s✳ ▲❡s rè❣❧❡s ♦♥t été ♦r❣❛♥✐sé❡s ❞❡ ❢❛ç♦♥ ❞é❝r♦✐ss❛♥t❡ ❡♥ ❢♦♥❝t✐♦♥ ❞✉ ♥♦♠❜r❡ ❞✬❆❘◆♠✳ ▲❡ ♣♦✉r❝❡♥t❛❣❡ ❛✣❝❤é ❡st ❧❡ ♣♦✉r❝❡♥t❛❣❡ ❞✉ ♥♦♠❜r❡ ❞✬❆❘◆♠ ❛ss♦❝✐é à ❧❛ rè❣❧❡ ❝♦♠♣❛ré ❛✉ ♥♦♠❜r❡ ✐♥✐t✐❛❧ ♣rés❡♥té ❚❛❜❧❡❛✉ ✸✳✹✳ ▲❛ ❞✐str✐❜✉t✐♦♥ ❞❡s ❆❘◆♠ ❛ss♦❝✐és à ❝❤❛❝✉♥❡ ❞❡s rè❣❧❡s ❡st s❡♠❜❧❛❜❧❡ à ❝❡❧❧❡ ♦❜s❡r✲ ✈é❡ ♣♦✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ❆❘◆♠ ❛✈❡❝ ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t❡s ✿ ❧❡s rè❣❧❡s ✓ ❛✉❣♠❡♥t❛✲ t✐♦♥ ✔ ❡t ✓ ❞✐♠✐♥✉t✐♦♥ ✔ s♦♥t ❧❡s rè❣❧❡s ♠❛❥♦r✐t❛✐r❡s ✭r❡s♣❡❝t✐✈❡♠❡♥t ✺✸✱✽ ✪ ❡t ✸✾✱✾ ✪ ❞✉ ♥♦♠❜r❡ t♦t❛❧ ❞✬❆❘◆♠ ♣rés❡♥t ❞❛♥s ❧❡ rés❡❛✉✮✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s rè❣❧❡s✱ ❧❡s r❛t✐♦s ♥❡ s♦♥t ♣❛s ❤♦♠♦❣è♥❡s✳ ▲❡s rè❣❧❡s ✓ ❞✐♠✐♥✉t✐♦♥ ✔✱ ✓ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♣♦s✐t✐❢ ✔✱ ✓ ❞é❢❛✉t ✔ ❡t ✓ ❛♣♣❛r✐t✐♦♥ ♣✐❝ ♣♦s✐t✐❢ ✔ ♣♦ssè❞❡♥t ❞❡s r❛t✐♦s ✐♥❢ér✐❡✉rs ❛✉ r❛t✐♦ ❞✉ ♥♦♠❜r❡ t♦t❛❧ ❞✬❆❘◆♠ ❛✈❡❝ ❞❡s ♣♦✉r❝❡♥t❛❣❡s r❡s♣❡❝t✐❢s ❞❡ ✸✷ ✪✱ ✸✵ ✪✱ ✷✻✱✸ ✪ ❡t ✶✽✱✷ ✪ ❝♦♥tr❡ ✸✻✱✷ ✪✳ P♦✉r ❧❡s rè❣❧❡s ✓ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♣♦s✐t✐❢ ✔✱ ✓ ❞é❢❛✉t ✔ ❡t ✓ ❛♣♣❛r✐t✐♦♥ ♣✐❝ ♣♦s✐✲ t✐❢ ✔ ❧❡s r❛t✐♦s ♣❡✉✈❡♥t s✬❡①♣❧✐q✉❡r ♣❛r ❧❡s ❢❛✐❜❧❡s ❡✛❡❝t✐❢s ❞❡ ❞é♣❛rt✱ r❡s♣❡❝t✐✈❡♠❡♥t ✷✵✱ ✶✾ ❡t ✶✶ ✭✈♦✐r ❚❛❜❧❡❛✉ ✸✳✹✮✳ ▲❡s r❛t✐♦s ❞❡s rè❣❧❡s ✓ ❛✉❣♠❡♥t❛t✐♦♥ ✔ ✭✹✵ ✪✮✱ ✓ ❛✈❛♥❝❡ ✔ ✭✸✾✱✻ ✪✮ ❡t ✓ r❡t❛r❞ ✔ ✭✹✵ ✪✮ s♦♥t ♣❧✉s é❧❡✈és q✉❡ ❧❡ r❛t✐♦ t♦t❛❧✱ ❝❡ q✉✐ s✐❣♥✐✜❡ q✉❡ ❧❡s ♥♦♠❜r❡s ❞✬❆❘◆♠ s✉✐✈❛♥t ❝❡s rè❣❧❡s ❡t ❝✐❜❧és ♣❛r ❛✉ ♠♦✐♥s ✉♥ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❛✈❡❝ ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t✐❡❧❧❡s s♦♥t ♣❧✉s é❧❡✈és q✉❡ ❧❛ ♠♦②❡♥♥❡✳❈♦♠♣❛r❛✐s♦♥ ❞❡s ❡①♣r❡ss✐♦♥s ❣é♥✐q✉❡s ❡♥tr❡ ❡♠❜r②♦♥s s❡①✉és ❡t ❛s❡①✉és ✽✸ ➱t✉❞❡ ❞❡s ❛♥♥♦t❛t✐♦♥s ♣❛r ❧❡s rè❣❧❡s ❞❡s ❝♦✉♣❧❡s ♠✐❝r♦❆❘◆✴❆❘◆♠ ♣rés❡♥ts ❞❛♥s ❧❡ rés❡❛✉ ❆✜♥ ❞❡ ♠✐❡✉① ♦❜s❡r✈❡r ❧❡s r❡❧❛t✐♦♥s ❡♥tr❡ ❧❡s rè❣❧❡s ✐♥❞✉✐t❡s ♣❛r ❧❡s ❝♦✉♣❧❡s ♠✐✲ ❝r♦❆❘◆✴❆❘◆♠ ❞✉ rés❡❛✉✱ ❧❡ ❚❛❜❧❡❛✉ ✸✳✾ ♣rés❡♥t❡ ❧❡s ❝♦✉♣❧❡s ❞❡ rè❣❧❡s ♦❜t❡♥✉s ❡♥ ét✉❞✐❛♥t ❧❛ ❝♦rré❧❛t✐♦♥ ❡♥tr❡ ❧❡s rè❣❧❡s s✉✐✈✐❡s ♣❛r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❧❡s ❆❘◆♠ ❡♥ ✐♥t❡r❛❝t✐♦♥ ❞❛♥s ❧❡ rés❡❛✉ ❡t ❧❡ ♥♦♠❜r❡ ❞❡ ❝♦✉♣❧❡s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❛ss♦❝✐és ❛✉① ❝♦✉♣❧❡s ❞❡ rè❣❧❡s✳ rè❣❧❡ ♠✐❝r♦❆❘◆ rè❣❧❡ ❆❘◆♠ ♥♦♠❜r❡ ❞❡ ❝♦✉♣❧❡s ♣♦✉r❝❡♥t❛❣❡ ❞✐♠✐♥✉t✐♦♥ ❛✉❣♠❡♥t❛t✐♦♥ ✾✾✵ ✹✹ ✪ ❞✐♠✐♥✉t✐♦♥ ❞✐♠✐♥✉t✐♦♥ ✼✶✺ ✸✶✱✽ ✪ ❛✉❣♠❡♥t❛t✐♦♥ ❛✉❣♠❡♥t❛t✐♦♥ ✶✽✺ ✽✱✷ ✪ ❛✉❣♠❡♥t❛t✐♦♥ ❞✐♠✐♥✉t✐♦♥ ✶✸✹ ✻ ✪ ❞✐♠✐♥✉t✐♦♥ ❛✈❛♥❝❡ ✻✷ ✷✱✽ ✪ ❞é❢❛✉t ❛✉❣♠❡♥t❛t✐♦♥ ✺✵ ✷✱✷ ✪ ❞é❢❛✉t ❞✐♠✐♥✉t✐♦♥ ✸✵ ✶✱✸ ✪ ❞✐♠✐♥✉t✐♦♥ r❡t❛r❞ ✷✼ ✶✱✷ ✪ ❞✐♠✐♥✉t✐♦♥ ❛♣♣❛r✐t✐♦♥ ♣✐❝ ♥é❣❛t✐❢ ✽ ✵✱✹ ✪ ❞✐♠✐♥✉t✐♦♥ ❞é❢❛✉t ✼ ✵✱✸ ✪ ❞✐♠✐♥✉t✐♦♥ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♥é❣❛t✐❢ ✼ ✵✱✸ ✪ ❛✉❣♠❡♥t❛t✐♦♥ ❛✈❛♥❝❡ ✻ ✵✱✸ ✪ ❞✐♠✐♥✉t✐♦♥ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♣♦s✐t✐❢ ✺ ✵✱✷ ✪ ❛✉❣♠❡♥t❛t✐♦♥ r❡t❛r❞ ✺ ✵✱✷ ✪ r❡t❛r❞ ❛✉❣♠❡♥t❛t✐♦♥ ✸ ✵✱✶ ✪ ❞é❢❛✉t ❛✈❛♥❝❡ ✸ ✵✱✶ ✪ ❛✉❣♠❡♥t❛t✐♦♥ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♥é❣❛t✐❢ ✸ ✵✱✶ ✪ ❞é❢❛✉t r❡t❛r❞ ✷ ✵✱✶ ✪ ❞✐♠✐♥✉t✐♦♥ ❛♣♣❛r✐t✐♦♥ ♣✐❝ ♣♦s✐t✐❢ ✷ ✵✱✶ ✪ r❡t❛r❞ ❞✐♠✐♥✉t✐♦♥ ✶ ✵✱✵✹ ✪ ❛✉❣♠❡♥t❛t✐♦♥ ❞é❢❛✉t ✶ ✵✱✵✹ ✪ ❛✉❣♠❡♥t❛t✐♦♥ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♣♦s✐t✐❢ ✶ ✵✱✵✹ ✪ ❛✉❣♠❡♥t❛t✐♦♥ ❛♣♣❛r✐t✐♦♥ ♣✐❝ ♥é❣❛t✐❢ ✶ ✵✱✵✹ ✪ ❞é❢❛✉t ❛♣♣❛r✐t✐♦♥ ♣✐❝ ♥é❣❛t✐❢ ✶ ✵✱✵✹ ✪ ❞é❢❛✉t ❞é❢❛✉t ✶ ✵✱✵✹ ✪ t♦t❛❧ ✷✳✷✺✵ ✶✵✵ ✪ ❚❛❜❧❡❛✉ ✸✳✾ ✕ ◆♦♠❜r❡ ❞❡ ❝♦✉♣❧❡s ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞✬❆❘◆♠ s✉✐✈❛♥t ❧❡s ❝♦✉♣❧❡s ❞❡ rè❣❧❡s✳ ❉❡ ❣❛✉❝❤❡ à ❞r♦✐t❡ ✿ ❧❛ rè❣❧❡ s✉✐✈✐❡ ♣❛r ❧❡ ♠✐❝r♦❆❘◆ ❀ ❧❛ rè❣❧❡ s✉✐✈✐❡ ♣❛r ❧✬❆❘◆♠ ❀ ❧❡ ♥♦♠❜r❡ ❞❡ ❝♦✉♣❧❡s ❞❡ ♠✐❝r♦❆❘◆✴❆❘◆♠ ❀ ❧❡ ♣♦✉r❝❡♥t❛❣❡ q✉❡ r❡♣rés❡♥t❡ ❧❡ ♥♦♠❜r❡ ❞❡ ❝♦✉♣❧❡s ♣❛r r❛♣♣♦rt ❛✉ ♥♦♠❜r❡ ❞❡ ❝♦✉♣❧❡s t♦t❛❧✳ ❯♥ ❣r❛♥❞ ♥♦♠❜r❡ ❞❡ ❝♦✉♣❧❡s ❞❡ rè❣❧❡s ♣♦ssè❞❡♥t ❞❡s ❡✛❡❝t✐❢s très ❢❛✐❜❧❡s ✿ ✶✼ rè❣❧❡s ♦♥t ✉♥ ♣♦✉r❝❡♥t❛❣❡ ❞❡ r❡♣rés❡♥t❛t✐♦♥ ✐♥❢ér✐❡✉r à ✶ ✪✳ ▲❛ ♠❛❥♦r✐té ❞❡s ❝♦✉♣❧❡s ♠✐✲ ❝r♦❆❘◆✴❆❘◆♠ ❡st ❛ss♦❝✐é❡ ❛✉① ❝♦✉♣❧❡s ❞❡ rè❣❧❡s ✓ ❞✐♠✐♥✉t✐♦♥✴❛✉❣♠❡♥t❛t✐♦♥ ✔ ✭✹✹ ✪✮ ❡t ✓ ❞✐♠✐♥✉t✐♦♥✴❞✐♠✐♥✉t✐♦♥ ✔ ✭✸✶✱✽ ✪✮ q✉✐ r❡♣rés❡♥t❡♥t à ❡✉① ❞❡✉① ✶✳✼✵✺ ❝♦✉♣❧❡s ✭✼✺✱✽ ✪✮✳ ▲❡ ♥♦♠❜r❡ ❞❡ ❝♦✉♣❧❡s s✉✐✈❛♥t ❧❡s rè❣❧❡s ✓ ❞✐♠✐♥✉t✐♦♥✴❛✉❣♠❡♥t❛t✐♦♥ ✔ ❡st ♣❧✉s ✐♠♣♦rt❛♥t✽✹ ❆♥❛❧②s❡✱ ❝❧❛ss✐✜❝❛t✐♦♥ ❡t ❝♦♠♣❛r❛✐s♦♥ ❞❡s ❡①♣r❡ss✐♦♥ ❞❡s ❆❘◆♠ ❡t ♠✐❝r♦❆❘◆ q✉❡ ❝❡❧✉✐ s✉✐✈❛♥t ❧❡s rè❣❧❡s ✓ ❞✐♠✐♥✉t✐♦♥✴❞✐♠✐♥✉t✐♦♥ ✔✳ ❈❡❝✐ ❡st ❡♥ ❛❝❝♦r❞ ❛✈❡❝ ❧❛ ré♣r❡s✲ s✐♦♥ ❞❡s ❆❘◆♠ ♣❛r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❝❛r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s q✉✐ ♣♦ssè❞❡♥t ✉♥❡ ❝✐♥ét✐q✉❡ ❛s❡①✉é❡ ❡♥ ❞✐♠✐♥✉t✐♦♥ ❡♥ ❝♦♠♣❛r❛✐s♦♥ à ❧❛ ❝✐♥ét✐q✉❡ s❡①✉é❡ s❡♠❜❧❡♥t ❝✐✲ ❜❧❡r ❡♥ ♣r✐♦r✐té ❞❡s ❆❘◆♠ ❛✈❡❝ ✉♥❡ ❝✐♥ét✐q✉❡ ❛s❡①✉é❡ q✉✐ ❛✉❣♠❡♥t❡ ❡♥ ❝♦♠♣❛r❛✐s♦♥ à ❧❛ ❝✐♥ét✐q✉❡ s❡①✉é❡✳ ■❧ ♥✬❡st ♣❛s ét♦♥♥❛♥t ❞✬♦❜s❡r✈❡r ❝❡tt❡ ré♣❛rt✐t✐♦♥ ❡♥ ♣♦✉r❝❡♥t❛❣❡ ❞❡ r❡♣rés❡♥t❛t✐♦♥ ❝❛r ✶✵ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♣❛r♠✐ ❧❡s ✶✺ ✭✻✼ ✪✮ s♦♥t ❛ss♦❝✐és à ❧❛ rè❣❧❡ ✓ ❞✐♠✐♥✉t✐♦♥ ✔ ❡t ❧❛ q✉❛s✐✲t♦t❛❧✐té ❞❡s ❆❘◆♠ ♣rés❡♥ts ❞❛♥s ❧❡ rés❡❛✉ s♦♥t ❛ss♦❝✐és ❛✉① rè❣❧❡s ✓ ❛✉❣♠❡♥t❛t✐♦♥ ✔ ✭✺✸✱✽ ✪✮ ♦✉ ✓ ❞✐♠✐♥✉t✐♦♥ ✔ ✭✸✾✱✾ ✪✮✳ ❖❜s❡r✈❛t✐♦♥ ❞❡s ❞❡❣rés ❞❡s é❧é♠❡♥ts ❞✉ rés❡❛✉ ▲❡ ❞❡❣ré ❞✬✉♥ ♥÷✉❞ ❞❛♥s ✉♥ rés❡❛✉ ❡st ❧❡ ♥♦♠❜r❡ ❞✬❛rêt❡s r❡❧✐é à ❝❡ ♥÷✉❞✳ ▲❛ ré♣❛rt✐t✐♦♥ ❞❡s ❞❡❣rés ❞❡s ❆❘◆♠ ❡t ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❞♦♥♥❡ ✉♥❡ ✐❞é❡ ❞❡ ❧❛ ❝♦♠❜✐♥❛✲ t♦✐r❡ ❡♥tr❡ ❡✉①✳ ▲❛ ❋✐❣✉r❡ ✸✳✺ ♣rés❡♥t❡ ❧✬❤✐st♦❣r❛♠♠❡ ❞❡s ❞❡❣rés ❞❡s ❆❘◆♠ ❡t ❧❡ ❞❡❣ré ♣♦✉r ❝❤❛❝✉♥ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✳ ❖♥ ♣❡✉t ✈♦✐r q✉❡ ❧❛ ré♣❛rt✐t✐♦♥ ❞❡s ❞❡❣rés ❝❤❡③ ❧❡s ❆❘◆♠ ❡st très ✐♥é❣❛❧❡ ❛✈❡❝ q✉❛s✐ ❡①❝❧✉s✐✈❡♠❡♥t ❞❡s ❆❘◆♠ ❝✐❜❧és ♣❛r ✉♥ s❡✉❧ ♠✐✲ ❝r♦❆❘◆ ♠❛t✉r❡ ✭✼✾ ✪✮✳ ❈❡❧❛ s✐❣♥✐✜❡ q✉❡ ❧❛ ♠❛❥♦r✐té ❞❡s ❝✐❜❧❡s ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s❡r♦♥t ❞❡s ❝✐❜❧❡s s♣é❝✐✜q✉❡s à ❝❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✳ ▲❡ ♣r❡♠✐❡r ❢❛✐t ♠❛rq✉❛♥t ❡♥ ♦❜s❡r✈❛♥t ❧❡s ❞❡❣rés ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡st ❧❡ ♥♦♠❜r❡ très é❧❡✈é ❞❡ ❝✐❜❧❡s ♣♦✉r ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣ q✉✐ ❝✉♠✉❧❡ à ❧✉✐ s❡✉❧ ✶✳✸✵✵ ✐♥t❡r❛❝t✐♦♥s ✭✺✽ ✪✮✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ❆❘◆♠ ❝✐❜❧és ♣❛r ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣ ✭✶✳✸✵✵✮✱ ✾✼✻ ✭✺✹ ✪ ❞❡s ❆❘◆♠ ❞✉ rés❡❛✉✮ ♥❡ s♦♥t ❝✐❜❧és q✉❡ ♣❛r ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣✳ ▲❡s é❝❛rts ❡♥tr❡ ❧❡s ❛✉tr❡s ❞❡❣rés ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s❡ ré♣❛rt✐ss❡♥t ❞❡ ♠❛♥✐èr❡ ♣❧✉s ♦✉ ♠♦✐♥s ✉♥✐❢♦r♠❡ ❞❛♥s ❧❛ tr❛♥❝❤❡ ❞❡ ✹ à ✶✾✼ ❆❘◆♠✳ ❖♥ ♥✬♦❜s❡r✈❡ ♣❛s ❞❡ ❞✐✛ér❡♥❝❡ ❞❡ ❞❡❣ré ❡♥tr❡ ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✐❞❡♥t✐✜és ❞❛♥s ❞✬❛✉tr❡s ❡s♣è❝❡s ❡t ❝❡✉① ✐❞❡♥t✐✜és ✉♥✐q✉❡♠❡♥t ❝❤❡③ ❆✳ ♣✐s✉♠✳❈♦♠♣❛r❛✐s♦♥ ❞❡s ❡①♣r❡ss✐♦♥s ❣é♥✐q✉❡s ❡♥tr❡ ❡♠❜r②♦♥s s❡①✉és ❡t ❛s❡①✉és ✽✺ 0 200 400 600 800 1000 1400 Degré des ARNm Nombre d'ARNm 1 2 3 4 1426 337 38 9 0 200 600 1000 Degré des microARN matures api−mir−3019−5p api−mir−1000−5p api−mir−novel146−5p api−mir−316−5p api−mir−14−3p api−mir−1−3p api−mir−87−3p api−mir−263a−5p api−mir−3038−3p api−mir−novel183−5p api−mir−34−5p api−mir−3026−5p api−mir−278−5p api−mir−281−5p api−mir−novel185−3p microARN matures 197158155 96 87 84 55 26 25 23 15 13 12 4 1300 ❋✐❣✳ ✸✳✺ ✕ ❍✐st♦❣r❛♠♠❡ ❞❡s ❞❡❣rés ❞❡s ❆❘◆♠ ✭❡♥ ❤❛✉t✮ ❡t ❧❡ ❞❡❣ré ♣♦✉r ❝❤❛❝✉♥ ❞❡s ✶✺ ♠✐❝r♦❆❘◆ ✭❡♥ ❜❛s✮ ❛②❛♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t❡s ❡t ♣rés❡♥ts ❞❛♥s ❧❡ rés❡❛✉✳✽✻ ❆♥❛❧②s❡✱ ❝❧❛ss✐✜❝❛t✐♦♥ ❡t ❝♦♠♣❛r❛✐s♦♥ ❞❡s ❡①♣r❡ss✐♦♥ ❞❡s ❆❘◆♠ ❡t ♠✐❝r♦❆❘◆ ✸✳✸ ❘és✉♠é ❡t ❝♦♥❝❧✉s✐♦♥ ✿ ❞❡s ❡①♣r❡ss✐♦♥s ❞✬❆❘◆♠ ❡t ❞❡ ♠✐❝r♦❆❘◆ q✉✐ ❞✐✛èr❡♥t s❡❧♦♥ ❧❡ t②♣❡ ❞✬❡♠❜r②♦❣❡♥ès❡ ❉❛♥s ❝❡ ❝❤❛♣✐tr❡✱ ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❛✈❡❝ ❞❡s ❝✐♥ét✐q✉❡s ❞✬❡①✲ ♣r❡ss✐♦♥ q✉✐ s♦♥t ❞✐✛ér❡♥t❡s s❡❧♦♥ ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t s❡①✉é ♦✉ ❛s❡①✉é ♦♥t été ✐❞❡♥t✐✜és✳ ❈❡tt❡ ✐❞❡♥t✐✜❝❛t✐♦♥ ❛ été ❝♦♥❞✉✐t❡ ❡♥ ❞✐s❝rét✐s❛♥t ❧❡s ❡①♣r❡ss✐♦♥s ❞❡s ❝✐♥ét✐q✉❡s ❛✜♥ ❞❡ ❧❡s ❝❛r❛❝tér✐s❡r ♣❛r ✉♥❡ ❡①♣r❡ss✐♦♥ ✐♥t❡r♣rét❛❜❧❡ ❡♥ t❡r♠❡s s✐♠♣❧❡s ✈✐s✲à✲✈✐s ❞❡s ♠é❝❛✲ ♥✐s♠❡s ❞❡ ré❣✉❧❛t✐♦♥s✳ ❈❡tt❡ ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡ ❧❛ ✈❛r✐❛t✐♦♥ ❞❡ ❧✬❡①♣r❡ss✐♦♥ ♣❡r♠❡t ❞❡ ❞é❝r✐r❡ s②♥t❤ét✐q✉❡♠❡♥t ❧✬é✈♦❧✉t✐♦♥ ❞❡s ❞✐✛ér❡♥t❡s ❡①♣r❡ss✐♦♥s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐✲ ❝r♦❆❘◆ ♠❛t✉r❡s ❧♦rs ❞❡ ❝❡s ❞❡✉① ❡♠❜r②♦❣❡♥ès❡s✳ ❉❡✉① s♦✉s✲❡♥s❡♠❜❧❡s✱ ❧✬✉♥ ♣♦✉r ❧❡s ❆❘◆♠ ❡t ❧✬❛✉tr❡ ♣♦✉r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ♦♥t été ❡①tr❛✐ts ❡♥ ♥❡ ❣❛r❞❛♥t q✉❡ ❧❡s é❧é♠❡♥ts q✉✐ ❛✈❛✐❡♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐s❝rèt❡s ❞✐✛ér❡♥t❡s ❡♥tr❡ ❧❡s ❞❡✉① ♠♦r♣❤❡s✳ ❉❡s rè❣❧❡s ♦♥t été ❞é✜♥✐❡s ♣♦✉r ❝❧❛ss❡r ❧✬❡♥s❡♠❜❧❡ ❞❡s ❞✐✛ér❡♥❝❡s q✉❡ ❧✬♦♥ ♣♦✉✈❛✐t ♦❜s❡r✈❡r ❡♥tr❡ ❧❡s ❝✐♥ét✐q✉❡s✳ ❈❡s rè❣❧❡s ♣❡r♠❡tt❡♥t ❞✬✐♥t❡r♣rét❡r ❞❡ ❢❛ç♦♥ ❣é♥ér❛❧❡ ❧❡s ✈❛r✐❛t✐♦♥s ♦❜s❡r✈é❡s ❡♥tr❡ ❧❡s ❞❡✉① ❝✐♥ét✐q✉❡s ♣♦✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s é❧é♠❡♥ts✳ ✹✳✾✾✻ ❆❘◆♠ ♣♦ssè❞❡♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t❡s✱ ❝❡ q✉✐ r❡♣rés❡♥t❡ ✶✸✱✺ ✪ ❞❡s ❆❘◆♠ ❞✬❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠✳ ❆♣rès ✉♥ ❡♥r✐❝❤✐ss❡♠❡♥t ❢♦♥❝t✐♦♥♥❡❧ ❞❡ ❝❡ s♦✉s✲❡♥s❡♠❜❧❡ ♣❛r ❇❧❛st✷●❖ ❡t ❧✬❛♥❛❧②s❡ ❞❡ ❝❡s rés✉❧t❛ts ♣❛r ❘❊❱✐●❖✱ ❞✐✛ér❡♥t❡s ❢♦♥❝t✐♦♥s s♦♥t r❡s✲ s♦rt✐❡s✳ ❊❧❧❡s ❝♦♥❝❡r♥❡♥t ♥♦t❛♠♠❡♥t ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t✱ ❝❡ q✉✐ ❡st ❝♦❤ér❡♥t ❛✈❡❝ ❧✬❡♠✲ ❜r②♦❣❡♥ès❡✱ ❡t ❧❛ ré❣✉❧❛t✐♦♥ ❞❡ ❧❛ tr❛♥s❝r✐♣t✐♦♥✱ ❝❡ q✉✐ ✐♠♣❧✐q✉❡r❛✐t ❧❛ ♠✐s❡ ❡♥ ♣❧❛❝❡ ❞❡ s②stè♠❡s ❞❡ ré❣✉❧❛t✐♦♥s ❝♦♠♣❧❡①❡s ♣❛r ❧✬❛❝t✐✈❛t✐♦♥ ♦✉ ❧✬✐♥❛❝t✐✈❛t✐♦♥ ❞❡ ❣è♥❡s ✐♠♣❧✐q✉és ❞❛♥s ❧❛ ré❣✉❧❛t✐♦♥ ♣♦s✐t✐✈❡ ♦✉ ♥é❣❛t✐✈❡ ❞❡ ❧❛ tr❛♥s❝r✐♣t✐♦♥✳ ▼ê♠❡ s✐ ❧♦rs ❞❡ ❝❡tt❡ ❛♥❛✲ ❧②s❡ ✐❧ s❡♠❜❧❡ q✉❡ ❧❛ ré❣✉❧❛t✐♦♥ ♥é❣❛t✐✈❡ r❡ss♦rt❡ ♣❧✉s q✉❡ ❧❛ ré❣✉❧❛t✐♦♥ ♣♦s✐t✐✈❡✱ ✐❧ ❢❛✉t ❝♦♥s✐❞ér❡r ❝❡s rés✉❧t❛ts ❛✈❡❝ ♣ré❝❛✉t✐♦♥ ❝❛r ❧❡ ♥♦♠❜r❡ ❞✬❆❘◆♠ ❛♥♥♦tés ♣❛r ✉♥ t❡r♠❡ ●❖ ♥❡ r❡♣rés❡♥t❡ q✉❡ ✸✸ ✪ ❞❡s ❆❘◆♠ ❛②❛♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t❡s✳ ◆♦✉s ❛✈♦♥s ♣✉ ♥♦t❡r q✉❡ ❧❛ ré♣❛rt✐t✐♦♥ ❡♥tr❡ ❧❡s rè❣❧❡s ✓ ❛✈❛♥❝❡ ✔ ❡t ✓ r❡t❛r❞ ✔ ét❛✐t ❞✐✛ér❡♥t❡✱ ♦ù ❞❡✉① ❢♦✐s ♣❧✉s ❞✬❆❘◆♠ s✉✐✈❡♥t ❧❛ rè❣❧❡ ✓ ❛✈❛♥❝❡ ✔✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ✽✵✷ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✐❞❡♥t✐✜és ❝❤❡③ ❆✳ ♣✐s✉♠✱ s❡✉❧❡♠❡♥t ✶✺ ♣♦ssè❞❡♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t❡s✳ ❙✉r ❝❡s ✶✺ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ♥❡✉❢ ♦♥t ❞é❥à été ✐❞❡♥t✐✜és ❝❤❡③ ❞✬❛✉tr❡s ❡s♣è❝❡s✱ ♥♦t❛♠♠❡♥t ❉r♦s♦♣❤✐❧❛ ♠❡❧❛♥♦❣❛st❡r ♦✉ ❡♥❝♦r❡ ❇♦♠✲ ❜②① ▼♦r✐✳ ❙✉r ❝❡s ♠✐❝r♦❆❘◆✱ ✼ ♣♦ssè❞❡♥t ❞❡s ❛♥♥♦t❛t✐♦♥s ✐❞❡♥t✐✜é❡s q✉✐ ❧❡s ✐♠♣❧✐q✉❡♥t ♥♦t❛♠♠❡♥t ❞❛♥s ❧✬❛♣♦♣t♦s❡✱ ❞❛♥s ❧❛ ré❣✉❧❛t✐♦♥ ♣❛r ❧✬❡❝❞②s♦♥❡✱ ♣❛r ❧✬✐♥s✉❧✐♥❡✱ ❧❛ ❞✐✛é✲ r❡♥t✐❛t✐♦♥ ❞❡ ❝❡❧❧✉❧❡s ♠✉s❝✉❧❛✐r❡s✱ ❞✐✈✐s✐♦♥ ❞❡s ❝❡❧❧✉❧❡s s♦✉❝❤❡s ❞❡s ❧✐❣♥é❡s ❣❡r♠✐♥❛❧❡s ♦✉ ❡♥❝♦r❡ ❧❡✉r ❡①♣r❡ss✐♦♥ ❞❛♥s ❧❛ têt❡✳ ❉❡ ♣❧✉s✱ ❤✉✐t ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♣❡✉✈❡♥t êtr❡ ❛ss♦✲ ❝✐és à ✉♥❡ ❞✐✛ér❡♥❝❡ ❞✬❡①♣r❡ss✐♦♥ ❡♥tr❡ ❧❡ st❛❞❡ ✶✼ ✭❚✵✮ ❡t ✶✽ ✭❚✶✮ ❞✉ ❞é✈❡❧♦♣♣❡♠❡♥t✱ st❛❞❡ ♦ù ❧✬❡♠❜r②♦♥ ♣❛ss❡ ❞✬✉♥ ét❛t ✢❡①✐❜❧❡ à ✉♥ ét❛t ❞ét❡r♠✐♥é s✉r s♦♥ ❢✉t✉r ♠♦❞❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥✳ ▲✬❡①tr❛❝t✐♦♥ ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s à ❞❡✉① s♦✉s✲❡♥s❡♠❜❧❡s ré❣✉❧és ♣❡r♠❡t ❞❡ ré❞✉✐r❡ ❧❡ rés❡❛✉ à ❝❡s s❡✉❧s é❧é♠❡♥ts✳ ■❧ ❛ été ❞é❝✐❞é ❞❡ ❣❛r❞❡r ❧❡ rés❡❛✉ ré❞✉✐t ❛✉① é❧é♠❡♥ts ré❣✉❧és ❡t ❝♦♥st✐t✉é ❞❡s ✐♥t❡r❛❝t✐♦♥s ❛✈❡❝ ✉♥ s❝♦r❡ ❣❧♦❜❛❧ ❞❡ ❚❛r❣❡t❙❝❛♥ ✐♥❢ér✐❡✉r à ✲✵✳✸✳ ▲✬❡♥s❡♠❜❧❡ ❞❡ ❝❡s ré❞✉❝t✐♦♥s✱ s✉r ❧❡s é❧é♠❡♥ts ❡t s✉r ❧❡ s❝♦r❡✱ ❞♦♥♥❡ ✉♥ rés❡❛✉ ❝♦♥st✐t✉é ❞❡ ✶✺ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ✶✳✽✶✵ ❆❘◆♠✱ ✷✳✼✾✺ s✐t❡s ❞❡ ✜①❛t✐♦♥ ❡t ✷✳✷✺✵ ✐♥t❡r❛❝t✐♦♥s✳ ▲❡s ❆❘◆♠ ❞✉ rés❡❛✉ ♣♦ssé❞❛♥t ✉♥❡ ❛♥♥♦t❛t✐♦♥ ●❖ ✭✻✾✵✮ ♥❡ ♣♦ssè❞❡♥t ❛✉❝✉♥ ❡♥r✐❝❤✐ss❡♠❡♥t ❢♦♥❝t✐♦♥♥❡❧✳ ❙✐ ❧✬♦♥ ♦❜s❡r✈❡ ❧❛ ré❞✉❝t✐♦♥ ❞✉ ♥♦♠❜r❡ ❞✬❆❘◆♠ ❛s✲ s♦❝✐és ❛✉① rè❣❧❡s ❡♥tr❡ ❧❡s ❆❘◆♠ ❞✉ rés❡❛✉ ❡t ❧✬❡♥s❡♠❜❧❡ ❞❡s ❆❘◆♠ ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ré❣✉❧és✱ ❧❡s ré❞✉❝t✐♦♥s s♦♥t s❡♠❜❧❛❜❧❡s s❛✉❢ ♣♦✉r ❝❡rt❛✐♥❡s rè❣❧❡s ♦ù ❧❛ ✈❛❧❡✉r ❛❜s♦❧✉❡ ❡st❉❡s ❡①♣r❡ss✐♦♥s q✉✐ ❞✐✛èr❡♥t s❡❧♦♥ ❧❡ t②♣❡ ❞✬❡♠❜r②♦❣❡♥ès❡ ✽✼ tr♦♣ ❢❛✐❜❧❡ ♣♦✉r ♣♦✉✈♦✐r ❝♦♥❝❧✉r❡✳ ▲❡s rés✉❧t❛ts ♦❜t❡♥✉s s✉r ❧❛ ré♣❛rt✐t✐♦♥ ❞❡s ❝♦✉♣❧❡s ❞❡ rè❣❧❡s ❡♥ ❢♦♥❝t✐♦♥ ❞❡s ❝♦✉♣❧❡s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❞é✜♥✐s s✉r ❧❡s ✐♥t❡r❛❝t✐♦♥s s♦♥t ❛t✲ t❡♥❞✉s ❝❛r ✐❧s s✉✐✈❡♥t ❧❡s ré♣❛rt✐t✐♦♥s ❞❡s rè❣❧❡s ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✳ ❆✉ ❝♦♥tr❛✐r❡✱ ❧❡s ré♣❛rt✐t✐♦♥s ❞❡s ❞❡❣rés ❞❛♥s ❧❡ rés❡❛✉ ♣♦✉r ❧❡s ❆❘◆♠ ❡t ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s♦♥t ❡✉① s✉r♣r❡♥❛♥ts ✿ très ♣❡✉ ❞✬❆❘◆♠ s♦♥t ❝✐❜❧és ♣❛r ♣❧✉s✐❡✉rs ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ✷✶ ✪ ❡t ✺✹ ✪ ♥❡ s♦♥t ❝✐❜❧és q✉❡ ♣❛r ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣✱ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❝❛♣✲ t❛♥t à ❧✉✐ s❡✉❧ ✺✽ ✪ ❞❡s ✷✳✷✺✵ ✐♥t❡r❛❝t✐♦♥s✳ ▼✐s❡ à ♣❛rt ❝❡ ♠✐❝r♦❆❘◆✱ ❧❡s ❞❡❣rés ❞❡s ❛✉tr❡s ♠✐❝r♦❆❘◆✱ s♦♥t ✉♥✐❢♦r♠é♠❡♥t ré♣❛rt✐s ❡♥tr❡ ✶✾✼ ❡t ✹✱ ♣♦ssè❞❡♥t ❞❡s é❝❛rts ♣❧✉s ❢❛✐❜❧❡s✳ ▲✬❛♣♣❧✐❝❛t✐♦♥ ❞✬✉♥❡ ♠ét❤♦❞❡ ❞✬✐❞❡♥t✐✜❝❛t✐♦♥ ❞❡ ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t❡s ♣❛r ❞✐s❝rét✐✲ s❛t✐♦♥ ❡t ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡ ❝❡s ❝✐♥ét✐q✉❡s ❛ ♣❡r♠✐s ❞❡ ❞é✜♥✐r ✉♥ rés❡❛✉ ❞❡ ré❣✉❧❛t✐♦♥ ♠✐❝r♦❆❘◆✴❆❘◆♠ s♣é❝✐✜q✉❡ ❛✉ ❝❛r❛❝tèr❡ ❜✐♦❧♦❣✐q✉❡ ét✉❞✐é✱ ❧❡ ♣♦❧②♣❤é♥✐s♠❡ ❞❡ r❡♣r♦✲ ❞✉❝t✐♦♥ ❝❤❡③ ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✳ ◆é❛♥♠♦✐♥s✱ ❧❡ ♥♦♠❜r❡ t♦✉❥♦✉rs é❧❡✈é ❞✬✐♥t❡r❛❝t✐♦♥s r❡♥❞ ❞✐✣❝✐❧❡ ✉♥❡ ❡①♣❧♦r❛t✐♦♥ ♠❛♥✉❡❧❧❡ ❡t ♥é❝❡ss✐t❡ ❧❛ ♠✐s❡ ❛✉ ♣♦✐♥t ❞❡ ♠ét❤♦❞❡s ❞✬✐❞❡♥✲ t✐✜❝❛t✐♦♥ ❞❡ ♠♦❞✉❧❡s ❞❡ ré❣✉❧❛t✐♦♥s✳ ❉❛♥s ❧❡ ❝❤❛♣✐tr❡ ✹✱ ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣t ❢♦r♠❡❧ ❡st ✉t✐❧✐sé ♣♦✉r ré♣❛r❡r ❡t ✈✐s✉❛❧✐s❡r ❧❡ rés❡❛✉ ❡t ❞❛♥s ❧❡ ❝❤❛♣✐tr❡ ✺✱ ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣t ❢♦r♠❡❧ ❡st ✉t✐❧✐sé❡ ❛✜♥ ❞✬❛♥❛❧②s❡r ❧❛ ❝♦♠❜✐♥❛t♦✐r❡ ❞❡s ✐♥t❡r❛❝t✐♦♥s ✐♥❞✉✐t❡s ♣❛r ❧❡ rés❡❛✉ ❡t ❞✬❛✐❞❡r à ❧❛ ♣r♦♣♦s✐t✐♦♥ ❞❡ ♥♦✉✈❡❧❧❡s ❤②♣♦t❤ès❡s ❞❡ tr❛✈❛✐❧✳✽✽ ❆♥❛❧②s❡✱ ❝❧❛ss✐✜❝❛t✐♦♥ ❡t ❝♦♠♣❛r❛✐s♦♥ ❞❡s ❡①♣r❡ss✐♦♥ ❞❡s ❆❘◆♠ ❡t ♠✐❝r♦❆❘◆❈❤❛♣✐tr❡ ✹ ❆♣♣❧✐❝❛t✐♦♥ ❞❡ ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s à ✉♥ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ▲❡s ❝❤❛♣✐tr❡s ♣ré❝é❞❡♥ts ♦♥t ♣rés❡♥té ❧❛ ❝ré❛t✐♦♥ ❞✬✉♥ rés❡❛✉ ♠✐❝r♦❆❘◆✴❆❘◆♠ ❛♣♣❧✐q✉é à ✉♥❡ q✉❡st✐♦♥ ❜✐♦❧♦❣✐q✉❡✳ ❈❡ ❝❤❛♣✐tr❡ ✐❧❧✉str❡ ❝♦♠♠❡♥t ♥♦✉s ❛✈♦♥s ✉t✐❧✐sé ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❡t s❡s ❡①t❡♥s✐♦♥s ♣♦✉r ❛♠é❧✐♦r❡r ❡t ♣❡r♠❡ttr❡ ✉♥❡ ✈✐✲ s✉❛❧✐s❛t✐♦♥ ❞❡ ❝❡ rés❡❛✉✳ ❉❛♥s ✉♥ ♣r❡♠✐❡r t❡♠♣s ♦♥ s❡ r❡♣♦s❡ s✉r ❧❛ str✉❝t✉r❛t✐♦♥ ❡♥ ❝♦♥❝❡♣ts ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♣♦✉r ❡ss❛②❡r ❞❡ ré♣❛r❡r ❡♥ ♣❛rt✐❡ ❧❡s ❡rr❡✉rs ❞❛♥s ❧❡s ♣ré❞✐❝t✐♦♥s✳ ❉❛♥s ✉♥ ❞❡✉①✐è♠❡ t❡♠♣s✱ ♦♥ ✉t✐❧✐s❡ ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ✐♥❞✉✐t❡ ♣❛r ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ♣♦✉r ❣é♥ér❡r ✉♥❡ ✈✐s✉❛❧✐s❛t✐♦♥ s②♥t❤ét✐q✉❡ ❞✉ rés❡❛✉✳ ✽✾✾✵ ❆♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❛♣♣❧✐q✉é à ✉♥ rés❡❛✉ ♠✐❝r♦❆❘◆✴❆❘◆♠ ✹✳✶ ▼ét❤♦❞❡ ❞❡ ré♣❛r❛t✐♦♥ ❞❡ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ❜r✉✐té ✹✳✶✳✶ ▲✬❡✛❡t ❞✉ ❜r✉✐t s✉r ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ✭❆❈❋✮ ▲✬❆❈❋ ❡st ✉♥❡ ♣✉✐ss❛♥t❡ ♠ét❤♦❞❡ ❞✬❛♥❛❧②s❡ ♣♦✉r ❞❡s ❞♦♥♥é❡s ❜✐♥❛✐r❡s✳ ❊❧❧❡ ♣❡r♠❡t ❞✬❡①tr❛✐r❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❣r♦✉♣❡s ❞✬♦❜❥❡ts ❡t ❞✬❛ttr✐❜✉ts ❡♥ r❡❧❛t✐♦♥ ❝♦♠♣❧èt❡✳ ◆é❛♥✲ ♠♦✐♥s✱ ❝❡t ❛✈❛♥t❛❣❡ ♣❡✉t ❞❡✈❡♥✐r ✉♥ ✐♥❝♦♥✈é♥✐❡♥t ❞❛♥s ❧❡ ❝❛s ❞❡ ❞♦♥♥é❡s ❜r✉✐té❡s ❞û à s❛ s❡♥s✐❜✐❧✐té à ❧✬❛❜s❡♥❝❡ ♦✉ à ❧❛ ♣rés❡♥❝❡ ♥❡ s❡r❛✐t✲❝❡ q✉❡ ❞✬✉♥❡ r❡❧❛t✐♦♥ ❡♥tr❡ ✉♥ ♦❜❥❡t ❡t ✉♥ ❛ttr✐❜✉t ❧♦rs ❞❡ ❧✬✐♥❢ér❡♥❝❡ ❞❡s ❝♦♥❝❡♣ts✳ ❉❡s ét✉❞❡s ♦♥t ❞é❥à été ♠❡♥é❡s s✉r ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s t♦❧ér❛♥t❡ ❛✉① ❡rr❡✉rs ♦✉ s✉r ❧✬ét✉❞❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❛♣♣r♦❝❤és ❬✶✹✹✱ ✶✹✺✱ ✽✺❪✳ ❊❧❧❡s ❝♦♥s✐st❡♥t ♣r✐♥❝✐♣❛❧❡♠❡♥t à r❡tr♦✉✈❡r ❞❛♥s ✉♥❡ ♠❛tr✐❝❡ ❜✐♥❛✐r❡ ❞❡s r❡❝t❛♥❣❧❡s ❞❡♥s❡s ❞❡ r❡❧❛t✐♦♥s✱ ❝✬❡st✲à✲❞✐r❡ ❛✉t♦r✐s❡r ❝❡rt❛✐♥s ♦❜❥❡ts à ♥❡ ♣❛s êtr❡ ❡♥ r❡❧❛t✐♦♥ ❛✈❡❝ ❝❡rt❛✐♥s ❛ttr✐❜✉ts à ❧✬✐♥tér✐❡✉r ❞❡s r❡❝t❛♥❣❧❡s✳ ▲❛ ❝♦♥tr❛✐♥t❡ ❝♦♥s✐st❛♥t à ❛✈♦✐r ✉♥ ❡♥s❡♠❜❧❡ ❝♦♠♣❧❡t ❞❡ r❡❧❛✲ t✐♦♥s ♣❡✉t êtr❡ r❡❧â❝❤é❡ ❡♥ ❝❤❡r❝❤❛♥t à ♠❛①✐♠✐s❡r ❧❡ ♥♦♠❜r❡ ❞❡ r❡❧❛t✐♦♥s✳ P❡✉ ❞❡ tr❛✈❛✉① ❝❤❡r❝❤❡♥t à ré❝✉♣ér❡r ❞❡s ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❞✬♦r✐❣✐♥❡✱ ❝✬❡st✲à✲❞✐r❡ ét❛❜❧✐s s✉r ❞❡s ❞♦♥✲ ♥é❡s ♥♦♥ ❜r✉✐té❡s✱ à ♣❛rt✐r ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ♦❜t❡♥✉s s✉r ❞❡s ❞♦♥♥é❡s ❞✬♦❜s❡r✈❛t✐♦♥s ❜r✉✐té❡s✳ ▲✬✉♥❡ ❞❡s ét✉❞❡s ❧❡s ♣❧✉s ❛✈❛♥❝é❡s ❡st ❞✉❡ à ❑❧✐♠✉s❤❦✐♥ ❡t ❛❧✳ ❬✶✹✻❪✳ ■❧s ❝❤❡r❝❤❡♥t✱ ❞❛♥s ✉♥ tr❡✐❧❧✐s ✐ss✉ ❞✬✉♥ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ❜r✉✐té✱ à r❡tr♦✉✈❡r ❧❡s ❝♦♥❝❡♣ts ❞✬♦r✐❣✐♥❡s✳ P♦✉r ❝❡❧❛✱ ✐❧s ✉t✐❧✐s❡♥t tr♦✐s ✐♥❞✐❝❡s ❞❡ sé❧❡❝t✐♦♥ s✉r ❧❡s ❝♦♥❝❡♣ts ✿ ❧❛ st❛❜✐❧✐té ❞❡ ❧✬❡①t❡♥s✐♦♥ ❞✉ ❝♦♥❝❡♣t q✉✐ r❡♣rés❡♥t❡ à q✉❡❧ ♣♦✐♥t ❧✬❡①t❡♥s✐♦♥ ❞✬✉♥ ❝♦♥❝❡♣t ❞é♣❡♥❞ ❞❡ s♦♥ ✐♥t❡♥s✐♦♥ ❡t ré❝✐♣r♦q✉❡♠❡♥t ♣♦✉r ❧❛ st❛❜✐❧✐té ❞❡ s♦♥ ✐♥t❡♥s✐♦♥ ❀ ❧❛ ♣r♦❜❛❜✐❧✐té ❞❡ ❧✬✐♥t❡♥s✐♦♥ ❞✬✉♥ ❝♦♥❝❡♣t q✉✐ r❡♣rés❡♥t❡ ❧❛ ♣r♦❜❛❜✐❧✐té q✉❡ ❧✬✐♥t❡♥s✐♦♥ ❞✬✉♥ ❝♦♥❝❡♣t s♦✐t ❝❧♦s ❡t ré❝✐♣r♦q✉❡✲ ♠❡♥t ♣♦✉r ❧❛ st❛❜✐❧✐té ❞❡ s♦♥ ❡①t❡♥s✐♦♥ ❀ ❧✬✐♥❞✐❝❡ ❞❡ sé♣❛r❛t✐♦♥ ❞✬✉♥ ❝♦♥❝❡♣t q✉✐ ✐♥❞✐q✉❡ s✐ ❧❡ ❝♦♥❝❡♣t ♣❡r♠❡t ❞❡ ❜✐❡♥ sé♣❛r❡r ❧❡s ♦❜❥❡ts ❞❡ s♦♥ ❡①t❡♥s✐♦♥ ❞✉ r❡st❡ ❞❡s ♦❜❥❡ts ❡t ❞❡ ♠ê♠❡ ♣♦✉r s♦♥ ✐♥t❡♥s✐♦♥✳ ■❧s ❜r✉✐t❡♥t ❞❡s ❝♦♥t❡①t❡s ❞❡ ❞❡✉① ❢❛ç♦♥s ❞✐✛ér❡♥t❡s✱ s♦✐t ❡♥ ♠♦❞✐✜❛♥t ❧❛ ✈❛❧❡✉r ❞❡s ❝❛s❡s ❞❛♥s ❧❡ ❝♦♥t❡①t❡ ❛✈❡❝ ✉♥❡ ❝❡rt❛✐♥❡ ♣r♦❜❛❜✐❧✐té✱ s♦✐t ❡♥ ❛❥♦✉t❛♥t ❞❡s ♦❜❥❡ts ♦✉ ❞❡s ❛ttr✐❜✉ts ❛✉ ❝♦♥t❡①t❡✳ ■❧s ♠♦♥tr❡♥t q✉✬✐❧s ♣❡✉✈❡♥t ré❝✉♣é✲ r❡r ✉♥❡ ♣❛rt✐❡ ❞❡s ❝♦♥❝❡♣ts ❞✬♦r✐❣✐♥❡ ❡♥ ✉t✐❧✐s❛♥t ❧✬✐♥❞✐❝❡ ❞❡ st❛❜✐❧✐té ❞❡ ❧✬✐♥t❡♥s✐♦♥ ❞❡s ❝♦♥❝❡♣ts ❝♦♠♠❡ ✜❧tr❡✳ ◆♦✉s ❝♦♠♠❡♥❝❡r♦♥s ❡♥ ✐♥tr♦❞✉✐s❛♥t ✉♥ ❡①❡♠♣❧❡ ❞❡ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ❜r✉✐té ❛✜♥ ❞✬✐❧❧✉str❡r ❧✬❡✛❡t ❞✉ ❜r✉✐t s✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts ❡t ❧❡ tr❡✐❧❧✐s ❛ss♦❝✐é✳ ❯♥❡ ❛♥❛✲ ❧②s❡ ♣❧✉s ❣é♥ér❛❧❡ ❡st ❞é✈❡❧♦♣♣é❡ ♣❛r ❧❛ s✉✐t❡✳ ❊①❡♠♣❧❡ ❞❡ ❧✬❡✛❡t ❞❡ ❞♦♥♥é❡s ❜r✉✐té❡s ❡♥ ❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣t ❢♦r♠❡❧ ❉❛♥s ❧❡ ❝♦♥t❡①t❡ K❜r✉✐té ✭❋✐❣✉r❡ ✹✳✶✮✱ ✉♥❡ ❢❛✉ss❡ r❡❧❛t✐♦♥ (o5, a2) ❛ été r❛❥♦✉té❡ ❛✉ ❝♦♥t❡①t❡ K❡① ✭✈♦✐r ♣❛rt✐❡ ✶✳✹✳✶ ❡t ❚❛❜❧❡❛✉ ✶✳✶✮ ❡t ✉♥ s❝♦r❡ ❞❡ ❞✐ss✐♠✐❧❛r✐té ❛ été ❛❥♦✉té ♣♦✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ♣❛✐r❡s ❡♥ r❡❧❛t✐♦♥ q✉✐ r❡♣rés❡♥t❡ ❧✬♦❜s❡r✈❛t✐♦♥ ❞❡ ❞♦♥♥é❡s ❜r✉t❡s ❛✈❛♥t ❧❛ tr❛♥s❢♦r♠❛t✐♦♥ ❡♥ t❛❜❧❡❛✉ ❜✐♥❛✐r❡✳ ❊♥ ♥❡ ❣❛r❞❛♥t q✉❡ ❧❡s r❡❧❛t✐♦♥s ❛②❛♥t ✉♥ s❝♦r❡ ✐♥❢ér✐❡✉r à ✉♥ s❡✉✐❧ ❞❡ −0.2✱ ❧❛ r❡❧❛t✐♦♥ ❞✬♦r✐❣✐♥❡ (o3, a2) ❡st r❡❥❡té❡ ❛❧♦rs q✉❡ ❧❛ ❢❛✉ss❡ r❡❧❛t✐♦♥ (o5, a2) ❡st ❣❛r❞é❡✳ ❈♦♠♣❛ré ❛✉ tr❡✐❧❧✐s ❋✐❣✉r❡ ✶✳✾✱ ✐❧ ② ❛ ♠❛✐♥t❡♥❛♥t ✼ ❝♦♥❝❡♣ts✱ ✸ ❞❡ ♣❧✉s q✉❡ ♣♦✉r ❧❡ ❝♦♥t❡①t❡ K❡① ✭✈♦✐r ❋✐❣✉r❡ ✹✳✶✮✳ ▲❛ s✉♣♣r❡ss✐♦♥ ❞❡ ❧❛ r❡❧❛t✐♦♥ (o3, a2) ❛ ❝♦✉♣é ❧❡ ❝♦♥❝❡♣t C1 ❡♥ ❞❡✉① ❝♦♥❝❡♣ts C 0 1 ❡t C 00 1 ✳ ▲❡ ❝♦♥❝❡♣t C2 ❡①✐st❡ t♦✉❥♦✉rs ❞❛♥s K❜r✉✐t✱ r❡♥♦♠♠é C 0 2 ✳ ❉❡✉① ♥♦✉✈❡❛✉① ❝♦♥❝❡♣ts✱ C3 ❡t C4 ♦♥t été ❝réés ❡♥ ❝♦♥séq✉❡♥❝❡ ❞❡ ❧✬❛❞❞✐t✐♦♥ ❞❡ ❧❛ ❢❛✉ss❡ r❡❧❛t✐♦♥ (o5, a2)✳▼ét❤♦❞❡ ❞❡ ré♣❛r❛t✐♦♥ ❞❡ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ❜r✉✐té ✾✶ a1 a2 a3 a4 o1 ✲✵✳✸ ✲✵✳✷✺ o2 ✲✵✳✺ ✲✵✳✹✺ o3 ✲✵✳✻ ✲✵✳✶ o4 ✲✵✳✹ ✲✵✳✷ o5 ✲✵✳✸ ✲✵✳✷✽ ✲✵✳✹✶ ❚❛❜❧❡❛✉ ✹✳✶ ✕ ❈♦♥t❡①t❡ ❢♦r♠❡❧ ❜r✉✐té K❜r✉✐t ❛✈❡❝ ❞❡s s❝♦r❡s ❞❡ ❞✐ss✐♠✐❧❛r✐té ✭❧❛ ❢❛✉ss❡ r❡❧❛t✐♦♥ ❡st ❡♥ r♦✉❣❡ ❡t ❧❛ r❡❧❛t✐♦♥ ❛✉ ❞❡ss✉s ❞✉ s❡✉✐❧ ❡♥ ❜❧❡✉✮✳ > = {o1, o2, o3, o4, o5} × ∅ C1 = {o1, o2, o3} × {a1, a2} C2 = {o4, o5} × {a3, a4} ⊥ = ∅ × {a1, a2, a3, a4} B(K❡①) > = {o1, o2, o3, o4, o5} × ∅ C 0 1 = {o1, o2, o3} × {a1} C 00 1 = {o1, o2} × {a1, a2} C3 = {o1, o2, o5} × {a2} C 0 2 = {o4, o5} × {a3, a4} C4 = {o5} × {a2, a3, a4} ⊥ = ∅ × {a1, a2, a3, a4} B(K❜r✉✐té) ❋✐❣✳ ✹✳✶ ✕ ▲❡ tr❡✐❧❧✐s ❞❡ ❝♦♥❝❡♣ts B(K❡①) ❡t ❧❡ tr❡✐❧❧✐s B(K❜r✉✐té) ❛ss♦❝✐é ❛✉ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ❜r✉✐té K❜r✉✐t ❡♥ ♥❡ ❝♦♥s✐❞ér❛♥t q✉❡ ❧❡s r❡❧❛t✐♦♥s q✉✐ ♣♦ssè❞❡♥t ✉♥ s❝♦r❡ ❞❡ ❞✐s✲ s✐♠✐❧❛r✐té ✐♥❢ér✐❡✉r ❛✉ s❡✉✐❧ ❞❡ −0.2✳ ❊♥ ❜❧❡✉ ❧❡s ❝♦♥❝❡♣ts ✐ss✉s ❞❡ ❧❛ s✉♣♣r❡ss✐♦♥ ❞❡ ❧❛ r❡❧❛t✐♦♥ (o3, a2) ❡t ❡♥ r♦✉❣❡ ❧❡s ❝♦♥❝❡♣ts ✐ss✉s ❞❡ ❧✬❛❥♦✉t ❞❡ ❧❛ r❡❧❛t✐♦♥ (o5, a2)✳✾✷ ❆♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❛♣♣❧✐q✉é à ✉♥ rés❡❛✉ ♠✐❝r♦❆❘◆✴❆❘◆♠ ❉❡s❝r✐♣t✐♦♥ ❞✉ ❜r✉✐t ✿ ❧❡s ❢❛✉ss❡s r❡❧❛t✐♦♥s ❆✜♥ ❞❡ ♠✐❡✉① ❝♦♠♣r❡♥❞r❡ ❧✬❡✛❡t ❧♦❝❛❧ ❞❡ ❧✬❛❥♦✉t ❞❡ ❢❛✉ss❡s r❡❧❛t✐♦♥s s✉r ✉♥ ❝♦♥❝❡♣t✱ ✐❧ ❢❛✉t ❞✐✛ér❡♥❝✐❡r ❞❡✉① t②♣❡s ❞❡ r❡❧❛t✐♦♥s ✿ ✕ ▲❡s r❡❧❛t✐♦♥s ❞✬♦r✐❣✐♥❡ I o ⊆ G × M ❀ ✕ ▲❡s ❢❛✉ss❡s r❡❧❛t✐♦♥s I f ⊆ G × M ❛✈❡❝ I o ∩ I f = ∅✳ ❈❡s ❞❡✉① t②♣❡s ❞❡ r❡❧❛t✐♦♥s ✐♠♣❧✐q✉❡♥t tr♦✐s t②♣❡s ❞❡ ❝♦♥t❡①t❡s q✉✐ ❞é✜♥✐ss❡♥t tr♦✐s t②♣❡s ❞❡ ❝♦♥❝❡♣ts ✿ ✕ ▲❡ ❝♦♥t❡①t❡ ❞✬♦r✐❣✐♥❡ s❛♥s ❢❛✉ss❡s r❡❧❛t✐♦♥s Ko = (G, M, Io ) ❡t ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts ❞✬♦r✐❣✐♥❡ C o ❀ ✕ ▲❡ ❝♦♥t❡①t❡ ❝♦♥t❡♥❛♥t ✉♥✐q✉❡♠❡♥t ❧❡s ❢❛✉ss❡s r❡❧❛t✐♦♥s Kf = (G, M, If ) ❡t ❧✬❡♥✲ s❡♠❜❧❡ ❞❡s ❢❛✉① ❝♦♥❝❡♣ts C f ❀ ✕ ▲❡ ❝♦♥t❡①t❡ ❛✈❡❝ ❧✬❡♥s❡♠❜❧❡ ❞❡s r❡❧❛t✐♦♥s Kos = (G, M,(I ∪I s )) ❡t ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts ♦❜s❡r✈é C of ✳ ▲❛ ❝♦♥str✉❝t✐♦♥ ❞❡ C of à ♣❛rt✐r ❞❡ C o ❡t C f ❞é♣❡♥❞ ❞❡ ❧❛ ❝♦♥tr✐❜✉t✐♦♥ ❞❡ ❝❤❛q✉❡ ♣❛✐r❡ ❞❡ ❝♦♥❝❡♣ts ❞❛♥s C o × C s ✳ ❈♦♥s✐❞ér♦♥s ❞❡✉① ❝♦♥❝❡♣ts C o = (Ao , Bo ) ∈ C o ❡t C f = (Af , Bf ) ∈ C f ✳ ❈♦♠♠❡ I o ❡t I f s♦♥t ❡①❝❧✉s✐❢s✱ ❧❡s ❝♦♥❝❡♣ts ❞❛♥s C o ❡t C f s♦♥t ❞✐s❥♦✐♥ts✳ ❈❡❧❛ ✐♠♣❧✐q✉❡ q✉❡ Ao ∩ Af = ∅ ♦✉ Bo ∩ Bf = ∅✳ ❙✉♣♣♦s♦♥s q✉❡ Ao ∩ Af 6= ∅ ❡t Bo ∩ Bf = ∅✳ ❆❧♦rs ✉♥ ♥♦✉✈❡❛✉ ❝♦♥❝❡♣t C of = (Aof , Bof ) ♣❡✉t êtr❡ ❝réé ❛✈❡❝ Aof = Ao∩Af ❡t Bof = Bo∪Bf ✳ ◆♦t♦♥s q✉❡ s✐ Af ⊆ Ao ✭r❡s♣❡❝t✐✈❡♠❡♥t Ao ⊆ Af ✮✱ ❛❧♦rs C f ✭r❡s♣❡❝t✐✈❡♠❡♥t C o ✮ ♥✬❡st ♣❛s ♠❛①✐♠❛❧ ❞❛♥s Kof ♣✉✐sq✉❡ ✐❧ ❡st ✐♥❝❧✉s ❞❛♥s C of ✳ ❋♦r♠❡❧❧❡♠❡♥t✱ ❧❛ ❝♦♥tr✐❜✉t✐♦♥ ❞❡ ❞❡✉① ❝♦♥❝❡♣ts ❞✐s❥♦✐♥ts à ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts C of ♣❡✉t êtr❡ ❞é✜♥✐ ❝♦♠♠❡ ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞✬✉♥ ♦♣ér❛t❡✉r ❞❡ ❢✉s✐♦♥ ✿ ❉é✜♥✐t✐♦♥ ✹✳✶ ▲✬♦♣ér❛t❡✉r ❞❡ ❢✉s✐♦♥ f(., .) ❡st ❞é✜♥✐ ♣♦✉r ✉♥❡ ♣❛✐r❡ ❞❡ ❝♦♥❝❡♣ts ❞✐s✲ ❥♦✐♥ts (C i , Cj ) = ((Ai , Bi ),(Aj , Bj )) ❝♦♠♠❡ f(C i , Cj ) = C i∪j ♦ù C i∪j ❡st ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts ♦❜t❡♥✉s s✉r ❧❡s r❡❧❛t✐♦♥s {(Ai × Bi ) ∪ (Aj × Bj )}✳ ▲❡s ❞✐✛ér❡♥ts rés✉❧t❛ts ♦❜t❡♥✉s ♣❛r ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞❡ ❧✬♦♣ér❛t❡✉r f ❞é♣❡♥❞❡♥t ❞❡s ✐♥t❡rs❡❝t✐♦♥s ❡♥tr❡ ❧❡s ❡♥s❡♠❜❧❡s ❞❡s ♦❜❥❡ts ❡t ❞❡s ❛ttr✐❜✉ts ❡t s♦♥t é♥✉♠érés ❝✐✲❞❡ss♦✉s ✿ f(C i , Cj ) = {C i , Cj } s✐ A i ∩ A j = B i ∩ B j = ∅; ✭✹✳✶✮ = {(A i ∪ A j , Bi ∪ B j )} s✐ A i = A j ♦✉ B i = B j ; ✭✹✳✷✮ = {C j ,(A i ∪ A j , Bi ∪ B j )} s✐ A i ⊂ A j ♦✉ B i ⊂ B j ; ✭✹✳✸✮ = {C i , Cj ,(A i ∩ A j , Bi ∪ B j )} s✐ A i ∩ A j 6⊆ {∅, Ai , Aj }; ✭✹✳✹✮ = {C i , Cj ,(A i ∪ A j , Bi ∩ B j )} s✐ B i ∩ B j 6⊆ {∅, Bi , Bj }. ✭✹✳✺✮ ▲✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts C of ♣❡✉t êtr❡ ❞é✜♥✐ ❝♦♠♠❡ ✉♥ ♣♦✐♥t ✜①❡ ✿ C of ❡st ❧❡ ♣❧✉s ♣❡t✐t ❡♥s❡♠❜❧❡ ❞❡ ❝♦♥❝❡♣ts q✉✐ ❝♦✉✈r❡ ❧❡s ❝♦♥❝❡♣ts ❞❡ C f ❡t C o ❡t q✉✐ ❡st ❝❧♦s ♣❛r f✳ ▲❡s ❝♦♥❝❡♣ts ❞❡ C f ❡t C o ❡t ❧❡s ❝♦♥❝❡♣ts ❣é♥érés ♣❛r ❧✬♦♣ér❛t❡✉r f ❛♣♣❛rt✐❡♥♥❡♥t à C of s✬✐❧s ♥❡ s♦♥t ♣❛s ❝♦✉✈❡rts ♣❛r ❞✬❛✉tr❡s ❝♦♥❝❡♣ts ❞❡ C of ❝♦♠♠❡ ❞é❝r✐t ♣❧✉s ❤❛✉t✳ ❉❡s❝r✐♣t✐♦♥ ❞✉ ❜r✉✐t ✿ ❧❡s r❡❧❛t✐♦♥s ♠❛♥q✉❛♥t❡s ❉❡ ❧❛ ♠ê♠❡ ❢❛ç♦♥ q✉❡ ♣♦✉r ❧❡s ❢❛✉ss❡s r❡❧❛t✐♦♥s✱ ❞❡✉① t②♣❡s ❞❡ r❡❧❛t✐♦♥s ♣❡✉✈❡♥t êtr❡ ❞✐st✐♥❣✉és ✿▼ét❤♦❞❡ ❞❡ ré♣❛r❛t✐♦♥ ❞❡ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ❜r✉✐té ✾✸ ✕ ▲❡s r❡❧❛t✐♦♥s ❞✬♦r✐❣✐♥❡ I o ⊆ G × M ❀ ✕ ▲❡s r❡❧❛t✐♦♥s ♠❛♥q✉❛♥t❡s I m ⊆ I o ✳ ❊❧❧❡s ✐♠♣❧✐q✉❡♥t tr♦✐s t②♣❡s ❞❡ ❝♦♥t❡①t❡s q✉✐ ❞é✜♥✐ss❡♥t tr♦✐s t②♣❡s ❞❡ ❝♦♥❝❡♣ts ✿ ✕ ▲❡ ❝♦♥t❡①t❡ ❞✬♦r✐❣✐♥❡ s❛♥s r❡❧❛t✐♦♥s ♠❛♥q✉❛♥t❡s Ko = (G, M, Io ) ❡t ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts ♦r✐❣✐♥❛✉① C o ❀ ✕ ▲❡ ❝♦♥t❡①t❡ ❝♦♥t❡♥❛♥t s❡✉❧❡♠❡♥t ❧❡s r❡❧❛t✐♦♥s ♠❛♥q✉❛♥t❡s Km = (G, M, Im) ❡t ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts ♠❛♥q✉❛♥ts C m ❀ ✕ ▲❡ ❝♦♥t❡①t❡ ❛✈❡❝ ❧✬❡♥s❡♠❜❧❡ ❞❡s r❡❧❛t✐♦♥s ❞✬♦r✐❣✐♥❡ ❡①❝❡♣té ❧❡s r❡❧❛t✐♦♥s ♠❛♥✲ q✉❛♥t❡s Kom = (G, M,(I o \ I m)) ❡t ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts C om✳ ❈♦♠♠❡ ♣♦✉r ❧❡s ❢❛✉ss❡s r❡❧❛t✐♦♥s✱ ✐❧ ❢❛✉t ❞é❝r✐r❡ ❝♦♠♠❡♥t ❧❡s ❡♥s❡♠❜❧❡s C o ❡t C m s♦♥t ❝♦♠❜✐♥és ❞❛♥s C om✳ ❙♦✐t ❞❡✉① ❝♦♥❝❡♣ts C o = (Ao , Bo ) ∈ C o ❡t C m = (Am, Bm) ∈ C m✱ s✐ Ao ∩ Am 6= ∅ ❡t Bo ∩ Bm 6= ∅✱ ❛❧♦rs ❧❡ ❝♦♥❝❡♣t C o ♥❡ ♣❡✉t êtr❡ ❞❛♥s C om ét❛♥t ❞♦♥♥é q✉✬✐❧ ✐♥❝❧✉t ❧❡s r❡❧❛t✐♦♥s ♠❛♥q✉❛♥t❡s Am × Bm✳ ➚ ❧❛ ♣❧❛❝❡✱ ❞❡✉① ♥♦✉✈❡❛✉① ❝♦♥❝❡♣ts s♦♥t ❝réés ❞❛♥s C om✱ C om 1 = (Ao , Bo \ Bm) ❡t C om 2 = (Ao \ Am, Bo )✳ ➚ ♥♦t❡r q✉❡ s✐ Ao ⊆ Am ✭r❡s♣❡❝t✐✈❡♠❡♥t Bo ⊆ Bm✮✱ ❛❧♦rs s❡✉❧ ❧❡ ❝♦♥❝❡♣t C om 1 s❡r❛ ❝réé ✭r❡s♣❡❝t✐✈❡♠❡♥t C om 2 ✮✳ ❋♦r♠❡❧❧❡♠❡♥t✱ ♦♥ ♣❡✉t ❞é✜♥✐r ❧❛ ❝♦♥tr✐❜✉t✐♦♥ ❞❡ ❞❡✉① ❝♦♥❝❡♣ts ❝❤❡✈❛✉❝❤❛♥ts à ❧✬❡♥✲ s❡♠❜❧❡ ❞❡ ❝♦♥❝❡♣ts C om ♣❛r ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞✬✉♥ ♦♣ér❛t❡✉r ❞✬❡①❝❧✉s✐♦♥ ✿ ❉é✜♥✐t✐♦♥ ✹✳✷ ▲✬♦♣ér❛t❡✉r ❞✬❡①❝❧✉s✐♦♥ e(., .) ❡st ❞é✜♥✐ ♣♦✉r ✉♥❡ ♣❛✐r❡ ❞❡ ❝♦♥❝❡♣ts ❝❤❡✲ ✈❛✉❝❤❛♥ts (C i , Cj ) = ((Ai , Bi ),(Aj , Bj )) ❝♦♠♠❡ e(C i , Cj ) = C j\i ♦ù C j\i ❡st ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts ♦❜t❡♥✉ s✉r ❧❡s r❡❧❛t✐♦♥s {(Aj × Bj ) \ (Ai × Bi )}✳ ▲❡s rés✉❧t❛ts ♦❜t❡♥✉s ♣❛r ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞❡ ❧✬♦♣ér❛t❡✉r e✱ q✉✐ ❞é♣❡♥❞❡♥t ❞❡s ✐♥t❡rs❡❝✲ t✐♦♥s ❞❡s ♦❜❥❡ts ❡t ❞❡s ❛ttr✐❜✉ts✱ s♦♥t é♥✉♠érés ❝✐✲❞❡ss♦✉s ✿ e(C i , Cj ) = C j s✐ A j ∩ A i ♦✉ B j ∩ B i = ∅; ✭✹✳✻✮ = {(A j , Bj \ B i ),(A j \ A i , Bj )} s✐ A j ∩ A i 6= ∅, Bj ∩ B i 6= ∅; ✭✹✳✼✮ = {(A j , Bj \ B i )} s✐ A j ⊆ A i , Bj 6⊆ B i ; ✭✹✳✽✮ = {(A j \ A i , Bj )} s✐ A j 6⊆ A i , Bj ⊆ B i ; ✭✹✳✾✮ = ∅ s✐ A j ⊆ A i , Bj ⊆ B i . ✭✹✳✶✵✮ ▲✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts C om ♣❡✉t êtr❡ ❞é✜♥✐ ❝♦♠♠❡ ✉♥ ♣♦✐♥t ✜①❡ ✿ C om ❡st ❧❡ ♣❧✉s ❣r❛♥❞ ❡♥s❡♠❜❧❡ ❞❡ ❝♦♥❝❡♣ts q✉✐ s♦♥t ✐♥❝❧✉s ❞❛♥s ❧❡s ❝♦♥❝❡♣ts ❞❡ C o ❡t q✉✐ ❡st ❝❧♦s ♣❛r e✳ ▲❡s ❝♦♥❝❡♣ts ❞❡ C o ❡t ❧❡s ❝♦♥❝❡♣ts ❣é♥érés ♣❛r ❧✬♦♣ér❛t❡✉r e ❛♣♣❛rt✐❡♥♥❡♥t à C om s✬✐❧s ♥❡ ❝♦♥t✐❡♥♥❡♥t ❛✉❝✉♥❡ r❡❧❛t✐♦♥ ❞❡ I m ❝♦♠♠❡ ❞é❝r✐t ♣❧✉s ❤❛✉t✳ ❉❡s❝r✐♣t✐♦♥ ❞✉ ❜r✉✐t ✿ ❡✛❡t ❣❧♦❜❛❧ s✉r ❧❡ tr❡✐❧❧✐s ❞❡ ❝♦♥❝❡♣ts ▲✬ét✉❞❡ ♣ré❝é❞❡♥t❡ ♠❡t ❡♥ é✈✐❞❡♥❝❡ q✉❡ ❧✬❛✉❣♠❡♥t❛t✐♦♥ ❞✉ ♥♦♠❜r❡ ❞❡ ❝♦♥❝❡♣ts ❞é♣❡♥❞ ❞✉ t②♣❡ ❞❡ ❜r✉✐t ✭r❡❧❛t✐♦♥ ❢❛✉ss❡ ♦✉ ♠❛♥q✉❛♥t❡✮ ❡t ❞✉ ♥♦♠❜r❡ ❞❡ ❝♦♥❝❡♣ts ❝♦♠♣♦sés ✉♥✐q✉❡♠❡♥t ❞❡ ❝❡s r❡❧❛t✐♦♥s ❜r✉✐té❡s✱ ❡①❝❡♣té ♣♦✉r ❧❡s éq✉❛t✐♦♥s ✭✹✳✶✮ ❡t ✭✹✳✻✮ ♦ù ❛✉❝✉♥ ♥♦✉✈❡❛✉ ❝♦♥❝❡♣t ♥✬❡st ❝réé✳ ✕ P♦✉r ❧❡s ❢❛✉ss❡s r❡❧❛t✐♦♥s✱ ❧❡ ♥♦♠❜r❡ ❞❡ ♥♦✉✈❡❛✉① ❝♦♥❝❡♣ts ❞❛♥s C of ❞é♣❡♥❞ ❞✉ ♥♦♠❜r❡ nf ❞❡ ❝♦♥❝❡♣ts ❞✐s❥♦✐♥ts C f ∈ C f ❛✈❡❝ ✉♥✐q✉❡♠❡♥t ✉♥ ❡♥s❡♠❜❧❡ q✉✐ ❡st ❝❤❡✈❛✉❝❤❛♥t ❛✈❡❝ ✉♥ ❝♦♥❝❡♣t C o ∈ C o ❡t ❡st ❧✐♠✐té ♣❛r nf ❀✾✹ ❆♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❛♣♣❧✐q✉é à ✉♥ rés❡❛✉ ♠✐❝r♦❆❘◆✴❆❘◆♠ ✕ P♦✉r ❧❡s r❡❧❛t✐♦♥s ♠❛♥q✉❛♥t❡s✱ ❧❡ ♥♦♠❜r❡ ❞❡ ♥♦✉✈❡❛✉① ❝♦♥❝❡♣ts C om ∈ C om ❧♦✲ ❝❛❧❡♠❡♥t ❝réé à ♣❛rt✐r ❞✬✉♥ ❝♦♥❝❡♣t C o ∈ C o ❞é♣❡♥❞ ❞✉ ♥♦♠❜r❡ nm ❞❡ ❝♦♥❝❡♣ts C m ∈ C m q✉✐ ❡st ❝❤❡✈❛✉❝❤❛♥t ❛✈❡❝ ✉♥ ❝♦♥❝❡♣t C o ❡t ❡st ❜♦r♥é ♣❛r 2 nm✳ ●❧♦❜❛❧❡♠❡♥t✱ ❧❡ ♥♦♠❜r❡ ❞❡ ♥♦✉✈❡❛✉① ❝♦♥❝❡♣ts ❛✉❣♠❡♥t❡ ❧✐♥é❛✐r❡♠❡♥t ❛✈❡❝ ❧❡ ♥♦♠❜r❡ ❞❡ ❢❛✉① ❝♦♥❝❡♣ts ❡t ❡①♣♦♥❡♥t✐❡❧❧❡♠❡♥t ❛✈❡❝ ❧❡ ♥♦♠❜r❡ ❞❡ ❝♦♥❝❡♣ts ♠❛♥q✉❛♥ts✳ P♦✉r ré♣❛r❡r ✉♥ ❝♦♥t❡①t❡ Kofm = I ofm = (G, M,((I o ∪ I f ) \ I m)) ❛✜♥ ❞❡ r❡tr♦✉✈❡r Ko ✱ ✐❧ ❢❛✉t ❞é✜♥✐r ❞❡ ♥♦✉✈❡❧❧❡s ♦♣ér❛t✐♦♥s q✉✐ ✐♥✈❡rs❡♥t ❧✬❡✛❡t ❞❡s ♦♣ér❛t❡✉rs f ❡t e✳ ❈❡s ♦♣ér❛t✐♦♥s ♣❡✉✈❡♥t t✐r❡r ♣❛rt✐ ❞✉ ❢❛✐t q✉❡ ❞❛♥s ❧❛ ♣❧✉♣❛rt ❞❡s ❝❛s✱ ❧❡s ❝♦♥❝❡♣ts q✉✐ rés✉❧t❡♥t ❞❡ ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞❡ f ♦✉ e s♦♥t r❡❧✐és ❞❛♥s ❧❡ tr❡✐❧❧✐s ♣❛r ✉♥❡ r❡❧❛t✐♦♥ ❞✐r❡❝t❡ ♦✉ ✉♥❡ r❡❧❛t✐♦♥ ❥✉♠❡❧❧❡✳ P♦✉r ❧✬♦♣ér❛t❡✉r f✱ ❞❛♥s ❧✬éq✉❛t✐♦♥ ✭✹✳✸✮ ❧❡s ❞❡✉① ❝♦♥❝❡♣ts rés✉❧t❛♥ts s♦♥t ♦r❞♦♥♥és ❞❛♥s ❧❡ tr❡✐❧❧✐s ♣❛r ❧❛ r❡❧❛t✐♦♥ ≺✳ P♦✉r ❧❡s éq✉❛t✐♦♥s ✭✹✳✹✮ ❡t ✭✹✳✺✮✱ ❧❡ ♥♦✉✈❡❛✉ ❝♦♥❝❡♣t ❡st ❧❡ ♣ré❝✉rs❡✉r ❞✐r❡❝t ♦✉ ❧❡ s✉❝❝❡ss❡✉r ❞✐r❡❝t ❞❡ C i ❡t C j ❞❛♥s ❧❡ tr❡✐❧❧✐s✳ P♦✉r ❧✬♦♣ér❛t❡✉r e ❞❛♥s ❧✬éq✉❛t✐♦♥ ✭✹✳✼✮✱ ❧❡s ❞❡✉① ♥♦✉✈❡❛✉① ❝♦♥❝❡♣ts s♦♥t ♦r❞♦♥♥és ♣❛r ❧❛ r❡❧❛t✐♦♥ ≺✳ ▲❡s ❞❡✉① ❡♥s❡♠❜❧❡s Aj ❡t Bj ❞✉ ❝♦♥❝❡♣t ♦r✐❣✐♥❛❧ ♣❡✉✈❡♥t êtr❡ r❡tr♦✉✈és ♣❛r ❝r♦✐s❡♠❡♥t ❞❡s ❝♦♥❝❡♣ts ❜r✉✐tés✳ ✹✳✶✳✷ Pr♦❝❡ss✉s ❞❡ ré♣❛r❛t✐♦♥ ❉é✜♥✐t✐♦♥ ❞❡s ♦♣ér❛t✐♦♥s ❞❡ ré♣❛r❛t✐♦♥ ❉❡✉① ♥♦✉✈❡❧❧❡s ♦♣ér❛t✐♦♥s✱ delete ❡t add✱ ♦♥t été ❞é✜♥✐❡s à ♣❛rt✐r ❞❡s ♦♣ér❛t❡✉rs f ❡t e r❡s♣❡❝t✐✈❡♠❡♥t✳ ❈❡s ♦♣ér❛t✐♦♥s s✉♣♣r✐♠❡♥t ♦✉ ❛❥♦✉t❡♥t ❞❡s r❡❧❛t✐♦♥s ❜❛sé❡s s✉r ❧✬❛♥❛❧②s❡ ❞✉ tr❡✐❧❧✐s ❞❡ ❝♦♥❝❡♣ts✳ ❉❛♥s ❧❛ s✉✐t❡✱ ♥♦✉s ❝♦♥s✐❞ér♦♥s q✉❡ ❝❡s ♦♣ér❛t✐♦♥s s✬❡✛❡❝t✉❡♥t s✉r ❞❡s ♣❛✐r❡s ❞❡ ❝♦♥❝❡♣ts (X, Y ) ❛✈❡❝ X = (A, B) ❡t Y = (C, D)✳ ❉❡✉① t②♣❡s ❞❡ ♣❛✐r❡s ❞❡ ❝♦♥❝❡♣ts ♣❡✉✈❡♥t êtr❡ ❝❤♦✐s✐❡s ✿ ✕ ▲❡s ♣❛✐r❡s ❧✐é❡s (X, Y )l ♦r❞♦♥♥é❡s ❞❛♥s ❧❡ tr❡✐❧❧✐s s✐ X ≺ Y ♦✉ s✐ X  Y ❀ ✕ ▲❡s ♣❛✐r❡s ❥✉♠❡❧❧❡s (X, Y )j q✉✐ ♣♦ssè❞❡♥t ✉♥ ❝♦♥❝❡♣t ♣ré❝é❞❡♥t ♦✉ s✉✐✈❛♥t ❡♥ ❝♦♠♠✉♥ q✉✐ ❞✐✛èr❡ ❞❡s é❧é♠❡♥ts ❡✉① ♠ê♠❡ s✐ ∃Z | X ≺ Z ❡t Y ≺ Z ♦✉ s✐ ∃Z | X  Z ❡t Y  Z✳ ▲✬❛♣♣❧✐❝❛t✐♦♥ ❞❡s ♦♣ér❛t✐♦♥s delete ❡t add s✉r ❧❡s ♣❛✐r❡s ❧✐é❡s ❡t ❥✉♠❡❧❧❡s s✬❡✛❡❝t✉❡ s✉r ❧✬❡♥s❡♠❜❧❡ ❞❡ ❧❛ ❢❛ç♦♥ s✉✐✈❛♥t❡ ✿ ∀ (X, Y )l ♦✉ (X, Y )j ✿ delete(X, Y ) : C := C − Y ; Bruit := Bruit ∪ (Y \ X); bruit(delete(X, Y )) = (Y \ X); ∀ (X, Y )l ✿ ❙✐ A ⊂ C ❡t D ⊂ B ✿ add(X, Y ) : C := C − X − Y + (C, B); Bruit := Bruit ∪ (C \ A) × (B \ D); bruit(add(X, Y )) = (C \ A) × (B \ D); ❙✐ C ⊂ A ❡t B ⊂ D ✿ add(X, Y ) : C := C − X − Y + (A, D); Bruit := Bruit ∪ (A \ C) × (D \ B); bruit(add(X, Y )) = (A \ C) × (D \ B).▼ét❤♦❞❡ ❞❡ ré♣❛r❛t✐♦♥ ❞❡ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ❜r✉✐té ✾✺ ♦ù C✱ ✐♥✐t✐❛❧❡♠❡♥t ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts ♦❜s❡r✈és✱ ❡st ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts rés✉❧✲ t❛♥t ❞❡ ❧✬❛♣♣❧✐❝❛t✐♦♥ ♠✉❧t✐♣❧❡ ❞❡s ♦♣ér❛t✐♦♥s delete ❡t add ❡t Bruit ❡st ❧✬❡♥s❡♠❜❧❡ ❞❡s r❡❧❛t✐♦♥s s✉♣♣r✐♠é❡s ❡t ❛❥♦✉té❡s r❡s♣❡❝t✐✈❡♠❡♥t ♣❛r ❧❡s ♦♣ér❛t✐♦♥s delete ❡t add✳ ➚ ♥♦t❡r q✉❡ ❝❡s ♦♣ér❛t✐♦♥s ♥❡ ♣❡r♠❡tt❡♥t ♣❛s ❞❡ ré♣❛r❡r ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥t❡①t❡s ❜r✉✐tés✳ ❊♥ ❡✛❡t✱ ❞❛♥s ❧❡s ❝❛s ❞é❝r✐ts ♣❛r ❧❡s éq✉❛t✐♦♥s ✭✹✳✷✮ ❡t ✭✹✳✸✮ ❧❡ ❝♦♥❝❡♣t ❞✬♦r✐❣✐♥❡ ♥❡ ❞❡✈✐❡♥t ♣❧✉s ❛❝❝❡ss✐❜❧❡ ♣❛r ❝❡s ♦♣ér❛t✐♦♥s ❝❛r ❧❡ ❢❛✉① ❝♦♥❝❡♣t ❛❥♦✉t❡ ✉♥ ❡♥s❡♠❜❧❡ ❞✬♦❜❥❡ts ♦✉ ❞✬❛ttr✐❜✉ts ❛✉ ❝♦♥❝❡♣t✳ ❉❛♥s ❧❡s éq✉❛t✐♦♥s ✭✹✳✽✮✱ ✭✹✳✾✮ ❡t ✭✹✳✶✵✮✱ ✉♥❡ ♣❛rt✐❡ ❞❡ ❧✬❡①t❡♥s✐♦♥ ❡t✴♦✉ ❞❡ ❧✬✐♥t❡♥s✐♦♥ ❞✉ ❝♦♥❝❡♣t ❞✬♦r✐❣✐♥❡ ❞✐s♣❛r❛ît✳ ❉❛♥s ❝❡s ❝✐♥q ❝❛s✱ ✐❧ s❡ ♣❡✉t q✉❡ ❧❡s ♦♣ér❛t✐♦♥s ❞é✜♥✐❡s ✐❝✐ ♥❡ ♣❡r♠❡tt❡♥t ♣❛s ❞❡ r❡tr♦✉✈❡r ❧❡s r❡❧❛t✐♦♥s ❞✬♦r✐❣✐♥❡✳ ❉❛♥s ❧❛ ❋✐❣✉r❡ ✹✳✶✱ ❧❛ sé❧❡❝t✐♦♥ ❞❡ ❧❛ ♣❛✐r❡ (C 0 2 , C4)l ❡t ❧✬♦♣ér❛t✐♦♥ delete(C 0 2 , C4) = delete(({o4, o5}, {a3, a4}),({o5}, {a2, a3, a4})) s✉♣♣r✐♠❡♥t ✉♥❡ ❢❛✉ss❡ r❡❧❛t✐♦♥ ✿ C := C − C4 ❡t Bruit := Bruit ∪ {(o5, a2)}✳ ❉❡ ❧❛ ♠ê♠❡ ❢❛ç♦♥✱ ❧❛ sé❧❡❝t✐♦♥ ❞❡ ❧❛ ♣❛✐r❡ (C 00 1 , C0 1 )l ❡t ❧✬♦♣ér❛t✐♦♥ add(C 00 1 , C0 1 ) = add(({o1, o2}, {a1, a2}),({o1, o2, o3}, {a1})) ❛❥♦✉t❡♥t ✉♥❡ r❡❧❛t✐♦♥ ♠❛♥q✉❛♥t❡ ✿ C := C − C 00 1 − C 0 1 + ({o1, o2, o3}, {a1, a2}) ❡t Bruit := Bruit ∪ {(o3, a2)}✳ P♦✉r ✉♥❡ ♣❛✐r❡ ❥✉♠❡❧❧❡✱ ❧❛ sé❧❡❝t✐♦♥ ❞❡ ❧❛ ♣❛✐r❡ (C 0 1 , C3)j ❡t ❧✬♦♣ér❛t✐♦♥ delete(C 0 1 , C3) = delete(({o1, o2, o3}, {a1}),({o1, o2, o5}, {a2})) s✉♣♣r✐♠❡♥t ✉♥❡ ❢❛✉ss❡ r❡❧❛t✐♦♥ ♠❛✐s ❛✉ss✐ ❞❡✉① ✈r❛✐s r❡❧❛t✐♦♥s ✿ C := C − C3 ❡t Bruit := Bruit ∪ {(o1, a2),(o2, a2),(o5, a2)}✳ ❉é✜♥✐t✐♦♥ ❞❡s ❝♦♥tr❛✐♥t❡s s✉r ❧❡ ❝❤♦✐① ❞❡s ♦♣ér❛t✐♦♥s ▲❛ ré♣❛r❛t✐♦♥ ❞✉ rés❡❛✉ ❝♦♥s✐st❡ à ❛♣♣❧✐q✉❡r s✐♠✉❧t❛♥é♠❡♥t ✉♥ ❡♥s❡♠❜❧❡ ❞✬♦♣ér❛✲ t✐♦♥s delete ❡t add s✉r ✉♥ s♦✉s✲❡♥s❡♠❜❧❡ ❞❡s ♣❛✐r❡s ❞❡ ❝♦♥❝❡♣ts ✐ss✉ ❞❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts ♦❜s❡r✈és ✐♥✐t✐❛❧❡♠❡♥t✳ ▲✬❡♥s❡♠❜❧❡ ❞❡s ♦♣ér❛t✐♦♥s ❝❤♦✐s✐❡s ❡st s♦✉♠✐s à ✉♥ ❡♥✲ s❡♠❜❧❡ ❞❡ ❝♦♥tr❛✐♥t❡s ✭♦ù X, Y, Z ❡t W s♦♥t ❞❡s ❝♦♥❝❡♣ts ❡t o ✉♥ ♦❜❥❡t ❡t a ✉♥ ❛ttr✐❜✉t✮ ✿ ✶✳ ∀X, Y, Z (¬delete(X, Y ) ∨ ¬delete(Z, X)) ✿ ✉♥ ❝♦♥❝❡♣t ✉t✐❧✐sé ♣♦✉r ❞é✜♥✐r ❧❛ s✉♣✲ ♣r❡ss✐♦♥ ❞✬✉♥ ❛✉tr❡ ❝♦♥❝❡♣t ♣❛r ✉♥❡ ♦♣ér❛t✐♦♥ delete ♥❡ ♣❡✉t ♣❛s êtr❡ ❧✉✐ ❛✉ss✐ s✉♣♣r✐♠é ♣❛r ✉♥❡ ❛✉tr❡ ♦♣ér❛t✐♦♥ delete ❀ ✷✳ ∀X, Y, Z X 6= Y ⇒ (¬delete(X, Z)∨ ¬delete(Y, Z)) ✿ ✉♥ ❝♦♥❝❡♣t ♥❡ ♣❡✉t ♣❛s êtr❡ s✉♣♣r✐♠é ♣❛r ❞❡✉① ♦♣ér❛t✐♦♥s delete ❞✐✛ér❡♥t❡s ❀ ✸✳ ∀X, Y, Z delete(X, Y ) ⇒ ¬add(Z, Y )∧ ¬add(Y, Z) ✿ ✉♥ ❝♦♥❝❡♣t s✉♣♣r✐♠é ♣❛r ✉♥❡ ♦♣ér❛t✐♦♥ delete ♥❡ ♣❡✉t ♣❛s ❢❛✐r❡ ❛✉ss✐ ♣❛rt✐❡ ❞✬✉♥❡ ♦♣ér❛t✐♦♥ add ❀ ✹✳ ∀X, Y, W, o, a ∃Z (o, a) ∈ bruit(delete(X, Y )) ∧ (o, a) ∈ bruit(delete(Z, W)) ∧ delete(X, Y ) ⇒ delete(Z, W) ✿ ❧❛ s✉♣♣r❡ss✐♦♥ ❞✬✉♥❡ ♣❛✐r❡ ✐♥❝❧✉s❡ ❞❛♥s ✉♥ ❝♦♥❝❡♣t ♣❛r ✉♥❡ ♦♣ér❛t✐♦♥ delete ❞♦✐t ❛✉ss✐ êtr❡ s✉♣♣r✐♠é❡ ❞❛♥s ❧❡s ❝♦♥❝❡♣ts q✉✐ ✐♥❝❧✉❡♥t ❝❡tt❡ r❡❧❛t✐♦♥ ❀ ✺✳ ∀X, Y, W, o, a ∃Z (o, a) ∈ bruit(add(X, Y ))∧(o, a) ∈ bruit(add(Z, W))∧add(X, Y ) ⇒ add(Z, W) ✿ ❧✬❛❥♦✉t ❞✬✉♥❡ ♣❛✐r❡ ♣❛r ✉♥❡ ♦♣ér❛t✐♦♥ add ❞♦✐t ❛✉ss✐ êtr❡ ❛❥♦✉té❡ ♣❛r ❧❡s ❛✉tr❡s ♦♣ér❛t✐♦♥s add q✉✐ ♣❡r♠❡tt❡♥t ❞✬❛❥♦✉t❡r ❝❡tt❡ r❡❧❛t✐♦♥ ❀✾✻ ❆♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❛♣♣❧✐q✉é à ✉♥ rés❡❛✉ ♠✐❝r♦❆❘◆✴❆❘◆♠ ◆♦t♦♥s q✉❡ ❧❡s ❝♦♥tr❛✐♥t❡s ✹ ❡t ✺ ✐♠♣❧✐q✉❡♥t q✉✬✉♥❡ ♦♣ér❛t✐♦♥ ❞♦♥♥é❡ q✉✐ ♥é❝❡ss✐t❡r❛✐t ✉♥❡ ♣r♦♣❛❣❛t✐♦♥ ✐♠♣♦ss✐❜❧❡ à ❡✛❡❝t✉❡r ♥❡ s❡r❛ ❡✛❡❝t✐✈❡♠❡♥t ♣❛s ❛♣♣❧✐q✉é❡✳ ❈❡s ❝♦♥tr❛✐♥t❡s ré❞✉✐s❡♥t ❧❡s ❡♥s❡♠❜❧❡s ❞✬♦♣ér❛t✐♦♥s ♣♦ss✐❜❧❡s ♠❛✐s ✐❧ r❡st❡ ❡♥❝♦r❡ ❞❡ ♥♦♠❜r❡✉s❡s ♣♦ss✐❜✐❧✐tés ♠❡♥❛♥t à ❞✐✛ér❡♥ts rés✉❧t❛ts ❞✬❡♥s❡♠❜❧❡s ❞❡ ❝♦♥❝❡♣ts✳ ❆✜♥ ❞❡ sé❧❡❝t✐♦♥♥❡r ❧❡s ❡♥s❡♠❜❧❡s ❧❡s ♣❧✉s ✐♥tér❡ss❛♥ts✱ ♥♦✉s ♣♦s♦♥s ❧❡ ♣r♦❜❧è♠❡ ❝♦♠♠❡ ✉♥ ♣r♦❜❧è♠❡ ❞✬♦♣t✐♠✐s❛t✐♦♥✳ P♦✉r ❝❡❧❛ ♥♦✉s ❞❡✈♦♥s ❞é✜♥✐r ✉♥ s❝♦r❡ ❛ss♦❝✐é à ❝❤❛q✉❡ ❡♥s❡♠❜❧❡ ❞❡ ❝♦♥❝❡♣ts✳ ❖♣t✐♠✐s❛t✐♦♥ ♣❛r ❧♦♥❣✉❡✉r ❞❡ ❞❡s❝r✐♣t✐♦♥ ♠✐♥✐♠❛❧❡ ▲❡s s♦❧✉t✐♦♥s ♦❜t❡♥✉❡s ♣❛r ❧✬❛♣♣❧✐❝❛t✐♦♥ s✐♠✉❧t❛♥é❡ ❞❡s ♦♣ér❛t✐♦♥s delete ❡t add s♦♥t é✈❛❧✉é❡s ♣❛r ✉♥ s❝♦r❡ ❞é✜♥✐ s❡❧♦♥ ❧❡ ♣r✐♥❝✐♣❡ ❞❡ ❧❛ ❧♦♥❣✉❡✉r ❞❡ ❞❡s❝r✐♣t✐♦♥ ♠✐♥✐♠❛❧❡ ❬✶✹✼❪✳ ➱t❛♥t ❞♦♥♥é ✉♥ ❡♥s❡♠❜❧❡ ❞❡ ❝♦♥❝❡♣ts C✱ ♦♥ ♣♦s❡ ✿ score(C) = X (A,B)∈C (|A| + |B|) + α |Bruit| ❀ ♦ù ❧❡ ♣❛r❛♠ètr❡ α ❡st ✉♥ ♥♦♠❜r❡ r❛t✐♦♥♥❡❧ ♣♦s✐t✐❢ ✭à ✶ ♣❛r ❞é❢❛✉t✮✳ ❈❡ s❝♦r❡ ❡st ♠✐♥✐♠✐sé ♣♦✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ❛♣♣❧✐❝❛t✐♦♥s ♣♦ss✐❜❧❡s ❞❡s ♦♣ér❛t✐♦♥s delete ❡t add s✉r ❧❡s ❝♦♥❝❡♣ts ❞❡ C q✉✐ r❡s♣❡❝t❡♥t ❧❡s ❝♦♥tr❛✐♥t❡s ❞é✜♥✐❡s ♣ré❝é❞❡♠♠❡♥t✳ ◆♦✉s ❛✈♦♥s ♠♦❞é❧✐sé ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥tr❛✐♥t❡s ❡t ❧❛ r❡❝❤❡r❝❤❡ ❞✬✉♥ ❡♥s❡♠❜❧❡ ❞✬♦♣é✲ r❛t✐♦♥s ♣r♦❞✉✐s❛♥t ✉♥ ❡♥s❡♠❜❧❡ ❞❡ ❝♦♥❝❡♣ts ❞❡ s❝♦r❡ ♠❛①✐♠✉♠ ❡♥ ❆❙P✳ ▲❡ ♣r♦❣r❛♠♠❡ ❛ été t❡sté ❛✈❡❝ ❧❛ s✉✐t❡ ❧♦❣✐❝✐❡❧ P♦t❛ss❝♦ ❬✾✸❪✳ ❈❡ ♣r♦❣r❛♠♠❡ ♣r❡♥❞ ❡♥ ❡♥tré❡ ❧✬❡♥✲ s❡♠❜❧❡ ❞❡s r❡❧❛t✐♦♥s✱ ❞❡s ❝♦♥❝❡♣ts ❡t ❧❡ tr❡✐❧❧✐s ❛ss♦❝✐é ❡t r❡♥✈♦✐❡ ❡♥ s♦rt✐❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s r❡❧❛t✐♦♥s s✉♣♣r✐♠é❡s ♦✉ ❛❥♦✉té❡s✳ ■❧ s❡ ❞ér♦✉❧❡ ❡♥ ❝✐♥q ét❛♣❡s ♣r✐♥❝✐♣❛❧❡s ✿ ✶✳ ■♥✐t✐❛❧✐s❛t✐♦♥ ✿ ♣rétr❛✐t❡♠❡♥t ❞❡s ❞♦♥♥é❡s ❜r✉t❡s ♣♦✉r ♦❜t❡♥✐r ❧❡s ❢❛✐ts ♥é❝❡ss❛✐r❡s ♣♦✉r ❧❛ s✉✐t❡ ❞✉ ♣r♦❣r❛♠♠❡ ❀ ✷✳ ❙é❧❡❝t✐♦♥ ❞❡s ❝♦♥❝❡♣ts ✿ ❞é✜♥✐t✐♦♥ ❞❡s ♣❛✐r❡s ❞❡ ❝♦♥❝❡♣ts ❧✐é❡s ❡t ❥✉♠❡❧❧❡s ❀ ✸✳ ❈❛❧❝✉❧ ❞✉ ❜r✉✐t ✿ ❝❛❧❝✉❧ ♣♦✉r ❝❤❛❝✉♥❡ ❞❡s ♣❛✐r❡s ❞❡s r❡❧❛t✐♦♥s s✉♣♣r✐♠é❡s ♦✉ ❛❥♦✉✲ té❡s ♣❛r ❧❡s ♦♣ér❛t✐♦♥s delete ❡t add✳ ❉é✜♥✐t✐♦♥ ❞❡s ❝♦✉♣❧❡s ♣♦✉r ❧❡sq✉❡❧s ♦♥ ♥❡ ♣❡✉t ❝❤♦✐s✐r ❧✬✉♥❡ ❞❡s ♦♣ér❛t✐♦♥s✱ ❝✬❡st✲à✲❞✐r❡ q✉❡ ❝❡tt❡ ♦♣ér❛t✐♦♥ ✐♠♣❧✐q✉❡ ✉♥❡ ♣r♦♣❛❣❛t✐♦♥ q✉✐ ♥❡ ♣❡✉t ♣❛s êtr❡ ❢❛✐t❡ ❀ ✹✳ ❙é❧❡❝t✐♦♥ ❞❡s ❝♦✉♣❧❡s ✿ sé❧❡❝t✐♦♥ ❞❡s ♦♣ér❛t✐♦♥s delete ❡t add à ❡✛❡❝t✉❡r ❡t ✜❧tr❛❣❡ ❞❡s ♣♦ss✐❜✐❧✐tés ♣❛r ❧❡s ❝♦♥tr❛✐♥t❡s ✶✱ ✷✱ ✸✱ ✹ ❡t ✺ ❀ ✺✳ ❖♣t✐♠✐s❛t✐♦♥ ✿ ❝❛❧❝✉❧ ❞✉ s❝♦r❡ ❡t ♠❛①✐♠✐s❛t✐♦♥ ❞❡ ❝❡ s❝♦r❡✳ ❋✐♥❛❧❡♠❡♥t ❧❡s r❡❧❛t✐♦♥s s✉♣♣r✐♠é❡s ❡t ❛❥♦✉té❡s s♦♥t ❛✣❝❤é❡s ❡♥ s♦rt✐❡✳ ❆✜♥ ❞❡ t❡st❡r ❧✬❡✣❝❛❝✐té ❞❡s ♦♣ér❛t✐♦♥s ❡t ❞✉ s❝♦r❡ ❞é✜♥✐s ♣♦✉r ré♣❛r❡r ✉♥ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ❜r✉✐té✱ ❧❛ ♠ét❤♦❞❡ ❛ été t❡sté❡ s✉r ✉♥ ❡♥s❡♠❜❧❡ ❞❡ ❝♦♥t❡①t❡s ❜r✉✐tés s✐♠✉❧és✳ ✹✳✶✳✸ ❊①♣ér✐♠❡♥t❛t✐♦♥ s✉r ❞❡s ❝♦♥t❡①t❡s ❜r✉✐tés s✐♠✉❧és P❧✉s✐❡✉rs ❝♦♥t❡①t❡s ❛❧é❛t♦✐r❡s ♦♥t été s✐♠✉❧és ❛✈❡❝ ✉♥ ♥♦♠❜r❡ ✜①❡ ❞✬♦❜❥❡ts ❡t ❞✬❛t✲ tr✐❜✉ts ✭✷✵✱ ✹✵ ♦✉ ✻✵✮ ❛✜♥ ❞❡ t❡st❡r ❧❛ ❞ét❡❝t✐♦♥ ❞❡s r❡❧❛t✐♦♥s ❢❛✉ss❡s ❡t ♠❛♥q✉❛♥t❡s✳ P♦✉r ❝❤❛❝✉♥ ❞❡ ❝❡s ❝♦♥t❡①t❡s✱ ✺ ❡♥s❡♠❜❧❡s ❞❡ r❡❧❛t✐♦♥s ♦♥t été ❝réés ❝♦rr❡s♣♦♥❞❛♥t à ✺ ❝♦♥❝❡♣ts ❛✈❡❝ ❞❡s t❛✐❧❧❡s ❞✬❡①t❡♥s✐♦♥s ❡t ❞✬✐♥t❡♥t✐♦♥s ❛❧é❛t♦✐r❡s s✉✐✈❛♥t ✉♥❡ ❞✐str✐❜✉t✐♦♥▼ét❤♦❞❡ ❞❡ ré♣❛r❛t✐♦♥ ❞❡ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ❜r✉✐té ✾✼ ♥♦r♠❛❧❡ ❞❡ ♠♦②❡♥♥❡ ✺ ❡t ❞✬é❝❛rt✲t②♣❡ ✷✳ ▲❡s ❝♦♥t❡①t❡s s♦♥t ❡♥s✉✐t❡ ❜r✉✐tés ❛✈❡❝ ✉♥❡ ♣r♦❜❛❜✐❧✐té pf ✭✵✱✵✶✱ ✵✱✵✺ ♦✉ ✵✱✶✮ ♣♦✉r q✉✬✉♥❡ r❡❧❛t✐♦♥ ❛♣♣❛r❛✐ss❡ ❡♥tr❡ ✉♥ ♦❜❥❡t ❡t ✉♥ ❛ttr✐❜✉t ✭✉♥❡ ❢❛✉ss❡ r❡❧❛t✐♦♥✮ ❡t ✉♥❡ ♣r♦❜❛❜✐❧✐té pm ✭✵✱✶✺✱ ✵✱✷✺ ♦✉ ✵✱✸✺✮ ♣♦✉r q✉✬✉♥❡ r❡❧❛t✐♦♥ ❞✐s♣❛r❛✐ss❡ ❡♥tr❡ ✉♥ ♦❜❥❡t ❡t ✉♥ ❛ttr✐❜✉t ✭✉♥❡ r❡❧❛t✐♦♥ ♠❛♥q✉❛♥t❡✮✳ ❉❡ ♣❧✉s✱ tr♦✐s ✈❛❧❡✉rs ❞✉ ♣❛r❛♠ètr❡ α ♦♥t été t❡sté❡s ✭✶✱ ✶✱✺ ♦✉ ✷✮✳ P♦✉r ❝❤❛❝✉♥ ❞❡s ❥❡✉① ❞❡ ♣❛r❛✲ ♠ètr❡s ✭t❛✐❧❧❡ ❞❡s ❝♦♥t❡①t❡s✱ ♥✐✈❡❛✉ ❞❡ ❜r✉✐t ❡t ♣❛r❛♠ètr❡ α✮ ✶✳✵✵✵ ❝♦♥t❡①t❡s ❛❧é❛t♦✐r❡s ♦♥t été ❣é♥érés✳ ▲❛ ♠ét❤♦❞❡ ❞❡ ré♣❛r❛t✐♦♥ ❛ été ✉t✐❧✐sé❡ s✉r ❝❤❛❝✉♥ ❞❡ ❝❡s ❝♦♥t❡①t❡s ❡t ❧❡s rés✉❧t❛ts s♦♥t rés✉♠és ❞❛♥s ❧❡ ❚❛❜❧❡❛✉ ✹✳✷✳ ♦❜❥ ❛tt pf pm α delete add ♦r✐❣✐♥❛❧❡ ✭✪✮ ❢❛✉ss❡ ✭✪✮ ♥♦♥ ♠❛♥✲ q✉❛♥t❡ ✭♥❜r✮ ♠❛♥q✉❛♥t❡ ✭✪✮ µ σ µ σ µ σ µ σ ✷✵ ✷✵ ✵✱✵✺ ✵✱✷✺ ✶ ✵✱✹ ✶✱✶ ✶✻ ✻ ✷✼✱✹ ✶✵✱✻ ✸✼✱✸ ✶✷✱✻ ✶✱✺ ✵✱✶ ✵✱✸ ✸✱✷ ✷✱✻ ✷✱✾ ✷✱✸ ✶✸✱✽ ✼✱✾ ✷ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✹✵ ✹✵ ✵✱✵✶ ✵✱✷✺ ✶ ✷✱✾ ✸✱✹ ✸✵✱✼ ✶✷✱✸ ✹✱✾ ✸✱✼ ✸✷✱✹ ✶✸✱✺ ✶✱✺ ✶✱✶ ✶✱✼ ✶✻✱✺ ✶✶✱✹ ✵✱✽ ✶ ✶✸✱✼ ✼✱✽ ✷ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✵✱✵✺ ✵✱✶✺ ✶ ✵✱✸ ✵✱✾ ✶✻✱✶ ✺✱✾ ✷✼✱✾ ✶✶✱✸ ✹✼✱✸ ✶✻✱✶ ✶✱✺ ✵ ✵✱✸ ✸✱✽ ✷✱✾ ✹ ✷✱✾ ✷✹✱✽ ✶✶✱✼ ✷ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✵✱✷✺ ✶ ✵✱✺ ✶✱✸ ✶✻✱✺ ✻ ✷✺✱✼ ✶✵✱✹ ✸✻✱✺ ✶✸✱✸ ✶✱✺ ✵✱✶ ✵✱✹ ✸✱✹ ✷✱✾ ✷✱✽ ✷✱✸ ✶✹ ✽✱✼ ✷ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✵✱✸✺ ✶ ✵✱✾ ✶✱✽ ✶✻✱✻ ✺✱✼ ✷✸✱✻ ✾✱✾ ✷✽✱✷ ✶✵✱✺ ✶✱✺ ✵✱✶ ✵✱✹ ✷✱✾ ✷✱✺ ✶✱✻ ✶✱✼ ✻✱✸ ✺✱✻ ✷ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✵✱✶ ✵✱✷✺ ✶ ✵ ✵✱✶ ✶✱✼ ✶✱✾ ✽✸✱✸ ✶✽✱✾ ✹✷✱✸ ✶✷✱✾ ✶✱✺ ✵ ✵ ✵✱✷ ✵✱✺ ✻✱✸ ✹✱✸ ✶✺✱✾ ✾✱✷ ✷ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✻✵ ✻✵ ✵✱✵✺ ✵✱✷✺ ✶ ✵✱✶ ✵✱✻ ✾✱✺ ✹✱✼ ✺✷✱✶ ✶✻✱✷ ✸✺✱✹ ✶✶✱✺ ✶✱✺ ✵ ✵✱✶ ✵✱✼ ✵✱✾ ✷✱✼ ✷✱✸ ✶✷✱✷ ✼✱✻ ✷ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ❚❛❜❧❡❛✉ ✹✳✷ ✕ ❘és✉❧t❛t ❞❡ ❧❛ ♠ét❤♦❞❡ ❞❡ ré♣❛r❛t✐♦♥ s✉r ❞❡s ❝♦♥t❡①t❡s ❜r✉✐tés s✐♠✉❧és ♣♦✉r ❞❡s ♥♦♠❜r❡s ❞✐✛ér❡♥ts ❞✬♦❜❥❡ts ✭✓ ♦❜❥ ✔✮ ❡t ❞✬❛ttr✐❜✉ts ✭✓ ❛tt ✔✮ ❡t ❞✐✛ér❡♥t❡s ♣r♦❜❛❜✐❧✐tés ❞❡ ❢❛✉ss❡s r❡❧❛t✐♦♥s ✭✓ pf ✔✮ ❡t ❞❡ r❡❧❛t✐♦♥s ♠❛♥q✉❛♥t❡s ✭✓ pm ✔✮✳ P♦✉r ❧✬♦♣ér❛t✐♦♥ delete✱ ❧❡s ♠♦②❡♥♥❡s ✭✓ µ ✔✮ ❡t ❧❡s é❝❛rt✲t②♣❡s ✭✓ σ ✔✮ ❞❡s ♣♦✉r❝❡♥t❛❣❡s ✭✪✮ ❞❡ ❢❛✉ss❡s r❡❧❛t✐♦♥s ❡t ❞❡ r❡❧❛t✐♦♥s ♦r✐❣✐♥❛❧❡s s✉♣♣r✐♠é❡s s✉r ✶✳✵✵✵ t✐r❛❣❡s ❛❧é❛t♦✐r❡s s♦♥t ✐♥❞✐q✉és✳ P♦✉r ❧✬♦♣ér❛t✐♦♥ add✱ ❧❛ ♠♦②❡♥♥❡ ❡t ❧✬é❝❛rt✲t②♣❡ ❞✉ ♥♦♠❜r❡ ✭✓ ♥❜r ✔✮ ❞❡ r❡❧❛t✐♦♥s ❛❥♦✉té❡s q✉✐ ♥❡ s♦♥t ♣❛s ❞❡s r❡❧❛t✐♦♥s ♠❛♥q✉❛♥t❡s ❡st ✐♥❞✐q✉é ❛✐♥s✐ q✉❡ ❧❛ ♠♦②❡♥♥❡ ❡t ❧✬é❝❛rt✲t②♣❡ ❞✉ ♣♦✉r❝❡♥t❛❣❡ ❞❡ r❡❧❛t✐♦♥s ♠❛♥q✉❛♥t❡s✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥t❡①t❡s✱ ❧❡s ♣♦✉r❝❡♥t❛❣❡s ❡t ❧❡ ♥♦♠❜r❡ ❞❡ r❡❧❛t✐♦♥s s✉♣♣r✐♠é❡s✾✽ ❆♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❛♣♣❧✐q✉é à ✉♥ rés❡❛✉ ♠✐❝r♦❆❘◆✴❆❘◆♠ ♦✉ ❛❥♦✉té❡s ❞✐♠✐♥✉❡♥t ❧♦rsq✉❡ ❧❛ ✈❛❧❡✉r ❞❡ α ❛✉❣♠❡♥t❡ ♣♦✉r êtr❡ é❣❛❧❡ à ③ér♦ s✉r ❧✬❡♥✲ s❡♠❜❧❡ ❞❡s ❡①♣ér✐♠❡♥t❛t✐♦♥s ❧♦rsq✉❡ α = 2✳ ❈❡ rés✉❧t❛t ❡st ❝♦❤ér❡♥t ❛✈❡❝ ❧❛ ❞é✜♥✐t✐♦♥ ❞✉ s❝♦r❡ ♦ù α r❡♣rés❡♥t❡ ❧❡ ♣♦✐❞s ❞❡s ♠♦❞✐✜❝❛t✐♦♥s ❛♣♣♦rté❡s à ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts ❡♥ ❝♦♠♣❛r❛✐s♦♥ à ❧❛ t❛✐❧❧❡ ❞❡ ❧❛ ❞❡s❝r✐♣t✐♦♥ ❞❡s ❝♦♥❝❡♣ts ré♣❛rés✳ P❧✉s ❧❡ ♣♦✐❞s ❞✬✉♥❡ ♠♦❞✐✜❝❛t✐♦♥ ❡st ❢♦rt✱ ♣❧✉s ❝❡tt❡ ♠♦❞✐✜❝❛t✐♦♥ ❞❡✈✐❡♥t ❞é❢❛✈♦r❛❜❧❡✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s rés✉❧t❛ts✱ ❧❡ ♣♦✉r❝❡♥t❛❣❡ ❞❡ r❡❧❛t✐♦♥s ♦r✐❣✐♥❛❧❡s s✉♣♣r✐♠é❡s ❡st ❡♥ ♠♦②❡♥♥❡ très ❢❛✐❜❧❡ ❡t ❡st ♣r♦❝❤❡ ❞❡ ③ér♦✱ ❡①❝❡♣té ♣♦✉r ❧❡ ❝♦♥t❡①t❡ ❛✈❡❝ ❝♦♠♠❡ ♣❛r❛♠ètr❡s ✭♦❜❥ ❀ ❛tt ❀ pf ❀ pm ❀ α✮❂✭✹✵ ❀ ✹✵ ❀ ✵✱✵✶ ❀ ✵✱✷✺✮ ♦ù ❧❡ ♣♦✉r❝❡♥t❛❣❡ ❞❡ r❡❧❛t✐♦♥s ♦r✐❣✐♥❛❧❡s s✉♣♣r✐♠é❡s ❡st ❞❡ ✷✱✾ ✪✱ ❧❛ ✈❛❧❡✉r ♠❛①✐♠✉♠ s✉r t♦✉t❡s ❧❡s ❡①♣ér✐❡♥❝❡s✳ ❯♥❡ ❛✉tr❡ ♦❜s❡r✈❛t✐♦♥ ❣❧♦❜❛❧❡ ♣❡✉t êtr❡ ❢❛✐t❡ s✉r ❧❡ ♥♦♠❜r❡ ❞❡ r❡❧❛t✐♦♥s q✉✐ s♦♥t ❛❥♦✉té❡s ♣❛r ❧✬♦♣ér❛t✐♦♥ add ♠❛✐s q✉✐ ♥❡ s♦♥t ♣❛s ♠❛♥q✉❛♥t❡s✳ ❈❡ ♥♦♠❜r❡ ❡st é❧❡✈é ♣♦✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s t❡sts ❡✛❡❝t✉és ❛✈❡❝ ✉♥ ♣❛r❛♠ètr❡ α ❞❡ ✶✱ s❛✉❢ ♣♦✉r ❧❡ ❝♦♥t❡①t❡ ❞❡ ♣❛r❛♠ètr❡s ✭✹✵ ❀ ✹✵ ❀ ✵✱✵✶ ❀ ✵✱✷✺✮ ♦ù ✐❧ ♥✬② ❛ ❡♥ ♠♦②❡♥♥❡ q✉❡ ✹✱✾ ❢❛✉ss❡s r❡❧❛t✐♦♥s q✉✐ s♦♥t ❛❥♦✉té❡s✳ ❈❡ ♥♦♠❜r❡ ❡st très é❧❡✈é ♣♦✉r ❧❡s ❝♦♥t❡①t❡s ❞❡ ♣❛r❛♠ètr❡s ✭✹✵ ❀ ✹✵ ❀ ✵✱✶ ❀ ✵✱✷✺✮ ❡t ✭✻✵ ❀ ✻✵ ❀ ✵✱✵✺ ❀ ✵✱✷✺✮ ✭r❡s♣❡❝t✐✈❡♠❡♥t ✽✸✱✸ ❡t ✺✷✱✶✮✳ ▲❡s rés✉❧t❛ts ❞❡ ❧❛ ré♣❛r❛t✐♦♥ ❛✈❡❝ ✉♥ ♣❛r❛♠ètr❡ α = 1 ❞❡s ❝♦♥t❡①t❡s ❞❡ t❛✐❧❧❡s 20 × 20 ❡t 40 × 40 ❛✈❡❝ ❧❡s ♠ê♠❡s ♣❛r❛♠ètr❡s ❞❡ ❜r✉✐ts pf = 0.05 ❡t pm = 0.25 s♦♥t très s❡♠❜❧❛❜❧❡s ❡t ❝❡ ♣♦✉r ❧❡s ❞❡✉① ♦♣ér❛t✐♦♥s delete ❡t add✳ ❊♥✈✐r♦♥ ✶✻ ✪ ❞❡s ❢❛✉ss❡s r❡❧❛t✐♦♥s s♦♥t s✉♣♣r✐♠é❡s ❡t ✸✼ ✪ ❞❡s r❡❧❛t✐♦♥s ♠❛♥q✉❛♥t❡s s♦♥t r❡tr♦✉✈é❡s✳ P♦✉r ❧❡ ❝♦♥t❡①t❡ ❞❡ t❛✐❧❧❡ 60 × 60 ❛✈❡❝ ❧❡s ♠ê♠❡s ♣❛r❛♠ètr❡s✱ ❧❡s rés✉❧t❛ts ❞✬❛❥♦✉ts ❞❡ r❡❧❛t✐♦♥s ♠❛♥q✉❛♥t❡s s♦♥t q✉❛s✐ ✐❞❡♥t✐q✉❡s ♠❛✐s ❧❡ ♣♦✉r❝❡♥t❛❣❡ ❞❡ ❢❛✉ss❡s r❡❧❛t✐♦♥s s✉♣♣r✐♠é❡s ✭✾✱✺ ✪✮ ❡st ♣❧✉s ❢❛✐❜❧❡✳ ▲❛ r♦❜✉st❡ss❡ ❞❡ ❧❛ ♠ét❤♦❞❡ ❛✈❡❝ ✉♥ ♣❛r❛♠ètr❡ α = 1 ❢❛❝❡ à ❧❛ ♣r♦❜❛❜✐❧✐té ❞✬❛♣♣❛r✐✲ t✐♦♥ ❞✬✉♥❡ ❢❛✉ss❡ r❡❧❛t✐♦♥ ♣❡✉t êtr❡ ét✉❞✐é❡ ❡♥ ❝♦♠♣❛r❛♥t ❧❡s ❝♦♥t❡①t❡s ❞❡ t❛✐❧❧❡ 40 × 40 ❡t pm = 0, 25 ❛✈❡❝ ✉♥❡ ♣r♦❜❛❜✐❧✐té pf q✉✐ ✈❛r✐❡ ❡♥tr❡ ✵✱✵✶✱ ✵✱✵✺ ♦✉ ✵✱✶✳ ❖♥ ♣❡✉t ✈♦✐r q✉❡ ❧❛ ♠♦②❡♥♥❡ ❞✉ ♣♦✉r❝❡♥t❛❣❡ ❞❡ ❢❛✉ss❡s r❡❧❛t✐♦♥s s✉♣♣r✐♠é❡s ❞✐♠✐♥✉❡ ❧♦rsq✉❡ pf ❛✉❣✲ ♠❡♥t❡✱ r❡s♣❡❝t✐✈❡♠❡♥t ✸✵✱✼ ✪✱ ✶✻✱✺ ✪ ❡t ✶✱✼ ✪✱ ❛✐♥s✐ q✉❡ ❧✬é❝❛rt✲t②♣❡✱ r❡s♣❡❝t✐✈❡♠❡♥t ✶✷✱✸ ✪✱ ✻ ✪✱ ✶✱✾ ✪✳ ❈❡tt❡ ♦❜s❡r✈❛t✐♦♥ ♣❡✉t êtr❡ ❡①♣❧✐q✉é❡ ♣❛r ❧❡ ❢❛✐t q✉❡ ♣❧✉s ✐❧ ② ❛ ❞❡ ❢❛✉ss❡s r❡❧❛t✐♦♥s✱ ♣❧✉s ❧❛ ♣r♦❜❛❜✐❧✐té q✉❡ ❧❡ ❝♦♥❝❡♣t ❞✬♦r✐❣✐♥❡ ❞✐s♣❛r❛✐ss❡ ❝♦♠♣❧èt❡♠❡♥t ❛✉❣♠❡♥t❡✱ ❝♦♠♠❡ ❞é❝r✐t ❞❛♥s ❧❡s éq✉❛t✐♦♥s ✭✹✳✷✮ ❡t ✭✹✳✸✮ ♣❛rt✐❡ ✹✳✶✳✶✳ ▲❡ ♣♦✉r❝❡♥t❛❣❡ ♠♦②❡♥ ❞❡ r❡❧❛t✐♦♥s ♠❛♥q✉❛♥t❡s ❛❥♦✉té❡s ❛✉❣♠❡♥t❡ ❛✈❡❝ ✉♥❡ ✈❛❧❡✉r ❞❡ pf q✉✐ ❛✉❣♠❡♥t❡✳ ◆é❛♥♠♦✐♥s✱ ❧❡ ♥♦♠❜r❡ ❞❡ r❡❧❛t✐♦♥s ♠❛♥q✉❛♥t❡s ❛❥♦✉té❡s ❡st q✉❛s✐ ✐❞❡♥t✐q✉❡ ♣♦✉r ❧❡s tr♦✐s ❝♦♥t❡①t❡s ✭✶✵✱ ✶✶ ❡t ✶✷✱✹✱ rés✉❧t❛ts ♥♦♥ ♠♦♥trés✮ ❡t ❧❡ ♥♦♠❜r❡ t♦t❛❧ ❞❡ r❡❧❛t✐♦♥s ♠❛♥q✉❛♥t❡s ét❛♥t ❢❛✐❜❧❡✱ ✉♥❡ ♣❡t✐t❡ ✈❛r✐❛t✐♦♥ ❞❛♥s ❧❡ ♥♦♠❜r❡ ❞❡ r❡❧❛t✐♦♥s ♠❛♥q✉❛♥t❡s ✐❞❡♥t✐✜é❡s ♣❡✉t ❡♥tr❛î♥❡r ✉♥❡ ❢♦rt❡ ❞✐✛ér❡♥❝❡ ❞❛♥s ❧❡s ♣♦✉r❝❡♥t❛❣❡s✳ P♦✉r ❧✬ét✉❞❡ ❞❡ ❧❛ ♣r♦❜❛❜✐❧✐té ❞❡ ❞✐s♣❛r✐t✐♦♥ ❞❡s r❡❧❛t✐♦♥s ♦r✐❣✐♥❡❧❧❡s ✭❝ré❛t✐♦♥ ❞❡ r❡❧❛t✐♦♥s ♠❛♥q✉❛♥t❡s✮ ❛✈❡❝ ✉♥ ♣❛r❛♠ètr❡ α = 1✱ tr♦✐s ❝♦♥t❡①t❡s ♦♥t été ❣é♥érés ❛✈❡❝ tr♦✐s ♣❛r❛♠ètr❡s pm ❞✐✛ér❡♥ts ✿ ✵✱✶✺✱ ✵✱✷✺ ❡t ✵✱✸✺ ❡t ❝♦♠♠❡ ♣❛r❛♠ètr❡s ✜①❡s ❧❛ t❛✐❧❧❡ ✭40 × 40✮ ❡t ❧❛ ♣r♦❜❛❜✐❧✐té ❞✬❛♣♣❛r✐t✐♦♥ ❞❡ ❢❛✉ss❡s r❡❧❛t✐♦♥s ✭pf = 0, 05✮✳ P♦✉r ❝❡s tr♦✐s ❝♦♥t❡①t❡s✱ ❧❡ ♥♦♠❜r❡ ❞❡ r❡❧❛t✐♦♥s ♠❛♥q✉❛♥t❡s r❡tr♦✉✈é❡s ❞✐♠✐♥✉❡ ❛✈❡❝ ❧❛ ✈❛❧❡✉r ❞❡ pm q✉✐ ❛✉❣♠❡♥t❡ ✭r❡s♣❡❝t✐✈❡♠❡♥t ✹✼✱✸ ✪✱ ✸✻✱✺ ✪ ❡t ✷✽✱✷ ✪✮✳ ❉❡ ❧❛ ♠ê♠❡ ❢❛ç♦♥ q✉❡ ♣♦✉r ❧❡s rés✉❧t❛ts s✉r ❧❡ ♣❛r❛♠ètr❡ pf ❝✐✲❞❡ss✉s✱ ❛✉❣♠❡♥t❡r ❧❛ ✈❛❧❡✉r ❞❡ pm r❡✈✐❡♥t à ❛✉❣♠❡♥t❡r ❧❛ ♣r♦❜❛❜✐❧✐té ❞❡ s❡ r❡tr♦✉✈❡r ❞❛♥s ❧❡s ❝❛s ❞é❝r✐ts ♣❛r ❧❡s éq✉❛t✐♦♥s ✭✹✳✽✮✱ ✭✹✳✾✮ ❡t ✭✹✳✶✵✮ ♣❛rt✐❡ ✹✳✶✳✶ ♦ù ❧❡ ❝♦♥❝❡♣t ❞✬♦r✐❣✐♥❡ ❛ ❝♦♠♣❧èt❡♠❡♥t ❞✐s♣❛r✉ ❡t ♦ù ✐❧ ♥❡ ♣❡✉t êtr❡ r❡tr♦✉✈é ❡♥ ❝r♦✐s❛♥t ❧❡s ❝♦♥❝❡♣ts ♦❜s❡r✈és✳▼ét❤♦❞❡ ❞❡ ré♣❛r❛t✐♦♥ ❞❡ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ❜r✉✐té ✾✾ ❯♥❡ ♠ét❤♦❞❡ ❞❡ ré♣❛r❛t✐♦♥ ❞❡ ❝♦♥t❡①t❡s ❜r✉✐tés ❛ été ❞é✈❡❧♦♣♣é❡ ✐❝✐✳ ❈❡tt❡ ♠ét❤♦❞❡ ❛✐❞❡ à r❡❝♦♥str✉✐r❡ ❞❡s ❝♦♥❝❡♣ts q✉✐ ❛✉r❛✐❡♥t été ♠♦❞✐✜és ♣❛r ❞✉ ❜r✉✐t ❡♥ s✬❛✐❞❛♥t ❞❡ ❧❛ str✉❝t✉r❡ ❞✉ tr❡✐❧❧✐s✳ ❊❧❧❡ s✬❛♣♣❧✐q✉❡ s✉r ❞❡s ♠❛tr✐❝❡s ❜✐♥❛✐r❡s ♦✉ ♣♦✉✈❛♥t êtr❡ ❛ss✐♠✐❧é❡s à ❞❡s ♠❛tr✐❝❡s ❜✐♥❛✐r❡s✱ ❝♦♠♠❡ ♣❛r ❡①❡♠♣❧❡ ❛✈❡❝ ❧✬✉t✐❧✐s❛t✐♦♥ ❞✬✉♥ s❡✉✐❧✳ ❉❛♥s ❧❛ s✉✐t❡ ❞❡ ❝❡tt❡ ♣❛rt✐❡✱ ❧❛ ♠ét❤♦❞❡ ❞❡ ré♣❛r❛t✐♦♥ ❡st ✉t✐❧✐sé❡ s✉r ❞❡s s✐♠✉❧❛t✐♦♥s ❞❡ rés❡❛✉① ❞✬✐♥t❡r❛❝t✐♦♥ ♠✐❝r♦❆❘◆✴❆❘◆♠✳ ✹✳✶✳✹ ❊①♣ér✐♠❡♥t❛t✐♦♥ s✉r ❞❡s ❞♦♥♥é❡s ❞❡ rés❡❛✉① ❜✐♦❧♦❣✐q✉❡s s✐♠✉❧és ■❧ ❛ ❞é❥à été ♠♦♥tré q✉✬✉♥ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ❡♥tr❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❆❘◆♠ ♣❡✉t êtr❡ ✈✉ ❝♦♠♠❡ ✉♥ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ✉♥❡ ❢♦✐s ❧❡s ✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❞✐s✲ ❝rét✐sé❡s ♣❛r ❧✬✉t✐❧✐s❛t✐♦♥ ❞✬✉♥ s❡✉✐❧✳ ❉❛♥s ❧❛ ♣❛rt✐❡ ♣ré❝é❞❡♥t❡✱ ✐❧ ❛ été ♠♦♥tré q✉❡ ❞❡s ♠♦❞✉❧❡s ❜r✉✐tés ✭❧❡s ❝♦♥❝❡♣ts✮ ❡t ❧❡✉rs r❡❧❛t✐♦♥s ✭❧❡ tr❡✐❧❧✐s✮ ♣♦✉✈❛✐❡♥t ❛✐❞❡r à ❞ét❡❝t❡r ❞❡s r❡❧❛t✐♦♥s ❢❛✉ss❡s ♦✉ ♠❛♥q✉❛♥t❡s✳ ■❝✐ ♥♦✉s ❢❛✐s♦♥s ❧✬❤②♣♦t❤ès❡ q✉❡ ❝❡tt❡ ♠ét❤♦❞❡ ❡st ❛♣♣❧✐❝❛❜❧❡ à ❧❛ ❞ét❡❝t✐♦♥ ❞❡s ❢❛✉ss❡s ♣ré❞✐❝t✐♦♥s ✐♥❞✉✐t❡s ♣❛r ❧❡s ♠ét❤♦❞❡s ❞❡ ♣ré❞✐❝✲ t✐♦♥ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❛✐♥s✐ q✉❡ ❧❡s ✈r❛✐❡s ✐♥t❡r❛❝t✐♦♥s s✉♣♣r✐♠é❡s ♣❛r ❧✬✉t✐❧✐s❛t✐♦♥ ❞✬✉♥ s❡✉✐❧✳ ▲✬✐❞é❡ ❡st ❞♦♥❝ ❞❡ ré❝✉♣ér❡r ✉♥❡ ♣❛rt✐❡ ❞❡s ❡rr❡✉rs ❞❡ ♣ré❞✐❝t✐♦♥ ❡♥ ét✉❞✐❛♥t ❧❡s ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❡t ❧❡ tr❡✐❧❧✐s ♦❜t❡♥✉s s✉r ❧❡ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s✳ P♦✉r t❡st❡r ❝❡tt❡ ✐❞é❡✱ ❞❡s rés❡❛✉① s♦♥t t♦✉t ❞✬❛❜♦r❞ s✐♠✉❧és à ♣❛rt✐r ❞❡s ♣❛r❛♠ètr❡s ♦❜t❡♥✉s s✉r ❧❡ rés❡❛✉ ❞✬❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ♣✉✐s ❧❛ ♠ét❤♦❞❡ ❡st ❛♣♣❧✐q✉é❡ s✉r ❝❡s rés❡❛✉①✳ ❙✐♠✉❧❛t✐♦♥ ❞❡ rés❡❛✉① ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ✐ss✉s ❞❡ ❝❡❧✉✐ ♣ré✲ ❞✐t ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥ s❛♥s s❡✉✐❧ ❡t ré❞✉✐t ❛✉① é❧é♠❡♥ts ❛✈❡❝ ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t❡s ❧♦rs ❞❡s ❡♠❜r②♦❣❡♥ès❡s✱ s❡✉❧ ❧❡s ✶✷ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♣♦ssé❞❛♥t ❧❡s ❞❡❣rés ❧❡s ♣❧✉s ❢❛✐❜❧❡s s♦♥t ❣❛r❞és ❛✜♥ ❞❡ ❢❛❝✐❧✐t❡r ❧✬❛♥❛✲ ❧②s❡ ❡t ❧❛ s✐♠✉❧❛t✐♦♥ ❞✉ rés❡❛✉✳ ❉❡ ♣❧✉s✱ ♣♦✉r ❝❤❛❝✉♥ ❞❡s ❝♦✉♣❧❡s ♠✐❝r♦❆❘◆✴❆❘◆♠✱ s❡✉❧ ❧❡ s✐t❡ ❞❡ ✜①❛t✐♦♥ ❛✈❡❝ ❧❡ ♣❧✉s ❢❛✐❜❧❡ s❝♦r❡ ❣❧♦❜❛❧ ❚❛r❣❡t❙❝❛♥ ❡st ❣❛r❞é ❝❛r ❝✬❡st ❧✉✐ q✉✐ ❞ét❡r♠✐♥❡ ♣♦✉r q✉❡❧ s❡✉✐❧ ❧❡ ❝♦✉♣❧❡ s❡r❛ ♣rés❡♥t ♦✉ ♥♦♥ ✭❡♥ ♥❡ ♠❡tt❛♥t ❛✉❝✉♥❡ ❝♦♥tr❛✐♥t❡ s✉r ❧❡ ♥♦♠❜r❡ ❞❡ s✐t❡s ❞❡ ✜①❛t✐♦♥✮✳ ▲❛ ❞✐str✐❜✉t✐♦♥ ❞✉ s❝♦r❡ ❞❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ♣♦✉r ❝❡ rés❡❛✉ ❧✐♠✐té à ✶✷ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❛✈❡❝ ❧❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❛✉① s❝♦r❡s ❧❡s ♣❧✉s ❢❛✐❜❧❡ ❡st ♣rés❡♥té❡ ❋✐❣✉r❡ ✹✳✷✳ ❈❡tt❡ ❞✐str✐❜✉t✐♦♥ ♣❡✉t êtr❡ ✈✉❡ ❝♦♠♠❡ ✉♥ ♠é❧❛♥❣❡ ❞❡ ❞❡✉① ❧♦✐s ❣❛✉ss✐❡♥♥❡s✳ ❖♥ s❛✐t q✉❡ ❧❡ ♥♦♠❜r❡ ❞❡ ❢❛✉ss❡s ♣ré❞✐❝t✐♦♥s ❧♦rs ❞❡ ❧❛ ❞ét❡❝t✐♦♥ ❞❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❡st é❧❡✈é ❡t q✉❡✱ ♣♦✉r ❧❛ ♠ét❤♦❞❡ ❚❛r❣❡t❙❝❛♥✱ ♣❧✉s ❧❡ s❝♦r❡ ❡st ❢❛✐❜❧❡ ♣❧✉s ❧✬❡✣❝❛❝✐té ❞❡ ❧❛ ré♣r❡ss✐♦♥ ❡st é❧❡✈é❡✳ ➚ ♣❛rt✐r ❞❡ ❝❡s ❝♦♥st❛t❛t✐♦♥s✱ ♦♥ ♣❡✉t é♠❡ttr❡ ❧✬❤②♣♦t❤ès❡ q✉❡ ❧❡s ❞❡✉① ❣❛✉ss✐❡♥♥❡s ♦❜s❡r✈é❡s s✉r ❧❛ ❞✐str✐❜✉t✐♦♥ ❞❡s s❝♦r❡s ❋✐❣✉r❡ ✹✳✷ r❡♣rés❡♥t❡♥t ❞❡✉① ❞✐str✐❜✉t✐♦♥s ❞❡ s❝♦r❡s ✿ ❧✬✉♥❡✱ ❝❡♥tré❡ s✉r ❞❡s ❢❛✐❜❧❡s ✈❛❧❡✉rs ❞❡ s❝♦r❡s ❞❡ ♠♦②❡♥♥❡ ✲✵✱✹✻✱ r❡♣rés❡♥t❡ ❧❡s s❝♦r❡s ❛ss♦❝✐és ❛✉① ✈r❛✐❡s ♣ré❞✐❝t✐♦♥s ❡t ❧❛ s❡❝♦♥❞❡✱ ❣❛✉ss✐❡♥♥❡ ❝❡♥tré❡ s✉r ❞❡s s❝♦r❡s ♣❧✉s é❧❡✈és ❞❡ ♠♦②❡♥♥❡ ✲✵✳✷✱ r❡♣rés❡♥t❡ ❧❡s ❢❛✉ss❡s ♣ré❞✐❝t✐♦♥s✳ ❆✜♥ ❞❡ ❝❛♣t✉r❡r ❧❡s ❝❛r❛❝tér✐st✐q✉❡s ❞❡ ❝❡ rés❡❛✉✱ ♣❧✉s✐❡✉rs ♣❛r❛♠ètr❡s ♦♥t été ❡①✲ tr❛✐ts ✿ ❧❡ ♥♦♠❜r❡ ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ❞✬❆❘◆♠ ❡t ❞✬✐♥t❡r❛❝t✐♦♥s✱ ❧❡s ❞❡✉① ❞✐str✐✲ ❜✉t✐♦♥ ❞❡ s❝♦r❡s ❡♥ ✉t✐❧✐s❛♥t ✉♥ ♠♦❞è❧❡ ❞❡ ♠é❧❛♥❣❡s ❣❛✉ss✐❡♥s ❡t ❧❡s ❞✐str✐❜✉t✐♦♥s ❞❡s ❞❡❣rés ♣♦✉r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s à ❧❛ ❢♦✐s ♣♦✉r ❧❡ rés❡❛✉ ❧✐♠✐té ❛✉① s❝♦r❡s très ❢❛✐❜❧❡s ❡t à ❧❛ ❢♦✐s ♣♦✉r ❧❡ rés❡❛✉ ❧✐♠✐té ❛✉① s❝♦r❡s très é❧❡✈és✳ ❈❡ rés❡❛✉ ❝♦♠♣♦rt❡ ✶✷ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ✶✳✹✻✽ ❆❘◆♠ ❡t ✷✳✶✹✵ ✐♥t❡r❛❝t✐♦♥s ✭❧❡ ♥♦♠❜r❡ ❞❡ s✐t❡s ❡t ❞✬✐♥t❡r❛❝t✐♦♥s ❡st ✐❞❡♥t✐q✉❡ ❝❛r ✉♥ s❡✉❧ s✐t❡ ❡st ❝♦♥s❡r✈é ♣❛r ❝♦✉♣❧❡✮✳✶✵✵ ❆♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❛♣♣❧✐q✉é à ✉♥ rés❡❛✉ ♠✐❝r♦❆❘◆✴❆❘◆♠ Score TargetScan Effectif −0.6 −0.4 −0.2 0.0 0 50 100 150 Gaussiennes : Vraies interactions Fausses interactions Ensemble des interactions ❋✐❣✳ ✹✳✷ ✕ ❍✐st♦❣r❛♠♠❡ ❞❡s s❝♦r❡s ❞❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ♣♦✉r ❧❡ rés❡❛✉ ❧✐♠✐té à ✶✷ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❛✈❡❝ ❧❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❛✉① s❝♦r❡s ❧❡s ♣❧✉s ❢❛✐❜❧❡✳ ▲❡ ♠♦❞è❧❡ ❞❡ ♠é❧❛♥❣❡ ❞❡ ❧♦✐s ❣❛✉ss✐❡♥♥❡s ❛ été ♦❜t❡♥✉ à ❧✬❛✐❞❡ ❞❡ ❧❛ ❢♦♥❝t✐♦♥ ❞❡♥s✐t②▼❝❧✉st ❞✉ ♣❛q✉❡t ♠❝❧✉st ❬✶✹✽✱ ✶✹✾❪ ❞✉ ❧♦❣✐❝✐❡❧ ❘✳ ▲❛ ♠ét❤♦❞❡ ✐♠♣❧é♠❡♥té❡ ♣❛r ❝❡tt❡ ❢♦♥❝t✐♦♥ ♣❡r♠❡t ❞✬♦❜t❡♥✐r ❧❡ ♠♦❞è❧❡ q✉✐ ♠❛①✐♠✐s❡ ❧❡ ❝r✐tèr❡ ❞✬✐♥❢♦r♠❛t✐♦♥ ❜❛②és✐❡♥ ❬✶✺✵❪ ✭❇■❈✮✱ ❝r✐tèr❡ q✉✐ ❞é♣❡♥❞ ❞✉ ♠❛①✐♠✉♠ ❞❡ ✈r❛✐s❡♠❜❧❛♥❝❡ ❞✉ ♠♦❞è❧❡ ❡t q✉✐ ❡st ♣é♥❛❧✐sé ♣❛r ❧❡ ♥♦♠❜r❡ ❞❡ ♣❛r❛♠ètr❡s ❞✉ ♠♦❞è❧❡ ✭✐❝✐ ❧❡ ♥♦♠❜r❡ ❧♦✐s ❣❛✉ss✐❡♥♥❡s✮✳ ▲❡ ♠♦❞è❧❡ ❛✈❡❝ ❧❛ ♣❧✉s ❣r❛♥❞❡ ✈❛❧❡✉r ❇■❈ ❡st ✉♥ ♠♦❞è❧❡ à ❞❡✉① ❝♦♠♣♦s❛♥t❡s ✿ ✶✳ ❯♥❡ ♠♦②❡♥♥❡ ❞❡ ✲✵✱✹✻✱ ✉♥❡ ✈❛r✐❛♥❝❡ ❞❡ ✵✱✵✵✹✹ ❡t ✉♥❡ ♣r♦♣♦rt✐♦♥ ❞❡ ✵✱✶✼ ♣♦✉r ❧❛ ♣r❡♠✐èr❡ ❧♦✐ ♥♦r♠❛❧❡✱ q✉❡ ♥♦✉s ❛♣♣❡❧❧❡r♦♥s N1 ❡t q✉✐ ❡st ❝♦♥s✐❞éré❡ ❝♦♠♠❡ ❧❛ ❧♦✐ ♥♦r♠❛❧❡ ❝♦rr❡s♣♦♥❞❛♥t❡ ❛✉① ✈r❛✐❡s ♣ré❞✐❝t✐♦♥s ❀ ✷✳ ❯♥❡ ♠♦②❡♥♥❡ ❞❡ ✲✵✱✷✵✱ ✉♥❡ ✈❛r✐❛♥❝❡ ❞❡ ✵✱✵✵✼✹ ❡t ✉♥❡ ♣r♦♣♦rt✐♦♥ ❞❡ ✵✱✽✸ ♣♦✉r ❧❛ s❡❝♦♥❞❡✱ q✉❡ ♥♦✉s ❛♣♣❡❧❧❡r♦♥s N2 ❡t q✉✐ ❡st ❝♦♥s✐❞éré❡ ❝♦♠♠❡ ❧❛ ❧♦✐ ♥♦r♠❛❧❡▼ét❤♦❞❡ ❞❡ ré♣❛r❛t✐♦♥ ❞❡ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ❜r✉✐té ✶✵✶ ❝♦rr❡s♣♦♥❞❛♥t❡ ❛✉① ❢❛✉ss❡s ♣ré❞✐❝t✐♦♥s✳ ❊♥ ♣❧✉s ❞❡ ❧❛ ❞✐str✐❜✉t✐♦♥ ❞❡s s❝♦r❡s✱ ❧❡s ❞✐str✐❜✉t✐♦♥s ❞❡s ❞❡❣rés ❞❡s ✶✷ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♦♥t été ♦❜s❡r✈é❡s ♣♦✉r ❧❡s ❞❡✉① ❡①tré♠✐tés ❞❡ ❧❛ ❞✐str✐❜✉t✐♦♥ ❞❡s s❝♦r❡s✳ ▲❡s ❞❡✉① ❞✐str✐❜✉t✐♦♥s ♦♥t été ❡①tr❛✐t❡s ❞❡ ❧❛ ❢❛ç♦♥ s✉✐✈❛♥t❡ ✿ ✶✳ P♦✉r ❧❛ ❞✐str✐❜✉t✐♦♥ ❞❡s ❞❡❣rés D1 ❛✈❡❝ ❞❡ ❢❛✐❜❧❡s ✈❛❧❡✉rs ❞❡ s❝♦r❡s ✿ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦✉♣❧❡s ❞❡ ♠✐❝r♦❆❘◆✴❆❘◆♠ ❛✈❡❝ ❞❡s s❝♦r❡s ♠✐♥✐♠✉♠✱ t❡❧s q✉❡ P(X ≤ s) = 0, 05 s♦✉s N2 ❀ ✷✳ P♦✉r ❧❛ ❞✐str✐❜✉t✐♦♥ ❞❡s ❞❡❣rés D2 ❛✈❡❝ ❞❡ ❢♦rt❡s ✈❛❧❡✉rs ❞❡ s❝♦r❡s ✿ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦✉♣❧❡s ❞❡ ♠✐❝r♦❆❘◆✴❆❘◆♠ ❛✈❡❝ ❞❡s s❝♦r❡s ♠❛①✐♠✉♠✱ t❡❧s q✉❡ P(X ≥ s) = 0, 05 s✉r N1✳ P♦✉r ❧❛ ♣r❡♠✐èr❡ ❞✐str✐❜✉t✐♦♥ ❞❡s ❞❡❣rés s✉r ❧❡s ✶✷ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ❝❡✉①✲❝✐ ✈❛r✐❡♥t ❡♥tr❡ ✷ ✭✶ ✪✮ ❡t ✻✹ ✭✸✵ ✪✮ ♣♦✉r ✉♥ ♥♦♠❜r❡ ♠♦②❡♥ ❞✬✐♥t❡r❛❝t✐♦♥s ❞❡ ✷✶✳ P♦✉r ❧❛ ❞❡✉①✐è♠❡ ❞✐str✐❜✉t✐♦♥ ❞❡s ❞❡❣rés✱ ✐❧s ✈❛r✐❡♥t ❡♥tr❡ ✹✸ ✭✸ ✪✮ ❡t ✷✷✶ ✭✶✺ ✪✮ ♣♦✉r ✉♥ ♥♦♠❜r❡ ♠♦②❡♥ ❞✬✐♥t❡r❛❝t✐♦♥s ❞❡ ✶✳✺✶✶✳ ▲❡s ♣❛r❛♠ètr❡s s✉✐✈❛♥ts ♦♥t été ✉t✐❧✐sés ♣♦✉r ❧❛ s✐♠✉❧❛t✐♦♥ ❞✉ rés❡❛✉ ✿ ✕ ▲❡ ♥♦♠❜r❡ nmicro ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❀ ✕ ▲❡ ♥♦♠❜r❡ narn ❞✬❆❘◆♠ ❀ ✕ ▲❡ ♥♦♠❜r❡ ninter ❞✬✐♥t❡r❛❝t✐♦♥s ❀ ✕ ▲❛ ♣r♦♣♦rt✐♦♥ p2 ❛ss♦❝✐é❡ à N2 ❀ ✕ ❉❡✉① ❧♦✐s ♥♦r♠❛❧❡s N1(µ1, σ2 1 ) ❡t N2(µ2, σ2 2 )❀ ✕ ▲❡s ♣r♦♣♦rt✐♦♥s ♠✐♥✐♠✉♠s min1 ❡t min2 ❡t ♠❛①✐♠✉♠s max1 ❡t max2 ❛ss♦❝✐és ❛✉① ❞❡✉① ❞✐str✐❜✉t✐♦♥s ❞❡s ❞❡❣rés D1 ❡t D2✳ ▲❛ s✐♠✉❧❛t✐♦♥ ❞✬✉♥ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ s✉✐✈❛♥t ❝❡s ♣❛r❛♠ètr❡s s✉✐t ❧❡ ♣r♦t♦❝♦❧❡ s✉✐✈❛♥t ✿ ✶✳ ▲❡ t✐r❛❣❡ ❛❧é❛t♦✐r❡ ❡♥ ♠♦②❡♥♥❡ ❞❡ ninter×(1−p2) ✈r❛✐❡s ✐♥t❡r❛❝t✐♦♥s ❡♥tr❡ nmicro ❡t narn✱ t❡❧ q✉❡ ❧❡s ❞❡❣rés ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s✉✐✈❡♥t ✉♥❡ ❧♦✐ ✉♥✐❢♦r♠❡ ❝♦♠♣r✐s❡ ❡♥tr❡ min1 × ninter × (1 − p2) ❡t max1 × ninter × (1 − p2)❀ ✷✳ ▲❡ t✐r❛❣❡ ❛❧é❛t♦✐r❡ ❡♥ ♠♦②❡♥♥❡ ❞❡ ninter × p2 ❢❛✉ss❡s ✐♥t❡r❛❝t✐♦♥s ❡♥tr❡ nmicro ❡t narn✱ t❡❧ q✉❡ ❧❡s ❞❡❣rés ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s✉✐✈❡♥t ✉♥❡ ❧♦✐ ✉♥✐❢♦r♠❡ ❝♦♠♣r✐s❡ ❡♥tr❡ min2 × ninter × p2 ❡t max2 × ninter × p2 ❀ ✸✳ ▲✬❛ss♦❝✐❛t✐♦♥ ❞✬✉♥ s❝♦r❡ ♣♦✉r ❧❡s ✈r❛✐❡s ✐♥t❡r❛❝t✐♦♥s s✉✐✈❛♥t ✉♥❡ ❧♦✐ ♥♦r♠❛❧❡ N1(µ1, σ2 1 ) ❡t ♣♦✉r ❧❡s ❢❛✉ss❡s ✐♥t❡r❛❝t✐♦♥s s✉✐✈❛♥t ✉♥❡ ❧♦✐ ♥♦r♠❛❧❡ N2(µ2, σ2 2 )✳ ❯♥ ❡♥s❡♠❜❧❡ ❞❡ ✶✳✵✵✵ rés❡❛✉① ❛ été s✐♠✉❧é ❛✈❡❝ ❝❡ ♣r♦t♦❝♦❧❡ ❡t ❛✈❡❝ ❧❡s ♣❛r❛♠ètr❡s ♦❜t❡♥✉s s✉r ❧❡ rés❡❛✉ ❞❡ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ✿ ✕ nmicro = 12 ❀ ✕ narn = 1.468 ❀ ✕ ninter = 2.140 ❀ ✕ p2 = 0, 83 ❀ ✕ N1(−0, 46, 0, 0044) ❡t N2(−0, 20, 0, 0074)❀ ✕ min1 = 0, 01✱ max1 = 0, 30 ❡t min2 = 0, 03 ❡t max2 = 0, 15✳ ❈♦♥tr❛✐♥t❡ s✉♣♣❧é♠❡♥t❛✐r❡ s✉r ❧❛ ré♣❛r❛t✐♦♥ ❞❡s ❝♦♥t❡①t❡s ❈♦♥tr❛✐r❡♠❡♥t ❛✉① ❝♦♥t❡①t❡s ❜r✉✐tés s✐♠✉❧és ❞✐r❡❝t❡♠❡♥t ❞❛♥s ♥♦tr❡ ♣r❡♠✐èr❡ ❡①♣ér✐♠❡♥t❛t✐♦♥✱ ✐❧ s✬❛❣✐t ✐❝✐ ❞✬♦❜t❡♥✐r ✉♥❡ r❡❧❛t✐♦♥ ❜✐♥❛✐r❡ à ♣❛rt✐r ❞✬✉♥ t❛❜❧❡❛✉ ❞❡ s❝♦r❡ ❡t ❞✬✉♥ s❡✉✐❧ s✉r ❧❡s✶✵✷ ❆♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❛♣♣❧✐q✉é à ✉♥ rés❡❛✉ ♠✐❝r♦❆❘◆✴❆❘◆♠ s❝♦r❡s✳ ▲✬❡♥s❡♠❜❧❡ ❞❡s r❡❧❛t✐♦♥s ♠❛♥q✉❛♥t❡s ♣♦t❡♥t✐❡❧❧❡s s✬♦❜t✐❡♥t ❝♦♠♠❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦✉♣❧❡s ❞❡ ♠✐❝r♦❆❘◆✴❆❘◆♠ ❛②❛♥t ✉♥ s❝♦r❡ ❞❡ ♣ré❞✐❝t✐♦♥ ❛ss♦❝✐é s✉♣ér✐❡✉r ❛✉ s❡✉✐❧ ❡t q✉✐ ♥✬♦♥t ♣❛s été ❝♦♥s❡r✈és✳ ▲❡s ❝♦✉♣❧❡s ❛✉①q✉❡❧s ❛✉❝✉♥ s❝♦r❡ ♥✬❛ été ❛ss♦❝✐é s♦♥t ❡✉① ❝♦♥s✐❞érés ❝♦♠♠❡ ❞é✜♥✐t✐✈❡♠❡♥t ♥♦♥ r❡❧✐és✳ ❯♥❡ ❝♦♥tr❛✐♥t❡ s✉r ❧✬♦♣ér❛t✐♦♥ add ❛ ❞♦♥❝ été r❛❥♦✉té❡ ✿ s❡✉❧ ❧❡s ❝♦✉♣❧❡s ♣♦✉r ❧❡sq✉❡❧s ✉♥❡ ✐♥t❡r❛❝t✐♦♥ ❛ été ♣ré❞✐t❡ ♣❡✉✈❡♥t êtr❡ ❛❥♦✉tés ❛✉ rés❡❛✉ ♣❛r ❧✬♦♣ér❛t✐♦♥ add ❘és✉❧t❛ts s✉r ❧❡s rés❡❛✉① ♠✐❝r♦❆❘◆✴❆❘◆♠ s✐♠✉❧és ▲❛ ♠ét❤♦❞❡ ❞❡ ré♣❛r❛✲ t✐♦♥ ❞❡ ❝♦♥t❡①t❡ ❛✈❡❝ ❧❛ ♥♦✉✈❡❧❧❡ ❝♦♥tr❛✐♥t❡ ❛ été ✉t✐❧✐sé❡ s✉r ❧❡s ✶✳✵✵✵ rés❡❛✉① s✐♠✉❧és ❡♥ ✉t✐❧✐s❛♥t ❞❡s s❡✉✐❧s ❞❡ ✲✵✱✷✱ ✲✵✱✷✺✱ ✲✵✱✸ ❡t ✲✵✱✸✺ ♣♦✉r ♦❜t❡♥✐r ❧❛ r❡❧❛t✐♦♥ ❜✐♥❛✐r❡✳ ❆♣rès ❛✈♦✐r ✜①é ✉♥ s❡✉✐❧✱ ❧❡s ✈r❛✐❡s ❡t ❢❛✉ss❡s ✐♥t❡r❛❝t✐♦♥s ♣rés❡♥t❡s ❡t ♠❛♥q✉❛♥t❡s s♦♥t ❞é✜♥✐s ❞❡ ❧❛ ❢❛ç♦♥ s✉✐✈❛♥t❡ ✿ ✕ ❱r❛✐❡ ✐♥t❡r❛❝t✐♦♥ ♣rés❡♥t❡ ✿ ❧✬✐♥t❡r❛❝t✐♦♥ ❡st ✈r❛✐❡ ❡t ❧❡ s❝♦r❡ ❛ss♦❝✐é ❡st ❡♥ ❞❡ss♦✉s ♦✉ é❣❛❧ ❛✉ s❡✉✐❧ ❀ ✕ ❋❛✉ss❡ ✐♥t❡r❛❝t✐♦♥ ♣rés❡♥t❡ ✿ ❧✬✐♥t❡r❛❝t✐♦♥ ❡st ❢❛✉ss❡s ❡t ❧❡ s❝♦r❡ ❛ss♦❝✐é ❡st ❡♥ ❞❡ss♦✉s ♦✉ é❣❛❧ ❛✉ s❡✉✐❧ ❀ ✕ ❱r❛✐❡ ✐♥t❡r❛❝t✐♦♥ ♠❛♥q✉❛♥t❡ ✿ ❧✬✐♥t❡r❛❝t✐♦♥ ❡st ✈r❛✐❡ ❡t ❧❡ s❝♦r❡ ❛ss♦❝✐é ❡st ❛✉✲ ❞❡ss✉s ❞✉ s❡✉✐❧ ❀ ✕ ❋❛✉ss❡ ✐♥t❡r❛❝t✐♦♥ ♠❛♥q✉❛♥t❡ ✿ ❧✬✐♥t❡r❛❝t✐♦♥ ❡st ❢❛✉ss❡ ❡t ❧❡ s❝♦r❡ ❛ss♦❝✐é ❡st ❛✉✲ ❞❡ss✉s ❞✉ s❡✉✐❧✳ ▲❡s ❡♥s❡♠❜❧❡s ❞❡s ✈r❛✐❡s ❡t ❞❡s ❢❛✉ss❡s ✐♥t❡r❛❝t✐♦♥s ♠❛♥q✉❛♥t❡s ❞é✜♥✐ss❡♥t ❧✬❡♥s❡♠❜❧❡ ❞❡s r❡❧❛t✐♦♥s ♣♦✉✈❛♥t êtr❡ ❛❥♦✉té❡s ♣❛r ❧✬♦♣ér❛t✐♦♥ add✳ ▲❡s rés✉❧t❛ts s✉r ❧❡s ♥♦♠❜r❡s ❞❡ ✈r❛✐❡s ❡t ❢❛✉ss❡s ✐♥t❡r❛❝t✐♦♥s s✉♣♣r✐♠é❡s ♣❛r ❧✬♦♣ér❛t✐♦♥ delete ❡t ❧❡s ✈r❛✐❡s ❡t ❢❛✉ss❡s ✐♥t❡r❛❝t✐♦♥s ❛❥♦✉té❡s ♣❛r ❧✬♦♣ér❛t✐♦♥ add s♦♥t rés✉♠és ❚❛❜❧❡❛✉ ✹✳✸✳ s❡✉✐❧ α delete add ✈r❛✐❡ ❢❛✉ss❡ ✈r❛✐❡ ❢❛✉ss❡ µ σ µ σ µ σ µ σ ✲✵✱✷ ✶ ✾✱✺ ✷✶✱✶ ✶✹✱✾ ✷✾✱✷ ✵ ✵ ✷✱✷ ✶✱✽ ✶✱✺ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✷ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✲✵✱✷✺ ✶ ✷✵✱✾ ✷✾✱✽ ✶✾✱✹ ✷✹✱✸ ✵ ✵ ✶✱✺ ✶✱✹ ✶✱✺ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✷ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✲✵✱✸ ✶ ✹✺✱✼ ✸✻✱✶ ✶✸✱✾ ✶✶✱✷ ✵ ✵ ✶✱✸ ✶✱✹ ✶✱✺ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✷ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✲✵✱✸✺ ✶ ✺✼ ✸✹✱✶ ✻✱✾ ✹✱✶ ✵ ✵ ✶✱✶ ✶✱✷ ✶✱✺ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✷ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ✵ ❚❛❜❧❡❛✉ ✹✳✸ ✕ ◆♦♠❜r❡ ♠♦②❡♥ ✭✓ µ ✔✮ ❞✬✐♥t❡r❛❝t✐♦♥s ✈r❛✐❡s ❡t ❢❛✉ss❡s s✉♣♣r✐♠é❡s ♦✉ ❛❥♦✉té❡s ♣❛r ❧❡s ♦♣ér❛t✐♦♥s delete ❡t add r❡s♣❡❝t✐✈❡♠❡♥t✳ ▲✬é❝❛rt✲t②♣❡ ✓ σ ✔ ❡st ❛✉ss✐ ✐♥❞✐q✉é✳ ▲❡ ♣❛r❛♠ètr❡ α ✐♥✢✉❡♥❝❡ ♣❧✉s r❛♣✐❞❡♠❡♥t ❧❡ ♥♦♠❜r❡ ❞✬✐♥t❡r❛❝t✐♦♥s s✉♣♣r✐♠é❡s ♦✉ ❛❥♦✉té❡s ❝♦♠♣❛ré ❛✉① rés✉❧t❛ts s✉r ❧❡s ❝♦♥t❡①t❡s ❜r✉✐tés✳ ■❝✐✱ ♣❧✉s ❛✉❝✉♥❡ ♠♦❞✐✜❝❛t✐♦♥▼ét❤♦❞❡ ❞❡ ré♣❛r❛t✐♦♥ ❞❡ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ❜r✉✐té ✶✵✸ ❞❡s ✐♥t❡r❛❝t✐♦♥s ♥❡ s❡ ❢❛✐t ❧♦rsq✉❡ α = 1, 5✳ ❈♦♥tr❛✐r❡♠❡♥t ❛✉① rés✉❧t❛ts s✉r ❧❡s ❝♦♥t❡①t❡s ❜r✉✐tés✱ ❛✉❝✉♥❡ ✈r❛✐❡ ✐♥t❡r❛❝t✐♦♥ ♠❛♥q✉❛♥t❡ ♥✬❡st ❛❥♦✉té❡✱ q✉❡❧q✉❡ s♦✐t ❧❡s ♣❛r❛♠ètr❡s ✉t✐❧✐sés✳ P♦✉r ❧✬♦♣ér❛t✐♦♥ delete✱ ❧❡ ♥♦♠❜r❡ ♠♦②❡♥ ❞❡ ❢❛✉ss❡s ✐♥t❡r❛❝t✐♦♥s s✉♣♣r✐♠é❡s ❡st s✉♣ér✐❡✉r ❛✉ ♥♦♠❜r❡ ♠♦②❡♥ ❞❡ ✈r❛✐❡ ✐♥t❡r❛❝t✐♦♥s s✉♣♣r✐♠é❡s ✉♥✐q✉❡♠❡♥t ♣♦✉r ❧❡ s❡✉✐❧ ❞❡ ✲✵✱✷✳ ❖♥ ♣❡✉t ❛✉ss✐ ♥♦t❡r q✉❡ ❧❡s é❝❛rt✲t②♣❡s s♦♥t s♦✉✈❡♥t très é❧❡✈és✱ ❝❡ q✉✐ ❧❛✐ss❡ s✉♣♣♦s❡r q✉❡ ❧❡s ❞✐✛ér❡♥t❡s t♦♣♦❧♦❣✐❡s ❞❡s rés❡❛✉① s✐♠✉❧és ✈❛r✐❡♥t ❢♦rt❡♠❡♥t ❡t q✉❡✱ ❝♦♠♠❡ ❛tt❡♥❞✉✱ ❝❡s ❞✐✛ér❡♥t❡s t♦♣♦❧♦❣✐❡s ✐♥✢✉❡♥❝❡♥t ❣r❛♥❞❡♠❡♥t ❧❡ rés✉❧t❛t ❞❡ ❧❛ ♠ét❤♦❞❡ ❞❡ ré♣❛r❛t✐♦♥ ❞❡ rés❡❛✉✳ ▲❡s rés✉❧t❛ts ♦❜t❡♥✉s s✉r ❧❡s rés❡❛✉① ❞✬✐♥t❡r❛❝t✐♦♥ ♠✐❝r♦❆❘◆✴❆❘◆♠ s✐♠✉❧és s♦♥t ♠♦✐♥s ❜♦♥s q✉❡ s✉r ❧❡s ❝♦♥t❡①t❡s ❜r✉✐tés ❡t ❧❡ ♥♦♠❜r❡ ❞❡ ♠❛✉✈❛✐s❡s ♠♦❞✐✜❝❛t✐♦♥s ❛♣♣♦r✲ té❡s ❡st q✉❛s✐ s②sté♠❛t✐q✉❡♠❡♥t s✉♣ér✐❡✉r ❛✉ ♥♦♠❜r❡ ❞❡ ❜♦♥♥❡s ♠♦❞✐✜❝❛t✐♦♥s✳ ◆é❛♥✲ ♠♦✐♥s✱ ❝♦♠♠❡ ❞✐t ♣ré❝é❞❡♠♠❡♥t ❡t ❡①♣❧✐q✉é ❧♦rs ❞❡ ❧❛ ❞❡s❝r✐♣t✐♦♥ ❞❡ ❧❛ ♠ét❤♦❞❡✱ ❧❛ ré♣❛r❛t✐♦♥ ❞✉ rés❡❛✉ s❡ ❜❛s❡ s✉r ✉♥❡ t♦♣♦❧♦❣✐❡ ✐♥✐t✐❛❧❡ ❞❡ rés❡❛✉ ♣r✐♥❝✐♣❛❧❡♠❡♥t ❝♦♠✲ ♣♦sé❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s q✉✐ s♦♥t ❡♥s✉✐t❡ ✉t✐❧✐sés ♣♦✉r ❞ét❡r♠✐♥❡r ❧❡s ♠♦❞✐✜❝❛t✐♦♥s ❛♣♣♦rté❡s à ❝❡s ♠ê♠❡s ❝♦♥❝❡♣ts✳ ▲♦rs ❞❡ ❧❛ s✐♠✉❧❛t✐♦♥ ❞❡s ❝♦♥t❡①t❡s ❜r✉✐tés✱ ❝❡tt❡ t♦♣♦❧♦❣✐❡ ❛ été s✐♠✉❧é❡ ❡♥ ❝ré❛♥t ♣❛r ❞é❢❛✉t ✉♥ ❡♥s❡♠❜❧❡ ❞❡ ❝♦♥❝❡♣ts✳ P♦✉r ❧❛ s✐♠✉❧❛✲ t✐♦♥ ❞✬✉♥ rés❡❛✉✱ s❡✉❧❡ ✉♥❡ ❝ré❛t✐♦♥ ❞❡s ré♣❛rt✐t✐♦♥s ❞✐✛ér❡♥t❡s ❞❡s ❞❡❣rés ❡♥tr❡ ✈r❛✐❡s ❡t ❢❛✉ss❡s ✐♥t❡r❛❝t✐♦♥s ❛ été ❡✛❡❝t✉é❡ ❝❡ q✉✐ ♥❡ ❣❛r❛♥t✐t ♣❛s ✉♥❡ t♦♣♦❧♦❣✐❡ ❝♦♥st✐t✉é❡ ♣r✐♥❝✐♣❛❧❡♠❡♥t ❞❡ ❝♦♥❝❡♣ts✳ ❆✜♥ ❞❡ ♣♦✉✈♦✐r t❡st❡r ❝♦rr❡❝t❡♠❡♥t ❧❛ ré♣❛r❛t✐♦♥ s✉r ❞❡s rés❡❛✉① ♠✐❝r♦❆❘◆✴❆❘◆♠✱ ✐❧ ❢❛✉❞r❛✐t ❡①tr❛✐r❡ ❧❡s ❝❛r❛❝tér✐st✐q✉❡s ❞❡s t♦♣♦❧♦❣✐❡s ❛✉tr❡s q✉❡ ❧❡s ❞❡❣rés ♣♦✉r ❞❡s s❝♦r❡s ❢❛✐❜❧❡s ❡t ❢♦rts sé♣❛ré♠❡♥t t♦✉t ❡♥ ❣❛r❞❛♥t ❧❛ s✐♠✉❧❛t✐♦♥ ❞❡s s❝♦r❡s ♣♦✉r ❧❡s ✈r❛✐❡s ❡t ❢❛✉ss❡s ✐♥t❡r❛❝t✐♦♥s✳ ▲❛ ♠ét❤♦❞❡ ❞❡ ré♣❛r❛t✐♦♥ ❛ été ❛❞❛♣té❡ à ❧❛ ♣ré❞✐❝t✐♦♥ ❞✬✐♥t❡r❛❝t✐♦♥ ♠✐❝r♦❆❘◆✴❆❘◆♠ ❡♥ ❛❥♦✉t❛♥t ✉♥❡ ❝♦♥tr❛✐♥t❡ s✉r ❧✬❛❥♦✉t ❞❡s r❡❧❛t✐♦♥s✳ ◆é❛♥♠♦✐♥s✱ ❝❡tt❡ ♠ét❤♦❞❡ ♥❡ ♣❡r✲ ♠❡t ♣❛s ❡♥ ❧✬ét❛t ❞❡ ré♣❛r❡r ❝♦rr❡❝t❡♠❡♥t ❞❡s rés❡❛✉① ♠✐❝r♦❆❘◆✴❆❘◆♠ s✐♠✉❧és✳ ❈❡s rés✉❧t❛ts ♣❡✉✈❡♥t ✈❡♥✐r ❞❡ ❧❛ str✉❝t✉r❡ ❞❡ ❝♦♥❝❡♣ts ❞✉ rés❡❛✉ ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆✳ ♣✐s✉♠✱ ❝❡ q✉✐ r❡♥❞ ♥é❝❡ss❛✐r❡ ❧❛ ✈✐s✉❛❧✐s❛t✐♦♥ ❞❡ ❝❡ rés❡❛✉✳ ▲❛ ♣❛rt✐❡ s✉✐✈❛♥t❡ ✐♥tr♦❞✉✐t ❧❛ ✈✐s✉❛❧✐s❛t✐♦♥ ❞❡s ❝♦♥❝❡♣ts✱ q✉✐ ❡st ❧✐é à ❧❛ ✈✐s✉❛❧✐s❛t✐♦♥ ❞❡ ❣r❛♣❤❡ ❜✐♣❛rt✐✳✶✵✹ ❆♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❛♣♣❧✐q✉é à ✉♥ rés❡❛✉ ♠✐❝r♦❆❘◆✴❆❘◆♠ ✹✳✷ ❱✐s✉❛❧✐s❛t✐♦♥ ❞✉ rés❡❛✉ ♣❛r r❡❣r♦✉♣❡♠❡♥t ❞❡s ✐♥t❡r❛❝✲ t✐♦♥s ▲❡ ♥♦♠❜r❡ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ♣rés❡♥ts ❞❛♥s ❧❡ rés❡❛✉ ❡st tr♦♣ ✐♠♣♦r✲ t❛♥t ♣♦✉r ♣♦✉✈♦✐r ❡♥ ❢♦✉r♥✐r ✉♥❡ ✈✐s✉❛❧✐s❛t✐♦♥ ❝❧❛✐r❡✱ ✐♥t❡r♣rét❛❜❧❡ ♣❛r ✉♥ s♣é❝✐❛❧✐st❡✳ ❆✜♥ ❞✬♦❜t❡♥✐r ✉♥❡ ✈✐s✉❛❧✐s❛t✐♦♥ s②♥t❤ét✐q✉❡ ❞✉ rés❡❛✉✱ ❧✬✐❞é❡ ❡st ❞❡ r❡❣r♦✉♣❡r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❧❡s ❆❘◆♠ q✉✐ ♦♥t ✉♥ ♠ê♠❡ ❝♦♠♣♦rt❡♠❡♥t ✈✐s✲à✲✈✐s ❞❡s ✐♥t❡r✲ ❛❝t✐♦♥s✳ ■❧ s✬❛❣✐t ❞♦♥❝ ❞❡ ✓ ❝♦♥❝❡♣t✉❛❧✐s❡r ✔ ❧❡ rés❡❛✉✱ ❛✉ s❡♥s ❞❡ ❧✬❆❈❋✱ ❡♥ ♠❡tt❛♥t ❡♥ é✈✐❞❡♥❝❡ ❧❡s r❡❣r♦✉♣❡♠❡♥ts s♦✉s ❢♦r♠❡ ❞❡ ❝♦♥❝❡♣ts ❡t ❡♥ s②♠❜♦❧✐s❛♥t ❧✬❡♥s❡♠❜❧❡ ❞❡s ✐♥✲ t❡r❛❝t✐♦♥s q✉✬✐❧s r❡♣rés❡♥t❡♥t ♣❛r ✉♥❡ s❡✉❧❡ ❛rêt❡ ❡♥tr❡ ❧❡s ❣r♦✉♣❡s ❝♦♥st✐t✉és✳ ❖♥ ré❞✉✐t ❛✐♥s✐ ❢♦rt❡♠❡♥t ❧❡ ♥♦♠❜r❡ ❞✬❛rêt❡s à ✈✐s✉❛❧✐s❡r✳ ❉✬✉♥ ♣♦✐♥t ❞❡ ✈✉❡ t❤é♦r✐q✉❡✱ ✉♥ rés❡❛✉ ♠✐❝r♦❆❘◆✴❆❘◆♠ ❡st ✉♥ ❣r❛♣❤❡ ❜✐♣❛rt✐ ❡t ✉♥ ❝♦♥❝❡♣t ❡st ✉♥❡ ❜✐❝❧✐q✉❡ ❞❡ t❛✐❧❧❡ ♠❛①✐✲ ♠❛❧❡ ❞❡ ❝❡ ❣r❛♣❤❡✳ ❱✐s✉❛❧✐s❡r ❧✬❡♥s❡♠❜❧❡ ❞❡s ✐♥t❡r❛❝t✐♦♥s à ❧✬❛✐❞❡ ❞❡ ❝♦♥❝❡♣ts r❡✈✐❡♥t à ❝♦✉✈r✐r ❧❡ ❣r❛♣❤❡ ♣❛r ✉♥ ❡♥s❡♠❜❧❡ ❞❡ ❜✐❝❧✐q✉❡s✳ ▲❛ ❝♦✉✈❡rt✉r❡ ❞✬✉♥ ❣r❛♣❤❡ ❜✐♣❛rt✐ ♣❛r ✉♥❡ ♣❛rt✐❡✱ ♠✐♥✐♠✉♠ ♦✉ ♥♦♥✱ ❞❡ s❡s ❜✐❝❧✐q✉❡s ♠❛①✐♠❛❧❡s ❡st ✉♥ ♣r♦❜❧è♠❡ ét✉❞✐é ❞❡♣✉✐s q✉❡❧q✉❡s ❛♥♥é❡s ❬✶✺✶✱ ✶✺✷❪ ❡t q✉✐ ❡st ✉t✐❧✐sé ❡♥ ❜✐♦✲✐♥❢♦r♠❛t✐q✉❡ ❬✶✺✸❪✳ ❯♥❡ ❞❡s ♠ét❤♦❞❡s ❞❡ ❝♦✉✈❡rt✉r❡ ❞❡ ❣r❛♣❤❡ ❜✐♣❛rt✐ ♣❛r s❡s ❜✐❝❧✐q✉❡s✱ P♦✇❡r ●r❛♣❤ ✭P●✮✱ ❛ été ❞é✈❡❧♦♣♣é❡ ♣❛r ❘♦②❡r ❡t ❛❧✳ ❬✶✺✹❪✳ ❊❧❧❡ ❡st ✉t✐❧✐sé❡ ❞❛♥s ❞✐✛ér❡♥t❡s ét✉❞❡s s✉r ❞❡s rés❡❛✉① ❜✐♦❧♦❣✐q✉❡s ❬✶✺✹✱ ✶✺✺✱ ✶✺✻❪ ♦✉ ❡♥❝♦r❡ s✉r ❞❡s rés❡❛✉① s♦❝✐❛✉① ❬✶✺✼✱ ✶✺✽❪✳ ❉❛♥s ✉♥❡ ♣r❡♠✐èr❡ s♦✉s✲♣❛rt✐❡ ❧❛ ♠ét❤♦❞❡ s❡r❛ t♦✉t ❞✬❛❜♦r❞ ❞é❝r✐t❡✱ ♣✉✐s ✉♥❡ r❡✲ ❝♦♥str✉❝t✐♦♥ r❛t✐♦♥♥❡❧❧❡ ❞❡ P● s❡r❛ ♣r♦♣♦sé❡ ❞❛♥s ❧❡ ❝❛❞r❡ ❞❡ ❧✬❆❈❋✳ ❉❛♥s ✉♥ tr♦✐s✐è♠❡ t❡♠♣s✱ ♥♦✉s ♣rés❡♥t❡r♦♥s ❧❡s rés✉❧t❛ts ❞❡ ❧❛ ré❞✉❝t✐♦♥ ❞❡ ❧❛ ❝♦♠♣❧❡①✐té ❞❡ ♥♦tr❡ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ♣❛r P● ❡t ♥♦✉s t❡r♠✐♥❡r♦♥s ❡♥ ♠♦♥tr❛♥t ❧❡s ♣♦ss✐❜✐❧✐tés ét❡♥❞✉❡s q✉❡ ♣❡r♠❡t ❧✬❆❈❋ ♣♦✉r ♣r♦❞✉✐r❡ ❞❡s ✈✐s✉❛❧✐s❛t✐♦♥s ❡t ❞❡s ❛♥❛❧②s❡s ❛❧t❡r♥❛t✐✈❡s✳ ✹✳✷✳✶ ❉❡s❝r✐♣t✐♦♥ ❞❡ ❧❛ ♠ét❤♦❞❡ ❞❡ ❝♦♠♣r❡ss✐♦♥ ❡t ❞❡ ✈✐s✉❛❧✐s❛t✐♦♥ P♦✇❡r ●r❛♣❤ ▲❛ ❞❡s❝r✐♣t✐♦♥ ❞❡ ❧❛ ♠ét❤♦❞❡ ❡st t✐ré❡ ❞❡ ❧✬❛rt✐❝❧❡ ❬✶✺✹❪✳ ➱t❛♥t ❞♦♥♥é ✉♥ ❣r❛♣❤❡ G = (V, E) ♦ù ❱ ❡st ❧✬❡♥s❡♠❜❧❡ ❞❡s ♥÷✉❞s ❡t E ⊆ V × V ❡st ❧✬❡♥s❡♠❜❧❡ ❞❡s ❛rêt❡s✱ ✉♥ ♣♦✇❡r ❣r❛♣❤ ✭P●✮ G0 = (V 0 , E0 ) ❡st ✉♥ ❡♥s❡♠❜❧❡ ❞❡ ♣♦✇❡r ♥♦❞❡s V 0 ⊆ P(V ) r❡❣r♦✉♣❛♥t ❞❡s ♥÷✉❞s r❡❧✐és ♣❛r ✉♥ ❡♥s❡♠❜❧❡ ❞❡ ♣♦✇❡r ❡❞❣❡s E0 ⊆ V 0 × V 0 ✳ ❙✐ ❞❡✉① ♣♦✇❡r ♥♦❞❡s s♦♥t r❡❧✐és ♣❛r ✉♥ ♣♦✇❡r ❡❞❣❡ ❞❛♥s G0 ✱ ❛❧♦rs t♦✉s ❧❡s ♥÷✉❞s ♣rés❡♥ts ❞❛♥s ❧❡ ♣r❡♠✐❡r ♣♦✇❡r ♥♦❞❡ s♦♥t r❡❧✐és ♣❛r ✉♥❡ ❛rêt❡ à t♦✉s ❧❡s ♥÷✉❞s ❞❛♥s ❧❡ ❞❡✉①✐è♠❡ ♣♦✇❡r ♥♦❞❡ ❞❛♥s G✳ ❚r♦✐s ❝♦♥tr❛✐♥t❡s s♦♥t ♥é❝❡ss❛✐r❡s ♣♦✉r ❢♦✉r♥✐r ✉♥❡ ✈✐s✉❛❧✐s❛t✐♦♥ ❝❧❛✐r❡ ❞✉ P● G0 ✿ ✶✳ ❍✐ér❛r❝❤✐❡ ❞❡s ♣♦✇❡r ♥♦❞❡s ✿ ❞❡✉① ♣♦✇❡r ♥♦❞❡s s♦♥t s♦✐t ❞✐st✐♥❝ts ❧✬✉♥ ❞❡ ❧✬❛✉tr❡✱ s♦✐t ❧✬✉♥ ✐♥❝❧✉s ❞❛♥s ❧✬❛✉tr❡ ❀ ✷✳ ❈♦✉✈❡rt✉r❡ ❞❡s ❛rêt❡s ✿ t♦✉t❡ ❛rêt❡ ❞✉ ❣r❛♣❤❡ G ❡st r❡♣rés❡♥té❡ ♣❛r ✉♥ ♣♦✇❡r ❡❞❣❡ ❞❛♥s G0 ❀ ✸✳ P❛rt✐t✐♦♥♥❡♠❡♥t ❞❡s ♣♦✇❡r ❡❞❣❡s ✿ ✉♥❡ ❛rêt❡ ❞✉ ❣r❛♣❤❡ G ❡st r❡♣rés❡♥té❡ ♣❛r ✉♥ s❡✉❧ ♣♦✇❡r ❡❞❣❡ ❞❛♥s G0 ❀ ▲✬❛❧❣♦r✐t❤♠❡ ✉t✐❧✐sé ♣♦✉r ❞ét❡❝t❡r ❧❡ P● ♠✐♥✐♠❛❧ ❞✬✉♥ ❣r❛♣❤❡ ❞♦♥♥é r❡❝❤❡r❝❤❡ t♦✉t ❞✬❛❜♦r❞ ❧✬❡♥s❡♠❜❧❡ ❞❡s ♣♦✇❡r ♥♦❞❡s ♣♦ss✐❜❧❡s ♣❛r ✉♥ ❝❧✉st❡r✐♥❣ ❤✐ér❛r❝❤✐q✉❡ ❬✶✺✾❪ ♣✉✐s❱✐s✉❛❧✐s❛t✐♦♥ ❞✉ rés❡❛✉ ♣❛r r❡❣r♦✉♣❡♠❡♥t ❞❡s ✐♥t❡r❛❝t✐♦♥s ❡♥ ❝❧✉st❡r ✶✵✺ ❛❥♦✉t❡ ❧❡s ♣♦✇❡r ❡❞❣❡s ♣❛r ✉♥❡ ♦♣t✐♠✐s❛t✐♦♥ ❣❧♦✉t♦♥♥❡✳ ■❧ s✬❛❣✐t ❞♦♥❝ ❞✬✉♥ ❛❧❣♦r✐t❤♠❡ ❞✬♦♣t✐♠✐s❛t✐♦♥ ❧♦❝❛❧✱ q✉✐ ♥❡ ❣❛r❛♥t✐t ♣❛s ❞❡ tr♦✉✈❡r ❧❡ ♠✐♥✐♠✉♠ ❣❧♦❜❛❧ r❡❝❤❡r❝❤é✳ ❘❡❝❤❡r❝❤❡ ❞❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ♣♦✇❡r ♥♦❞❡s ♣♦ss✐❜❧❡s ▲✬❡♥s❡♠❜❧❡ ❞❡s ♣♦✇❡r ♥♦❞❡s ♣♦ss✐❜❧❡s ❡st ♦❜t❡♥✉ ♣❛r ✉♥ ❝❧✉st❡r✐♥❣ ❤✐ér❛r❝❤✐q✉❡ ❡♥ ✉t✐❧✐s❛♥t ❧✬✐♥❞✐❝❡ ❞❡ ❏❛❝❝❛r❞ ❬✶✷✵❪ ❝♦♠♠❡ ♠❡s✉r❡ ❞❡ s✐♠✐❧❛r✐té ❡♥tr❡ ❧❡s ♥÷✉❞s✳ P♦✉r ❝❡❧❛✱ ❧✬✐♥❞✐❝❡ ❞❡ ❏❛❝❝❛r❞ ✉t✐❧✐s❡ ❧❛ ♥♦t✐♦♥ ❞❡ ♣r❡♠✐❡r ✈♦✐s✐♥✱ ♦✉ ✈♦✐s✐♥ ❞✐r❡❝t ❞✬✉♥ ♥÷✉❞ ✿ ❧✬❡♥s❡♠❜❧❡ ❞❡s ♣r❡♠✐❡rs ✈♦✐s✐♥s ❞✬✉♥ ♥÷✉❞ u ❡st ❝♦♥st✐t✉é ❞❡s ♥÷✉❞s ❡♥ ✐♥t❡r❛❝t✐♦♥ ❞✐r❡❝t❡ ❛✈❡❝ ♥÷✉❞ u✳ ▲✬✐♥❞✐❝❡ ❞❡ ❏❛❝q✉❛r❞ ❡♥tr❡ ❞❡✉① ♥÷✉❞s ❡st ✿ J(N1, N2) = (N1 ∩ N2)/(N1 ∪ N2)✱ ♦ù N1 ❡st ❧✬❡♥s❡♠❜❧❡ ❞❡s ♣r❡♠✐❡rs ✈♦✐s✐♥s ❞✉ ♣r❡♠✐❡r ♥÷✉❞ ❡t N2 ❧✬❡♥s❡♠❜❧❡ ❞❡s ♣r❡♠✐❡rs ✈♦✐s✐♥s ❞✉ s❡❝♦♥❞ ♥÷✉❞✳ ▲✬✐♥❞✐❝❡ ❞❡ ❏❛❝q✉❛r❞ ❡st ❞♦♥❝ ❝♦♠♣r✐s ❡♥tr❡ ✵ ✭❧❡s ❞❡✉① ♥÷✉❞s ♥✬♦♥t ❛✉❝✉♥ ✈♦✐s✐♥ ❡♥ ❝♦♠♠✉♥✮ ❡t ✶ ✭❧❡s ❞❡✉① ♥÷✉❞s ♦♥t ❧❡s ♠ê♠❡s ✈♦✐s✐♥s✮✳ ❘❡❝❤❡r❝❤❡ ❞❡s ♣♦✇❡r ❡❞❣❡s ▲❛ ❣é♥ér❛t✐♦♥ ❞❡s ♣♦✇❡r ❡❞❣❡s ❞✉ ♣♦✇❡r ❣r❛♣❤ ✭P●✮ ❡st ❡✛❡❝t✉é❡ ♣❛r ✉♥❡ r❡❝❤❡r❝❤❡ ❣❧♦✉t♦♥♥❡ q✉✐ ♣❡r♠❡t ❞✬♦❜t❡♥✐r ❧❛ s♦❧✉t✐♦♥ ♠✐♥✐♠❛❧❡ ♦✉ ✉♥❡ ❛♣♣r♦①✐♠❛t✐♦♥ ❞❡ ❝❡tt❡ s♦❧✉t✐♦♥ ❬✶✻✵❪✳ P♦✉r ❝❤❛q✉❡ ♣❛✐r❡ ❞❡ ♣♦✇❡r ♥♦❞❡s ♦❜t❡♥✉❡✱ ✉♥ ♣♦✇❡r ❡❞❣❡ ♣❡✉t êtr❡ ❛ss♦❝✐é✳ ➚ ❝❤❛q✉❡ ✐tér❛t✐♦♥ ❞❡ ❧❛ r❡❝❤❡r❝❤❡✱ ❧❡ ♣♦✇❡r ❡❞❣❡ q✉✐ ♣❡r♠❡t ❞❡ ré❞✉✐r❡ ❛✉ ♠✐❡✉① ❧❡ ♥♦♠❜r❡ ❞✬❛rêt❡s ❞✉ ❣r❛♣❤❡✱ ❝✬❡st✲à✲❞✐r❡ ❝❡❧❧❡ q✉✐ ❝♦✉✈r❡ ❧❛ ♣❧✉s ❣r❛♥❞❡ s✉r❢❛❝❡ t♦✉t ❡♥ ✈ér✐✜❛♥t ❧❡s ❝♦♥❞✐t✐♦♥s s✉r ❧❡s ♣♦✇❡r ♥♦❞❡s ❡t ❧❡s ♣♦✇❡r ❡❞❣❡s✱ ❡st ❛❥♦✉té✳ ❙✐ ✉♥❡ ♣♦✇❡r ❡❞❣❡ ❡st ❝réé❡ ❡♥tr❡ ❞❡✉① ♣♦✇❡r ♥♦❞❡s ♣♦t❡♥t✐❡❧✱ ❛❧♦rs ❝❡s ❞❡✉① ♣♦✇❡r ♥♦❞❡s s♦♥t ❛❥♦✉tés ❞❛♥s ❧❡ P●✳ ▲❡s ✐♥t❡r❛❝t✐♦♥s ❝♦✉✈❡rt❡s ♣❛r ❝❡tt❡ ♣♦✇❡r ❡❞❣❡ s♦♥t ♦té❡s ❞✉ ❣r❛♣❤❡ ❡t ❧❛ r❡❝❤❡r❝❤❡ ❝♦♥t✐♥✉❡✳ ➚ ♥♦t❡r q✉✬✉♥ ♣♦✇❡r ♥♦❞❡ ♣❡✉t ♥❡ ❝♦♥t❡♥✐r q✉✬✉♥ s❡✉❧ ♥÷✉❞✳ ❉✐s♣♦♥✐❜✐❧✐té ❞❡ ❧❛ ♠ét❤♦❞❡ ▲❛ ♠ét❤♦❞❡ ❞✬❛❜str❛❝t✐♦♥ ❞✬✉♥ ❣r❛♣❤❡ ❡♥ P● ❡st ❞✐s♣♦♥✐❜❧❡ s♦✉s ❧❛ ❢♦r♠❡ ❞✬✉♥ ♠♦❞✉❧❡✱ ❈②❖♦❣✱ ♣♦✉r ❧❡ ❧♦❣✐❝✐❡❧ ❈②t♦s❝❛♣❡ ❬✶✻✶❪✱ ✉♥ ♦✉t✐❧ ❞❡ ✈✐s✉❛❧✐s❛t✐♦♥ ❡t ❞✬❛♥❛❧②s❡ ❞❡ ❣r❛♣❤❡✳ ❈❡ ♠♦❞✉❧❡ ❡st ❛✉ss✐ ❞✐s♣♦♥✐❜❧❡ s✉r ✐♥t❡r♥❡t ❞❛♥s ✉♥❡ ✈❡rs✐♦♥ ♣ré✲✐♥st❛❧❧é❡✶ ✳ ✹✳✷✳✷ P❛r❛❧❧è❧❡ ❡♥tr❡ P♦✇❡r ●r❛♣❤ ❡t ❧✬❆❈❋ ❉❛♥s ❧❡ ❝❛s ♣❛rt✐❝✉❧✐❡r ♦ù G ❡st ✉♥ ❣r❛♣❤❡ ❜✐♣❛rt✐✱ ✐❧ ❡①✐st❡ ✉♥ ♣❛r❛❧❧è❧❡ ❡♥tr❡ ❧❛ ♠♦❞é❧✐s❛t✐♦♥ ❡t ❧❛ ré❞✉❝t✐♦♥ ♣❛r ❧❛ ♠ét❤♦❞❡ ❞❡ P● ❞✉ rés❡❛✉ ❡t ❧✬❆❈❋ s✉r ❝❡ ♠ê♠❡ rés❡❛✉✳ ❊♥ ❡✛❡t✱ ✉♥ ❝♦♥❝❡♣t ❢♦r♠❡❧ C = (A, B) ♣❡✉t êtr❡ ✈✉ ❝♦♠♠❡ ✉♥ ❡♥s❡♠❜❧❡ ❞❡ ❞❡✉① ♣♦✇❡r ♥♦❞❡s ❡t ❞✬✉♥❡ ♣♦✇❡r ❡❞❣❡✳ ▲❡s ❞❡✉① ♣♦✇❡r ♥♦❞❡s s♦♥t ❝♦♥st✐t✉és ♣♦✉r ❧✬✉♥ ❞❡s é❧é♠❡♥ts ❞❡ A✱ ♣♦✉r ❧✬❛✉tr❡ ❞❡s é❧é♠❡♥ts ❞❡ B✱ ❡t ❧❛ ♣♦✇❡r ❡❞❣❡ ❝♦✉✈r❡ ❧❡s ❛rêt❡s ❞❡ A × B✳ ❉❡ ❝❡ ❢❛✐t✱ ❧❡ tr❡✐❧❧✐s ❞❡s ❝♦♥❝❡♣ts✱ ❞♦♥❝ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts✱ é♥✉♠èr❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s tr✐♣❧❡ts (P N1, P N2, P E1,2) ♠❛①✐♠❛✉① ♦ù P N1 ❡t P N2 s♦♥t ❞❡✉① ♣♦✇❡r ♥♦❞❡s ♣♦t❡♥t✐❡❧s ❡t P E1,2 ❧❡ ♣♦✇❡r ❡❞❣❡ ♣♦t❡♥t✐❡❧ ❡♥tr❡ P N1 ❡t P N2✳ ■❧s s♦♥t ♠❛①✐♠❛✉① ❞❛♥s ❧❡ s❡♥s ♦ù ❧❛ ❝♦✉✈❡rt✉r❡ ❡♥ ♥♦♠❜r❡ ❞✬❛rêt❡s ❞❡ P E1,2 ❡st ♠❛①✐♠❛❧❡ ♣♦✉r P N1 ❡t P N2✳ ✶✇✇✇✳❜✐♦t❡❝✳t✉✲❞r❡s❞❡♥✳❞❡✴r❡s❡❛r❝❤✴s❝❤r♦❡❞❡r✴♣♦✇❡r❣r❛♣❤s✴❞♦✇♥❧♦❛❞✲❝②t♦s❝❛♣❡✲♣❧✉❣✐♥✳❤t♠❧✶✵✻ ❆♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❛♣♣❧✐q✉é à ✉♥ rés❡❛✉ ♠✐❝r♦❆❘◆✴❆❘◆♠ ▲❡s tr♦✐s ❝♦♥tr❛✐♥t❡s ❞❡s P●✱ ❤✐ér❛r❝❤✐❡ ❞❡s ♣♦✇❡r ♥♦❞❡s✱ ❝♦✉✈❡rt✉r❡ ❞❡s ♣♦✇❡r ❡❞❣❡s ❡t ♣❛rt✐t✐♦♥♥❡♠❡♥t ❞❡s ❛rêt❡s ♣❡✉✈❡♥t êtr❡ tr❛♥s♣♦sé❡s ❡♥ t❡r♠❡ ❞✬❆❈❋✳ ❖♥ ♥♦t❡ choix(Ci) ❧❡ ❝❤♦✐① ❞✬✉♥ ❝♦♥❝❡♣t Ci = (Ai , Bi) r❡♣rés❡♥t❛♥t ❞❡✉① ♣♦✇❡r ♥♦❞❡s ❡t ✉♥ ♣♦✇❡r ❡❞❣❡✳ ❖♥ ♥♦t❡ Ii = Ai × Bi ❧✬❡♥s❡♠❜❧❡ ❞❡s ❛rêt❡s ❝♦✉✈❡rt❡s ♣❛r ❝❡ ❝♦♥❝❡♣t ❡t e ✉♥❡ ❛rêt❡ ❞✉ ❣r❛♣❤❡ G✳ ▲❡s ❝♦♥tr❛✐♥t❡s ♣❡✉✈❡♥t ❛❧♦rs êtr❡ ❞é✜♥✐❡s ❞❡ ❧❛ ❢❛ç♦♥ s✉✐✈❛♥t❡ ✿ ✶✳ ❍✐ér❛r❝❤✐❡ ❞❡s ♣♦✇❡r ♥♦❞❡s ❡♥ ❆❈❋ ✿ ∀C1, C2 (choix(C1) ∧ choix(C2)) ⇒ (A1 ∩ A2) ∈ {∅, A1, A2} ∧ (B1 ∩ B2) ∈ {∅, B1, B2}✳ ❉❡✉① ❝♦♥❝❡♣ts ❝❤♦✐s✐s ♦♥t ❧❡✉rs ❡♥s❡♠❜❧❡s A1, A2 ❡t B1, B2 s♦✐t ❞✐s❥♦✐♥ts✱ s♦✐t ❧✬✉♥ ✐♥❝❧✉s ❞❛♥s ❧✬❛✉tr❡ ❀ ✷✳ ❈♦✉✈❡rt✉r❡ ❞❡s ❛rêt❡s ❡♥ ❆❈❋ ✿ ∀e ∃choix(C1) ∧ e ∈ I1✳ P♦✉r t♦✉t❡ ❧❡s ❛rêt❡s e ❞❡ G✱ ✐❧ ❡①✐st❡ ✉♥ ❝♦♥❝❡♣t ❝❤♦✐s✐ q✉✐ ❝♦✉✈r❡ ❝❡tt❡ ❛rêt❡ ❀ ✸✳ P❛rt✐t✐♦♥♥❡♠❡♥t ❞❡s ♣♦✇❡r ❡❞❣❡s ❡♥ ❆❈❋ ✿ ∀C1 6= C2 (choix(C1) ∧ choix(C2)) ⇒ I1 ∩ I2 = ∅✳ ❉❡✉① ❝♦♥❝❡♣ts ❝❤♦✐s✐s ❝♦✉✈r❡♥t ❞❡s ❛rêt❡s ❞✐✛ér❡♥t❡s ❞❡ G✳ ▲❡s ❝♦♥tr❛✐♥t❡s ❞❡ ❤✐ér❛r❝❤✐❡ ❡t ❞❡ ♣❛rt✐t✐♦♥♥❡♠❡♥t ♣❡✉✈❡♥t êtr❡ ❡①♣r✐♠é❡s ❝♦♠♠❡ ❞❡s ❝♦♥tr❛✐♥t❡s s✉r ❧❡ tr❡✐❧❧✐s ❞❡ ❧❛ ❢❛ç♦♥ s✉✐✈❛♥t❡ ✿ ✶✳ ❍✐ér❛r❝❤✐❡ ❞❡s ♣♦✇❡r ♥♦❞❡s s✉r ❧❡ tr❡✐❧❧✐s ✿ ∀C1, C2 (choix(C1) ∧ choix(C2)) ⇒ sup(C1, C2) ∈ {C1, C2, >} ∧ inf(C1, C2) ∈ {C1, C2, ⊥} ❡t sup(C1, C2) = > ∧ C1 6= C2 6= > ⇒ intension(>) = ∅ ❡t inf(C1, C2) = ⊥ ∧ C1 6= C2 6= ⊥ ⇒ extension(⊥) = ∅✱ ❛✈❡❝ sup ❡t inf q✉✐ r❡♥✈♦✐❡♥t r❡s♣❡❝t✐✈❡♠❡♥t ❧❛ ❜♦r♥❡ s✉♣é✲ r✐❡✉r❡ ❡t ❧❛ ❜♦r♥❡ ✐♥❢ér✐❡✉r❡ ❞❡ ❞❡✉① ❝♦♥❝❡♣ts ❡t intension ❡t extension q✉✐ r❡♥✲ ✈♦✐❡♥t r❡s♣❡❝t✐✈❡♠❡♥t ❧✬✐♥t❡♥s✐♦♥ ❡t ❧✬❡①t❡♥s✐♦♥ ❞✬✉♥ ❝♦♥❝❡♣t✳ ❙♦✐t ❞❡✉① ❝♦♥❝❡♣ts ♦♥t ❝♦♠♠❡ ❜♦r♥❡ s✉♣ér✐❡✉r❡ ❡t ❝♦♠♠❡ ❜♦r♥❡ ✐♥❢ér✐❡✉r❡ ❧✬✉♥ ❡t ❧✬❛✉tr❡ ❞❡s ❞❡✉① ❝♦♥❝❡♣ts✳ ❙♦✐t ❞❡✉① ❝♦♥❝❡♣ts ❞✐✛ér❡♥ts ❝❤♦✐s✐s ♦♥t ❝♦♠♠❡ ❜♦r♥❡ s✉♣ér✐❡✉r❡ ❧❡ s✉✲ ♣r❡♠✉♠ ❞✉ tr❡✐❧❧✐s ✭>✮ ❡t ❝♦♠♠❡ ❜♦r♥❡ ✐♥❢ér✐❡✉r❡ ❧✬✐♥✜♠✉♠ ❞✉ tr❡✐❧❧✐s ✭⊥✮ ❡t ❧✬✐♥t❡♥s✐♦♥ ❞✉ s✉♣r❡♠✉♠ ❡t ❧✬❡①t❡♥s✐♦♥ ❞❡ ❧✬✐♥✜♠✉♠ s♦♥t é❣❛✉① à ❧✬❡♥s❡♠❜❧❡ ✈✐❞❡ ❀ ✷✳ P❛rt✐t✐♦♥♥❡♠❡♥t ❞❡s ♣♦✇❡r ❡❞❣❡s s✉r ❧❡ tr❡✐❧❧✐s ✿ ∀C1, C2 choix(C1, C2) ⇒ C1 ≮ C2 ∧ C1 ≯ C2✳ ❉❡✉① ❝♦♥❝❡♣ts ❝❤♦✐s✐s s♦♥t ✐♥❝♦♠♣❛r❛❜❧❡s✳ ❉❡ ♣❧✉s✱ ❧❡s ét❛♣❡s ❞❡ sé❧❡❝t✐♦♥ ❞❡s ♣♦✇❡r ❡❞❣❡s ❝♦rr❡s♣♦♥❞❡♥t à ❞❡s sé❧❡❝t✐♦♥s ❞❡ ❝♦♥❝❡♣ts ❡t s♦✉s✲❝♦♥❝❡♣ts ❞❛♥s ❧❡ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ❞✉ ❣r❛♣❤❡ G✱ ✉♥ s♦✉s✲❝♦♥❝❡♣t ét❛♥t ❞é✜♥✐ ❝♦♠♠❡ ✉♥❡ ❜✐❝❧✐q✉❡ rés✉❧t❛♥t ❞❡ ❧❛ s✉♣♣r❡ss✐♦♥ ❞✬✉♥❡ ♣❛rt✐❡ ❞❡s r❡❧❛t✐♦♥s ❝♦✉✲ ✈❡rt❡s ♣❛r ✉♥ ♦✉ ❞❡✉① ❛✉tr❡s ❛✉tr❡ ❝♦♥❝❡♣ts✳ ▲❡s r❡❧❛t✐♦♥s s♦♥t s✉♣♣r✐♠é❡s s✐ ❡❧❧❡s s♦♥t ❝♦✉✈❡rt❡s ♣❛r ✉♥ ♣♦✇❡r ❡❞❣❡ sé❧❡❝t✐♦♥♥é✳ ❖♥ r❡tr♦✉✈❡ ❞❛♥s ❝❡ ♣r♦❝❡ss✉s ❞❡ s✉♣♣r❡s✲ s✐♦♥ ✉♥❡ ♣❛rt✐❡ ❞❡ ❧❛ ❞é✜♥✐t✐♦♥ ❞❡s r❡❧❛t✐♦♥s ♠❛♥q✉❛♥t❡s ❞é❝r✐t❡ s✉r ❧❛ ré♣❛r❛t✐♦♥ ❞❡s ❝♦♥t❡①t❡s ❢♦r♠❡❧s ❜r✉✐tés ✭♣❛rt✐❡ ✹✳✶✳✶✮✳ ❖♥ ♣❡✉t ❞♦♥❝ ❧à ❛✉ss✐ ❞é✜♥✐r ✉♥ ♦♣ér❛t❡✉r ❛✜♥ ❞❡ ❝❛r❛❝tér✐s❡r ❧✬❛❝t✐♦♥ ❞❡ s✉♣♣r❡ss✐♦♥ ❞✬✉♥ ❝♦♥❝❡♣t s✉r ✉♥ ❛✉tr❡ ❝♦♥❝❡♣t ✿ ❉é✜♥✐t✐♦♥ ✹✳✸ ➱t❛♥t ❞♦♥♥és ❞❡✉① ❝♦♥❝❡♣ts C i = (Ai , Bi ) ❡t C j = (Aj , Bj )✱ ❧✬♦♣ér❛t❡✉r ❞❡ s♦✉str❛❝t✐♦♥ s(., .) ❡st ❞é✜♥✐ ❝♦♠♠❡ s(C i , Cj ) = (Ai×Bi\Aj ×Bj ) s✐ C i < Cj∨C i > C j ❡t s(C i , Cj ) = (Ai × Bi ) s✐♥♦♥✳ ➚ ♣❛rt✐r ❞✬✉♥ ❝♦♥❝❡♣t C i ❞♦♥♥é✱ ❧✬♦♣ér❛t❡✉r s r❡♥✈♦✐❡ ✉♥ r❡❝t❛♥❣❧❡ ❝♦♥st✐t✉é ❞❡ ❧❛ s♦✉str❛❝t✐♦♥ ❞✬✉♥ ❝♦♥❝❡♣t C j ❛✉ ❝♦♥❝❡♣t ✐♥✐t✐❛❧ C i s✬✐❧s s♦♥t s✉r ✉♥❡ ♠ê♠❡ ❝❤❛î♥❡✳ ❙✐♥♦♥ ❧✬♦♣ér❛t❡✉r r❡♥✈♦✐❡ ❧❡ ❝♦♥❝❡♣t C i ✐♥✐t✐❛❧✳ ➚ ❧✬❛✐❞❡ ❞❡ ❧✬♦♣ér❛t❡✉r s✱ ❧❡s ❛rêt❡s ❡t ❧❡s ♥÷✉❞s ❞é❥à ❝♦✉✈❡rts ♣❛r ✉♥ ❝♦♥❝❡♣t ♣❡✉✈❡♥t êtr❡ ❡♥❧❡✈és ❞❡s ❛✉tr❡s ❝♦♥❝❡♣ts s✐t✉és s✉r ❧❛ ♠ê♠❡ ❝❤❛î♥❡✳ ❈❡t ♦♣ér❛t❡✉r ❡st s✐♠✐❧❛✐r❡ à ❧✬♦♣ér❛t❡✉r e ❞é✜♥✐ s✉r ❧❛ ré♣❛r❛t✐♦♥ ❞❡s ❝♦♥t❡①t❡s ❢♦r♠❡❧s ❜r✉✐tés✳ ❆♣♣❧✐q✉❡r ❧✬♦♣ér❛t❡✉r s r❡✈✐❡♥t à ❛♣♣❧✐q✉❡r ❧✬♦♣ér❛t❡✉r e s✉r ❞❡✉① ❝♦♥❝❡♣ts ❞✬✉♥❡ ♠ê♠❡ ❝❤❛î♥❡✳❱✐s✉❛❧✐s❛t✐♦♥ ❞✉ rés❡❛✉ ♣❛r r❡❣r♦✉♣❡♠❡♥t ❞❡s ✐♥t❡r❛❝t✐♦♥s ❡♥ ❝❧✉st❡r ✶✵✼ ❖♥ ♣❡✉t ❞é✜♥✐r ✉♥ ♦♣ér❛t❡✉r ❞❡ ❞♦✉❜❧❡ s♦✉str❛❝t✐♦♥ ❝♦♠♠❡ ✉♥❡ ❡①t❡♥s✐♦♥ ❞❡ ❧✬♦♣é✲ r❛t❡✉r ❞❡ s♦✉str❛❝t✐♦♥ q✉✐ ♣❡r♠❡t ❞❡ ❢♦r♠❛❧✐s❡r ❧❛ s♦✉str❛❝t✐♦♥ ❞❡ ❞❡✉① ❝♦♥❝❡♣ts à ✉♥ s❡✉❧ ✿ ❉é✜♥✐t✐♦♥ ✹✳✹ ➱t❛♥t ❞♦♥♥és tr♦✐s ❝♦♥❝❡♣ts C i = (Ai , Bi )✱ C j = (Aj , Bj ) ❡t C k = (Ak , Bk )✱ ❧✬♦♣ér❛t❡✉r ❞❡ ❞♦✉❜❧❡ s♦✉str❛❝t✐♦♥ s2(., ., .) ❡st ❞é✜♥✐ ❝♦♠♠❡ s2(C i , Cj , Ck ) = (Ai × Bi \ (Aj × Bj ∪ Ak × Bk )) s✐ C k < Ci < Cj ❡t s2(C i , Cj , Ck ) = (Ai × Bi ) s✐♥♦♥✳ ❈❡tt❡ ♦♣ér❛t❡✉r s2 ♣❡r♠❡t ❞❡ s♦✉str❛✐r❡ ❞❡✉① ❝♦♥❝❡♣ts C j ❡t C k à ✉♥ ❝♦♥❝❡♣t C i s✐ ✐❧s s♦♥t t♦✉s s✉r ❧❛ ♠ê♠❡ ❝❤❛î♥❡✱ ❝✬❡st✲à✲❞✐r❡ ✉♥ ♠ê♠❡ ❝❤❡♠✐♥ s✉r ❧❡ tr❡✐❧❧✐s✳ ➚ ❧✬❛✐❞❡ ❞❡ ❝❡s ❞❡✉① ♦♣ér❛t❡✉rs ❞❡ s♦✉str❛❝t✐♦♥✱ ♦♥ ♣❡✉t ❞é✜♥✐r ✉♥❡ r❡♣rés❡♥t❛t✐♦♥ ✐♥s♣✐ré❡ ♣❛r ❧❡s P●✳ ❖♥ ♥♦t❡ valide(C) ❧❡ ❢❛✐t q✉❡ ❧❡s ♣♦✇❡r ♥♦❞❡s ❡t ♣♦✇❡r ❡❞❣❡s ♦❜t❡♥✉s à ♣❛rt✐r ❞✬✉♥ ❡♥s❡♠❜❧❡ C ❞❡ ❝♦♥❝❡♣ts ♦✉ s♦✉s✲❝♦♥❝❡♣ts r❡s♣❡❝t❡♥t ❧❡s ❝♦♥❞✐t✐♦♥s ❞❡ ❤✐ér❛r❝❤✐❡ ❡t ❞❡ ♣❛rt✐t✐♦♥♥❡♠❡♥t✳ ▲❛ str❛té❣✐❡ s✉✐✈❛♥t❡ ❛ été ♠✐s❡ ❡♥ ♣❧❛❝❡ ♣♦✉r ♦❜t❡♥✐r ❧❛ ré❞✉❝t✐♦♥ G0 ❞✬✉♥ ❣r❛♣❤❡ ❜✐♣❛rt✐ G à ❧✬❛✐❞❡ ❞❡ s♦♥ ❡♥s❡♠❜❧❡ ❞❡ ❝♦♥❝❡♣t C à ❧✬❛✐❞❡ ❞❡ ❧✬❆❈❋ ✿ ✶✳ ■♥✐t✐❛❧✐s❛t✐♦♥ ✿ ♣rétr❛✐t❡♠❡♥t ❞❡s ❞♦♥♥é❡s ❜r✉t❡s ♣♦✉r ♦❜t❡♥✐r ❧❡s ❢❛✐ts ♥é❝❡ss❛✐r❡s ♣♦✉r ❧❛ s✉✐t❡ ❞✉ ♣r♦❣r❛♠♠❡ ❀ ✷✳ ❙é❧❡❝t✐♦♥ ❞❡s ❝♦♥❝❡♣ts ✿ sé❧❡❝t✐♦♥ ❞✬✉♥ ❡♥s❡♠❜❧❡ C1 ❞❡s ❝♦♥❝❡♣ts t❡❧ q✉❡ ✿ valide(C1)❀ ✸✳ ❙é❧❡❝t✐♦♥ ❞❡s s♦✉s✲❝♦♥❝❡♣ts ♣❛r s✐♠♣❧❡ s♦✉str❛❝t✐♦♥ ✿ sé❧❡❝t✐♦♥ ❞✬✉♥ ❡♥s❡♠❜❧❡ C2 ❞❡ s♦✉s✲❝♦♥❝❡♣ts t❡❧ q✉❡ ✿ valide(C1 ∪ C2) ❡t ∀C s ∈ C2 ⇒ ∃C1 ∈ (C \ C1) ∧ ∃C2 ∈ C1 ∧ s(C1, C2) = C s ✳ ▲✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts C1 ∈ (C \ C1) ✉t✐❧✐sé ♣♦✉r ♦❜t❡♥✐r C2 ❡st ♥♦té C 0 2 ❀ ✹✳ ❙é❧❡❝t✐♦♥ ❞❡s s♦✉s✲❝♦♥❝❡♣ts ♣❛r ❞♦✉❜❧❡ s♦✉str❛❝t✐♦♥ ✿ sé❧❡❝t✐♦♥ ❞✬✉♥ ❡♥s❡♠❜❧❡ C3 ❞❡ s♦✉s✲❝♦♥❝❡♣ts t❡❧ q✉❡ ✿ valide(C1 ∪ C2 ∪ C3) ❡t ∀C s2 ∈ C3 ⇒ ∃C1 ∈ (C \ (C1 ∪ C 0 2 )) ∧ ∃C2, C3 ∈ (C1 ∪ C2) ∧ s2(C1, C2, C3) = C s2 ❀ ✺✳ ❖♣t✐♠✐s❛t✐♦♥ ✿ ❝❛❧❝✉❧ ❞❡ ❧❛ s✉r❢❛❝❡ ❝♦✉✈❡rt❡ ♣❛r C1 ∪ C2 ∪ C3 ❡t ♠❛①✐♠✐s❛t✐♦♥ ❞❡ ❝❡tt❡ s✉r❢❛❝❡✳ ❈❡tt❡ ♠ét❤♦❞❡ ♣❡r♠❡t ❞❡ ❞é✜♥✐r ✉♥ r❡❣r♦✉♣❡♠❡♥t ❞❡s ♥÷✉❞s ❡t ❞❡s ❛rêt❡s ❜❛sé s✉r ❧❡s ❝♦♥❝❡♣ts ❡t ❧✬❛♣♣❧✐❝❛t✐♦♥ ❞❡s ♦♣ér❛t❡✉rs s ❡t s2✳ ▲✬❛✈❛♥t❛❣❡ ❞❡ ❝❡tt❡ ♠ét❤♦❞❡ ❡st q✉❡ ❧✬♦♣t✐♠✉♠ ❞❡ ❧✬ét❛♣❡ ✺ ♣❡✉t êtr❡ ❛✣♥é ♣♦✉r ♦♣t✐♠✐s❡r ❞✐✛ér❡♥ts ❝r✐tèr❡s ❞❡ r❡❣r♦✉♣❡♠❡♥t✳ P❛r ❡①❡♠♣❧❡✱ ❞❛♥s ♥♦tr❡ ❝❛s ❞✬✉♥ rés❡❛✉ ♠✐❝r♦❆❘◆✴❆❘◆♠✱ ♦♥ ♣❡✉t ✈♦✉❧♦✐r ❢❛✈♦r✐s❡r ❧❡ r❡❣r♦✉♣❡♠❡♥t ❞❡s ♠✐❝r♦❆❘◆ ♦✉ ❡♥❝♦r❡ ❢❛✈♦r✐s❡r ❧❡ r❡❣r♦✉♣❡♠❡♥t ❞❡s ❆❘◆♠ ♣♦ssé❞❛♥t ❞❡s ❛♥♥♦t❛t✐♦♥s s✐♠✐❧❛✐r❡s✳ ❉❛♥s ❧❛ s✉✐t❡ ❞❡ ❧❛ t❤ès❡✱ ❧❛ ♠ét❤♦❞❡ P● ❡t ♥♦tr❡ ♠ét❤♦❞❡ ❜❛sé❡ s✉r ❧✬❆❈❋ s♦♥t ❛♣♣❧✐q✉é❡s ❛✉ rés❡❛✉ ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠✳ ◆♦✉s ♥✬❛✈♦♥s ♣❛s ❡✉ ❧❡ t❡♠♣s ❞❡ ❞é✈❡❧♦♣♣❡r ❡♥ ♣r♦❢♦♥❞❡✉r ❧❛ ♠ét❤♦❞❡ ♣❛r ❆❈❋ ❡t ❧❡s rés✉❧t❛ts ♣rés❡♥tés ✐❝✐ ❞♦✐✈❡♥t ❞♦♥❝ êtr❡ ❝♦♥s✐❞érés ❝♦♠♠❡ ♣ré❧✐♠✐♥❛✐r❡s✳ ✹✳✷✳✸ ❆♣♣❧✐❝❛t✐♦♥ ❛✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥ ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆❝②r✲ t❤♦s✐♣❤♦♥ ♣✐s✉♠ ▲✬❡♥s❡♠❜❧❡ ❞❡s ✈✐s✉❛❧✐s❛t✐♦♥s ❛ été ♣r♦❞✉✐t ❡♥ ✉t✐❧✐s❛♥t ❧❡ ♠♦❞✉❧❡ ❈②❖♦❣ ❬✶✺✹❪✳ ▲❛ ♠ét❤♦❞❡ P● ❛ été ✉t✐❧✐sé❡ s✉r ♥♦tr❡ rés❡❛✉ ❛✈❡❝ ❧❡s ✈❛❧❡✉rs ♣❛r ❞é❢❛✉t ✭❋✐❣✉r❡ ✹✳✸✮✳ ▲✬❡①tr❛❝t✐♦♥ ❛ ♣❡r♠✐s ❞❡ ré❞✉✐r❡ ♥♦tr❡ rés❡❛✉ ❞❡ ✶✺ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ✶✳✽✶✵ ❆❘◆♠✶✵✽ ❆♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❛♣♣❧✐q✉é à ✉♥ rés❡❛✉ ♠✐❝r♦❆❘◆✴❆❘◆♠ ❡t ✷✳✷✺✵ ✐♥t❡r❛❝t✐♦♥s à ✶✹ ♣♦✇❡r ♥♦❞❡s r❡❣r♦✉♣❛♥t ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✭♣♦✇❡r▼✐✲ ❝r♦✮✱ ✹✾ ♣♦✇❡r ♥♦❞❡s r❡❣r♦✉♣❛♥t ❞❡s ❆❘◆♠ ✭♣♦✇❡r❆❘◆✮ ❡t ✾✽ ♣♦✇❡r ❡❞❣❡s✳ ▲❡ ❢❛❝t❡✉r ❞❡ ré❞✉❝t✐♦♥ ❛♣♣♦rté ❡st ❞♦♥❝ ❞❡ ✾✺✱✻ ✪ s✉r ❧❡ ♥♦♠❜r❡ ❞✬❛rêt❡s✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ✶✹ ♣♦✇❡r▼✐❝r♦✱ ✉♥ s❡✉❧ ❡st ❝♦♥st✐t✉é ❞❡ ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✳ ▲❡s ✶✸ ❛✉tr❡s ✐♥❝❧✉❡♥t ✉♥ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ s❡✉❧❡♠❡♥t✳ ▲❡s ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❛✉ s❡✐♥ ❞✉ ♠ê♠❡ ♣♦✲ ✇❡r▼✐❝r♦ s♦♥t ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❛♣✐✲♠✐r✲✶✹✲✸♣ ❡t ❛♣✐✲♠✐r✲✸✹✲✺♣✳ ▲❡s ❆❘◆♠ s❡ r❡❣r♦✉♣❡♥t ❞❛♥s ✹✾ ♣♦✇❡r❆❘◆ ❡t t♦✉s ❧❡s ♣♦✇❡r❆❘◆ ✐♥❝❧✉❡♥t ♣❧✉s✐❡✉rs ❆❘◆♠✳ ▼ê♠❡ ❛♣rès ❧❛ ré❞✉❝t✐♦♥ ❞✉ ♥♦♠❜r❡ ❞✬❛rêt❡s✱ ❧❡ rés❡❛✉ r❡st❡ t♦✉✛✉ s✉rt♦✉t à ❝❛✉s❡ ❞❡ ❧❛ t❛✐❧❧❡ ❞❡s ♣♦✇❡r❆❘◆✳ ❋✐❣✳ ✹✳✸ ✕ P♦✇❡r ❣r❛♣❤ ❞✉ ❣r❛♣❤❡ ❞✬✐♥t❡r❛❝t✐♦♥ ❡♥tr❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❆❘◆♠ ❛✈❡❝ ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t✐❡❧❧❡s ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠✳ ▲❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ♣♦✇❡r▼✐❝r♦ s♦♥t ❡♥ r♦✉❣❡ ❡t ❧❡s ❆❘◆♠ ❡t ♣♦✇❡r❆❘◆ ❡♥ ❜❧❡✉✳ ■♠❛❣❡ ♦❜t❡♥✉❡ ❣râ❝❡ ❛✉ ♠♦❞✉❧❡ ❈②❖♦❣✳ ◆♦✉s ❛✈♦♥s ❞♦♥❝ ❞é❝✐❞é ❞❡ s✉♣♣r✐♠❡r ❧❡s ♥÷✉❞s q✉✐ ♥❡ ♣❛rt✐❝✐♣❡♥t q✉✬❛ ✉♥❡ s❡✉❧❡ ❛rêt❡✱ ✐❝✐ ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s q✉✐ ❝✐❜❧❡♥t ✉♥ s❡✉❧ ♠✐❝r♦❆❘◆ ❡t ❧❡s ❆❘◆♠ ❝✐❜❧és ♣❛r ✉♥ s❡✉❧ ♠✐❝r♦❆❘◆✳ ❈❡s ✐♥t❡r❛❝t✐♦♥s s♦♥t ❡♥ ❡✛❡t s♣é❝✐✜q✉❡s ❞✬✉♥ ♠✐❝r♦❆❘◆ ♦✉ ❞✬✉♥ ❆❘◆♠ ❡t ♣❡✉✈❡♥t êtr❡ s✐♠♣❧❡♠❡♥t ❧✐sté❡s à ♣❛rt✳ ❆✉❝✉♥ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ♥✬❡st s✉♣♣r✐♠é ❡t ✶✳✹✷✻ ❆❘◆♠ s♦♥t s✉♣♣r✐♠és✱ ♣♦✉r ✉♥ ♥♦♠❜r❡ t♦t❛❧ ❞✬❆❘◆♠ ❞❛♥s ❧❡ ♥♦✉✲ ✈❡❛✉ rés❡❛✉ ❞❡ ✸✽✹✳ ▲❡ P● ♦❜t❡♥✉ s✉r ❝❡ ♥♦✉✈❡❛✉ rés❡❛✉ ❞❡ ✽✷✹ ✐♥t❡r❛❝t✐♦♥s✱ q✉❡ ♥♦✉s ❛♣♣❡❧❧❡r♦♥s ✓ ♣❡t✐t rés❡❛✉ ✔ ♣♦✉r ♣❧✉s ❞❡ s✐♠♣❧✐❝✐té✱ ❡st ♣rés❡♥té ❋✐❣✉r❡ ✹✳✹✳ ❙✉r ❝❡ ✓ ♣❡t✐t rés❡❛✉ ✔✱ ♦♥ ♦❜t✐❡♥t ✶✷ ♣♦✇❡r▼✐❝r♦✱ ✹✸ ♣♦✇❡r❆❘◆ ❡t ✾✶ ♣♦✇❡r ❡❞❣❡s❱✐s✉❛❧✐s❛t✐♦♥ ❞✉ rés❡❛✉ ♣❛r r❡❣r♦✉♣❡♠❡♥t ❞❡s ✐♥t❡r❛❝t✐♦♥s ❡♥ ❝❧✉st❡r ✶✵✾ ❋✐❣✳ ✹✳✹ ✕ P♦✇❡r ❣r❛♣❤ ❞✉ ✓ ♣❡t✐t rés❡❛✉ ✔✳ ▲❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ♣♦✇❡r▼✐❝r♦ s♦♥t ❡♥ r♦✉❣❡ ❡t ❧❡s ❆❘◆♠ ❡t ♣♦✇❡r❆❘◆ ❡♥ ❜❧❡✉✳ ■♠❛❣❡ ♦❜t❡♥✉❡ ❣râ❝❡ ❛✉ ♠♦❞✉❧❡ ❈②❖♦❣✳ ♣♦✉r ✉♥ ❢❛❝t❡✉r ❞❡ ré❞✉❝t✐♦♥ ❞❡ ✾✵ ✪✳ ❙✉r ❧❡s ✶✷ ♣♦✇❡r▼✐❝r♦✱ tr♦✐s ✐♥❝❧✉❡♥t ❞❡✉① ♠✐✲ ❝r♦❆❘◆ ♠❛t✉r❡s✳ ❈❡s tr♦✐s r❡❣r♦✉♣❡♠❡♥t s♦♥t ✿ ❛♣✐✲♠✐r✲✶✲✸♣ ❛✈❡❝ ❛♣✐✲♠✐r✲✽✼✲✸♣✱ ❛♣✐✲ ♠✐r✲✸✵✸✽✲✸♣ ❛✈❡❝ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✽✸✲✺♣ ❡t ❛♣✐✲♠✐r✲✶✹✲✸♣ ❛✈❡❝ ❛♣✐✲♠✐r✲✸✹✲✺♣✳ ❙✉r ❧❡s ✹✸ ♣♦✇❡r❆❘◆✱ ✹✶ ✐♥❝❧✉❡♥t ♣❧✉s✐❡✉rs ❆❘◆♠✳ ▲❡s ♣❧✉s ❣r❛♥❞❡s ré❞✉❝t✐♦♥s ❡♥tr❡ ❧❡ rés❡❛✉ ❞✬♦r✐❣✐♥❡ ❡t ❧❡ ✓ ♣❡t✐t rés❡❛✉ ✔ ♥❡ s✬♦♣èr❡♥t ♣❛s s✉r ❧❡ ♥♦♠❜r❡ ❞❡ ♣♦✇❡r ❡❞❣❡s✱ q✉✐ ♣❛ss❡ ❞❡ ✾✽ à ✾✶ ✭❧❡ ❢❛❝t❡✉r ❞❡ ré❞✉❝t✐♦♥ ❡st ❡♥ ❢❛✐t ❧é❣èr❡♠❡♥t ✐♥❢ér✐❡✉r✮✱ ♠❛✐s s✉r ❧❛ t❛✐❧❧❡ ❞❡s ♣♦✇❡r❆❘◆ ❛✐♥s✐ q✉✬✉♥ ♠❡✐❧❧❡✉r r❡❣r♦✉♣❡♠❡♥t ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❛✉ s❡✐♥ ❞❡s ♣♦✇❡r▼✐❝r♦✳ ◆♦tr❡ ♠ét❤♦❞❡ ❞❡ ✈✐s✉❛❧✐s❛t✐♦♥ ❜❛sé❡ s✉r ❧✬❆❈❋ ❛ é❣❛❧❡♠❡♥t été ❛♣♣❧✐q✉é❡ ❛✉ ✓ ♣❡t✐t rés❡❛✉ ✔ ✭❋✐❣✉r❡ ✹✳✺✮✳ ▲❛ ♠ét❤♦❞❡ ❣é♥èr❡ ✉♥ ❡♥s❡♠❜❧❡ ❞❡ ✶✶ ♣♦✇❡r▼✐❝r♦✱ ✹✷ ♣♦✇❡r❆❘◆ ❡t ✷✹✷ ♣♦✇❡r ❡❞❣❡s ♣♦✉r ✉♥ ❢❛❝t❡✉r ❞❡ ré❞✉❝t✐♦♥ ❞❡ ✼✵ ✪✳ ❙✉r ❧❡s ✶✶ ♣♦✇❡r▼✐❝r♦✱ q✉❛tr❡ ✐♥❝❧✉❡♥t ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t s✉r ❧❡s ✹✷ ♣♦✇❡r❆❘◆✱ ♥❡✉❢ ✐♥❝❧✉❡♥t ♣❧✉s✐❡✉rs ❆❘◆♠✳ ▲❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s r❡❣r♦✉♣és s♦♥t ✿ ❛♣✐✲♠✐r✲✸✵✸✽✲✸♣ ❡t ❛♣✐✲♠✐r✲♥♦✈❡❧✶✽✸✲ ✺♣✱ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹✻✲✺♣ ❡t ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣✱ ❛♣✐✲♠✐r✲✶✲✸♣ ❡t ❛♣✐✲♠✐r✲✽✼✲✸♣ ❡t ✜♥❛❧❡♠❡♥t ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣ ❡t ❛♣✐✲♠✐r✲✷✻✸❛✲✺♣✳ ❯♥❡ ♣r❡♠✐èr❡ ❝♦♠♣❛r❛✐s♦♥ ❡♥tr❡ ❝❡tt❡ ♠ét❤♦❞❡ ❡t ❧❛ ♠ét❤♦❞❡ P● ❡st q✉❡ ❧❛ ré❞✉❝t✐♦♥ s✉r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡st s✉♣ér✐❡✉r❡✱ q✉❛tr❡ ♣♦✇❡r▼✐❝r♦ ❝♦♥tr❡ tr♦✐s q✉✐ ✐♥❝❧✉❡♥t ♣❧✉s✐❡✉rs ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ♠❛✐s ❧❛ ré❞✉❝t✐♦♥ s✉r ❧❡s ❛rêt❡s ❡st ❣r❛♥❞❡♠❡♥t ✐♥❢ér✐❡✉r❡✱ ✷✹✷ ❝♦♥tr❡ ✾✶✳ ❉❡ ❢❛ç♦♥ ♣✉r❡♠❡♥t ✈✐s✉❡❧❧❡✱ ✐❧✶✶✵ ❆♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❛♣♣❧✐q✉é à ✉♥ rés❡❛✉ ♠✐❝r♦❆❘◆✴❆❘◆♠ s❡♠❜❧❡ q✉❡ ❝❡rt❛✐♥s r❡❣r♦✉♣❡♠❡♥t ❞✬❆❘◆♠ ❞❛♥s ❞❡s ♣♦✇❡r❆❘◆ ♣♦✉rr❛✐❡♥t ❡♥❝♦r❡ êtr❡ ❡✛❡❝t✉és✳ ❈❡❝✐ ✐♥❞✐q✉❡ q✉❡ ❧❛ ♠ét❤♦❞❡ ❞é✈❡❧♦♣♣é❡ ❛✈❡❝ ❧✬❆❈❋ ♥❡ ♣❡r♠❡t ♣♦✉r ❧✬✐♥st❛♥t ♣❛s ❞❡ ré❝✉♣ér❡r ❧✬❡♥s❡♠❜❧❡ ❞❡s r❡❣r♦✉♣❡♠❡♥ts ♣♦ss✐❜❧❡s✳ ❈❡❝✐ ❡①♣❧✐q✉❡r❛✐t ❧❡ ♥♦♠❜r❡ ♣❧✉s ❢❛✐❜❧❡ ❞❡ ♣♦✇❡r❆❘◆ ✐♥❝❧✉❛♥t ♣❧✉s✐❡✉rs ❆❘◆♠✱ ✾ ❝♦♥tr❡ ✹✶✳ ❉❡ ♣❧✉s✱ ♦♥ ♣❡✉t ✈♦✐r q✉❡ ❧❡s r❡❣r♦✉♣❡♠❡♥ts ❡✛❡❝t✉és s✉r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s♦♥t ❞✐✛ér❡♥ts ✿ ❛♣✐✲♠✐r✲ ✶✹✲✸♣ ❡t ❛♣✐✲♠✐r✲✸✹✲✺♣ ♥❡ s♦♥t ♣❧✉s r❡❣r♦✉♣és ❡♥s❡♠❜❧❡ ♣❛r ❡①❡♠♣❧❡✳ ▲✬✐♥térêt ❞❡ ❧❛ ♠ét❤♦❞❡ ❜❛sé❡ s✉r ❧❡s ❝♦♥❝❡♣ts rés✐❞❡ ❞❛♥s ❧❛ ✢❡①✐❜✐❧✐té ❞❡ s❛ ❢♦♥❝t✐♦♥ ♦❜❥❡❝t✐❢ q✉✐ ♣❡✉t êtr❡ ♠♦❞✐✜é❡ ♣♦✉r ♦♣t✐♠✐s❡r ❞✬❛✉tr❡s ❝r✐tèr❡s q✉❡ s✐♠♣❧❡♠❡♥t ❧❛ s✉r❢❛❝❡ ❝♦✉✈❡rt❡✳ ▲❛ ❋✐❣✉r❡ ✹✳✻ ♣rés❡♥t❡ ❧❛ ré❞✉❝t✐♦♥ ❞✉ ✓ ♣❡t✐t rés❡❛✉ ✔ ♣❛r ❧❛ ♠ét❤♦❞❡ ❜❛sé❡ s✉r ❧✬❆❈❋✱ ♠❛✐s ♦ù ❝❡tt❡ ❢♦✐s ❝✐ ♥♦✉s ❛✈♦♥s ✉t✐❧✐sé ❞❡✉① ❝r✐tèr❡s ❞✬♦♣t✐♠✐s❛t✐♦♥✳ ◆♦✉s ❛✈♦♥s ♣r♦❝é❞é ❞❡ ❢❛ç♦♥ ♣r✐♦r✐t❛✐r❡ à ✉♥❡ ♦♣t✐♠✐s❛t✐♦♥ ❞✉ r❡❝♦✉✈r❡♠❡♥t ❞❡s ❛rêt❡s ❝♦rr❡s✲ ♣♦♥❞❛♥t❡s à ❞❡s ❝♦✉♣❧❡s ❞❡ t②♣❡ ✓ ❝♦♥tr❛✐r❡ ✔ ✭❚❛❜❧❡❛✉ ✹✳✹ ♣♦✉r ❧❛ ❧✐st❡ ❞❡s ❝♦✉♣❧❡s ✓ ❝♦♥tr❛✐r❡s ✔✮ ♣✉✐s ✉t✐❧✐sé ❧✬♦♣t✐♠✐s❛t✐♦♥ ❞❡ ❧❛ ❝♦✉✈❡rt✉r❡ ♣♦✉r ❞é♣❛rt❛❣❡r ❧❡s ❡① ❛❡✲ q✉♦✳ ▲❡ rés✉❧t❛t ❝♦♠♣♦rt❡ ✶✷ ♣♦✇❡r▼✐❝r♦✱ ✹✶ ♣♦✇❡r❆❘◆ ❡t ✷✻✺ ♣♦✇❡r ❡❞❣❡s✳ ❙✉r ❧❡s ✶✺ ♣♦✇❡r▼✐❝r♦ ✿ ✉♥ ✐♥❝❧✉t ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✭❛♣✐✲♠✐r✲✸✶✻✲✺♣ ❡t ❛♣✐✲♠✐r✲✶✹✲✸♣✮ ❡t ✉♥ ❞❡✉①✐è♠❡ ✐♥❝❧✉t tr♦✐s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✭❛♣✐✲♠✐r✲♥♦✈❡❧✶✹✻✲✺♣✱ ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣ ❡t ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣✮✳ P❛r♠✐ ❧❡s ✹✶ ♣♦✇❡r❆❘◆✱ ♥❡✉❢ ✐♥❝❧✉❡♥t ♣❧✉s✐❡✉rs ❆❘◆♠✳ ▲❡s r❡✲ ❣r♦✉♣❡♠❡♥ts ♦❜t❡♥✉s s♦♥t ❛ss❡③ ❞✐✛ér❡♥ts ❡♥tr❡ ❧❡s ❞❡✉① ✈✐s✉❛❧✐s❛t✐♦♥s ❣é♥éré❡s ♣❛r ❞❡s ♦♣t✐♠✐s❛t✐♦♥s ❞✐✛ér❡♥t❡s✱ ♥♦t❛♠♠❡♥t s✉r ❧❡s ♣♦✇❡r▼✐❝r♦✳ ❯♥❡ ❢♦✐s ❡♥❝♦r❡✱ ♦♥ ❝♦♥st❛t❡ ❞❡s r❡❣r♦✉♣❡♠❡♥ts ❞✬❆❘◆♠ q✉✐ ♥❡ s♦♥t ♣❛s s✉♣♣♦rtés ♣❛r ❞❡s r❡❣r♦✉♣❡♠❡♥ts ❡♥ ♣♦✲ ✇❡r❆❘◆✳ ◆é❛♥♠♦✐♥s✱ ❝❡tt❡ ✜❣✉r❡ ✐❧❧✉str❡ ❜✐❡♥ ❧❡ ❢❛✐t q✉❡ ❣râ❝❡ à ♥♦tr❡ ♠ét❤♦❞❡ ❡t ❡♥ ❝❤❛♥❣❡❛♥t ❧❛ ❢♦♥❝t✐♦♥ ♦❜❥❡❝t✐❢✱ ♥♦✉s ♣♦✉✈♦♥s ♠♦❞✐✜❡r ❧❡ r❡❣r♦✉♣❡♠❡♥t ❞❡s é❧é♠❡♥ts ❡t ❣é♥ér❡r ❞❡s ✈✐s✉❛❧✐s❛t✐♦♥s q✉✐ ♣❡r♠❡tt❡♥t ❞❡ ♠❡✐❧❧❡✉rs ✐♥t❡r♣rét❛t✐♦♥s ❜✐♦❧♦❣✐q✉❡s ❡♥ ❢♦♥❝t✐♦♥ ❞✉ ♣r♦❜❧è♠❡ ♣♦sé✳ ❊♥ rés✉♠é✱ ❝❡tt❡ ♣❛rt✐❡ ✐♥tr♦❞✉✐t ❧❡ ♣r♦❜❧è♠❡ ❞✬✉♥❡ ✈✐s✉❛❧✐s❛t✐♦♥ ❜❛sé❡ ♣❛r ❧❡s ❜✐✲ ❝❧✐q✉❡s ❞✬✉♥ ❣r❛♣❤❡ ❜✐♣❛rt✐✳ P♦✉r ré♣♦♥❞r❡ à ❝❡ ♣r♦❜❧è♠❡✱ ❧❛ ♠ét❤♦❞❡ P● ❛ été ✐❞❡♥t✐✜é❡ ❝♦♠♠❡ ❧✬✉♥❡ ❞❡s s♦❧✉t✐♦♥s ♣♦ss✐❜❧❡s ♣♦✉r ❝♦✉✈r✐r ❝❡ t②♣❡ ❞❡ ❣r❛♣❤❡ ♣❛r ✉♥ ♣❛rt✐t✐♦♥♥❡✲ ♠❡♥t s♣é❝✐✜q✉❡✳ ◆♦✉s ❛✈♦♥s tr❛♥s♣♦sé ❝❡tt❡ ❛♣♣r♦❝❤❡ ❞❛♥s ❧❡ ❝❛❞r❡ ❞❡ ❧✬❆❈❋ ❡t ♣r♦✲ ♣♦sé ✉♥❡ ♥♦✉✈❡❧❧❡ ♠ét❤♦❞❡✱ ✐♥s♣✐ré ♣❛r ❧❛ ♠ét❤♦❞❡ P● ❡t ❜❛sé❡ s✉r ❧✬❆❈❋✱ q✉✐ ♣❡r♠❡t ❞✬ét❡♥❞r❡ ❧❡s ♣♦ss✐❜✐❧✐tés ❞❡ ✈✐s✉❛❧✐s❛t✐♦♥ ♣❛r ❧❛ ♠♦❞✐✜❝❛t✐♦♥ ❞❡ ❧✬♦♣t✐♠✉♠ à ❛tt❡✐♥❞r❡✳❱✐s✉❛❧✐s❛t✐♦♥ ❞✉ rés❡❛✉ ♣❛r r❡❣r♦✉♣❡♠❡♥t ❞❡s ✐♥t❡r❛❝t✐♦♥s ❡♥ ❝❧✉st❡r ✶✶✶ ♠✐❝r♦❆❘◆ ❆❘◆♠ ♠✐❝r♦❆❘◆ ❆❘◆♠ ❞✐♠✐♥✉t✐♦♥ ❛✉❣♠❡♥t❛t✐♦♥ ❛✉❣♠❡♥t❛t✐♦♥ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♣♦✲ s✐t✐❢ ❛✉❣♠❡♥t❛t✐♦♥ ❞✐♠✐♥✉t✐♦♥ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♣♦✲ s✐t✐❢ ❛✉❣♠❡♥t❛t✐♦♥ ❛✈❛♥❝❡ r❡t❛r❞ ❛✉❣♠❡♥t❛t✐♦♥ ❛♣♣❛r✐t✐♦♥ ♣✐❝ ♥é✲ ❣❛t✐❢ r❡t❛r❞ ❛✈❛♥❝❡ ❛♣♣❛r✐t✐♦♥ ♣✐❝ ♥é✲ ❣❛t✐❢ ❛✉❣♠❡♥t❛t✐♦♥ ❞✐♠✐♥✉t✐♦♥ ❛✈❛♥❝❡ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♥é✲ ❣❛t✐❢ ❛♣♣❛r✐t✐♦♥ ♣✐❝ ♥é✲ ❣❛t✐❢ ❛✈❛♥❝❡ ❞✐♠✐♥✉t✐♦♥ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♥é✲ ❣❛t✐❢ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♣♦✲ s✐t✐❢ ❛✉❣♠❡♥t❛t✐♦♥ r❡t❛r❞ ❛♣♣❛r✐t✐♦♥ ♣✐❝ ♥é✲ ❣❛t✐❢ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♥é✲ ❣❛t✐❢ r❡t❛r❞ ❛✉❣♠❡♥t❛t✐♦♥ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♣♦✲ s✐t✐❢ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♥é✲ ❣❛t✐❢ ❞✐♠✐♥✉t✐♦♥ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♥é✲ ❣❛t✐❢ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♣♦✲ s✐t✐❢ ❛♣♣❛r✐t✐♦♥ ♣✐❝ ♣♦s✐✲ t✐❢ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♥é✲ ❣❛t✐❢ ❞✐♠✐♥✉t✐♦♥ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♣♦✲ s✐t✐❢ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♥é✲ ❣❛t✐❢ ❞✐♠✐♥✉t✐♦♥ ❛♣♣❛r✐t✐♦♥ ♣✐❝ ♣♦s✐✲ t✐❢ ❛♣♣❛r✐t✐♦♥ ♣✐❝ ♣♦s✐✲ t✐❢ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♣♦✲ s✐t✐❢ ❛♣♣❛r✐t✐♦♥ ♣✐❝ ♣♦s✐✲ t✐❢ ❞✐♠✐♥✉t✐♦♥ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♥é✲ ❣❛t✐❢ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♣♦✲ s✐t✐❢ ❚❛❜❧❡❛✉ ✹✳✹ ✕ ▲✐st❡ ❞❡s ❝♦✉♣❧❡s rè❣❧❡s ❝♦♥s✐❞éré❡s ❝♦♠♠❡ ✓ ❝♦♥tr❛✐r❡s ✔ ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❛ rè❣❧❡ s✉✐✈✐❡ ♣❛r ❧❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❡t ♣❛r ❧✬❆❘◆♠✶✶✷ ❆♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❛♣♣❧✐q✉é à ✉♥ rés❡❛✉ ♠✐❝r♦❆❘◆✴❆❘◆♠ ❋✐❣✳ ✹✳✺ ✕ ❘é❞✉❝t✐♦♥ ❞✉ ✓ ♣❡t✐t rés❡❛✉ ✔ ♣❛r ❧❛ ♠ét❤♦❞❡ ❜❛sé❡ s✉r ❧✬❆❈❋✳ ▲❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ♣♦✇❡r▼✐❝r♦ s♦♥t ❡♥ r♦✉❣❡ ❡t ❧❡s ❆❘◆♠ ❡t ♣♦✇❡r❆❘◆ ❡♥ ❜❧❡✉✳ ■♠❛❣❡ ♦❜t❡♥✉❡ ❣râ❝❡ ❛✉ ♠♦❞✉❧❡ ❈②❖♦❣✳❱✐s✉❛❧✐s❛t✐♦♥ ❞✉ rés❡❛✉ ♣❛r r❡❣r♦✉♣❡♠❡♥t ❞❡s ✐♥t❡r❛❝t✐♦♥s ❡♥ ❝❧✉st❡r ✶✶✸ ❋✐❣✳ ✹✳✻ ✕ ❘é❞✉❝t✐♦♥ ❞✉ ✓ ♣❡t✐t rés❡❛✉ ✔ ♣❛r ❧❛ ♠ét❤♦❞❡ ❜❛sé❡ s✉r ❧✬❆❈❋ ❛✈❡❝ ❧✬♦♣t✐✲ ♠✐s❛t✐♦♥ ❞❡ ❧❛ ❝♦✉✈❡rt✉r❡ ❞✬❛rêt❡s ✓ ❝♦♥tr❛✐r❡ ✔✳ ▲❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ♣♦✇❡r▼✐❝r♦ s♦♥t ❡♥ r♦✉❣❡ ❡t ❧❡s ❆❘◆♠ ❡t ♣♦✇❡r❆❘◆ ❡♥ ❜❧❡✉✳ ■♠❛❣❡ ♦❜t❡♥✉❡ ❣râ❝❡ ❛✉ ♠♦❞✉❧❡ ❈②❖♦❣✳✶✶✹ ❆♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❛♣♣❧✐q✉é à ✉♥ rés❡❛✉ ♠✐❝r♦❆❘◆✴❆❘◆♠ ✹✳✸ ❘és✉♠é ❡t ❝♦♥❝❧✉s✐♦♥ ✿ ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❞❛♥s ❧❡ ❝❛❞r❡ ❞❡ ❣r❛♣❤❡s ❜✐♦❧♦❣✐q✉❡s ❜✐♣❛rt✐s ❈❡ ❝❤❛♣✐tr❡ ❞é❝r✐t ❞❡✉① ♠ét❤♦❞❡s ✐ss✉❡s ❞❡ ❧✬❆❈❋ ❡t ❞é✈❡❧♦♣♣é❡s ❞❛♥s ❧❡ ❝❛❞r❡ ❞✬✉♥ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠✳ ▲❛ ♣r❡♠✐èr❡ ♣r♦♣♦s❡ ❞❡ ré♣❛r❡r ✉♥ ❣r❛♣❤❡ ❜✐✲ ♣❛rt✐ à ❧✬❛✐❞❡ ❞❡ ❧✬❆❈❋✳ ❖♥ ♣❛rt ❞❡ ❧✬❤②♣♦t❤ès❡ q✉✬✐❧ ❡①✐st❡ ✉♥ ❣r❛♣❤❡ ❞✬♦r✐❣✐♥❡✱ ❧❡ ✈r❛✐ ❣r❛♣❤❡✱ ❡t q✉❡ ❝❡ ❣r❛♣❤❡ ❡st ❝♦♥st✐t✉é ♣r✐♥❝✐♣❛❧❡♠❡♥t ❞❡ ♠♦❞✉❧❡s ❞✬✐♥t❡r❛❝t✐♦♥ ✿ ❞❡s ❝♦♥❝❡♣ts ❢♦r♠❡❧s✳ ▲❛ ❢♦r♠❛❧✐s❛t✐♦♥ ❞❡ ❧✬❡✛❡t ❞✉ ❜r✉✐t ❛✉ s❡✐♥ ❞✬✉♥ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ♥♦✉s ❛ ♣❡r♠✐s ❞❡ ❞ét❡❝t❡r ❧✬❡✛❡t ❞❡ ❝❡ ❜r✉✐t s✉r ❧❡ ♥♦♠❜r❡ ❞❡ ❝♦♥❝❡♣ts ❡t ❧❡ ❝❤❛♥❣❡♠❡♥t q✉❡ ❝❡ ❜r✉✐t ✐♥❞✉✐t ❞❛♥s ❧❡ tr❡✐❧❧✐s ❞❡ ❝♦♥❝❡♣ts✳ ➚ ♣❛rt✐r ❞❡ ❝❡tt❡ ❢♦r♠❛❧✐s❛t✐♦♥✱ ❞❡✉① ♦♣ér❛t✐♦♥s ♦♥t été ♣r♦♣♦sé❡s ♣♦✉r ❞ét❡❝t❡r ❡t ré♣❛r❡r ❧✬❡✛❡t ❞✉ ❜r✉✐t s✉r ❧❡ tr❡✐❧❧✐s✳ ❈❡s ♦♣ér❛t✐♦♥s ♦♥t été t❡sté❡s s✉r ❞❡s ❥❡✉① ❞❡ ❞♦♥♥é❡s ✐♥ s✐❧✐❝♦ s✐♠✉❧és à ❧❛ ❢♦✐s s❛♥s ♣❛r❛♠é✲ tr❛❣❡ ❜✐♦❧♦❣✐q✉❡ ❡t à ❧❛ ❢♦✐s à ❧✬❛✐❞❡ ❞❡ ♣❛r❛♠ètr❡s ❞ér✐✈és ❞✉ rés❡❛✉ ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠✳ ▲❡s rés✉❧t❛ts ♦❜t❡♥✉s s✉r ❧❡s s✐♠✉❧❛t✐♦♥s s❛♥s ❛ ♣r✐♦r✐ s♦♥t ❝♦♥✈❛✐♥❝❛♥ts ❡t ❧❛ ♠ét❤♦❞❡ ♣❡r♠❡t ❞❡ ré♣❛r❡r ✉♥ ♣❛rt✐❡ ❞✉ rés❡❛✉✳ ▲❡s rés✉❧t❛ts ♦❜t❡♥✉s s✉r ❧❡s ❣r❛♣❤❡s s✐♠✉❧és à ♣❛rt✐r ❞❡ ♣❛r❛♠ètr❡s ✐ss✉s ❞✉ rés❡❛✉ ré❡❧ s♦♥t ♠♦✐♥s ❜♦♥s✳ ❊♥ ❡✛❡t✱ ❧❛ ♠ét❤♦❞❡ ♥❡ ♣❡r♠❡t ♣❛s ❞❛♥s ❝❡ ❝❛s ❧à ❞❡ ré♣❛r❡r ❝♦♥✈❡♥❛❜❧❡♠❡♥t ❧❡ ❣r❛♣❤❡✳ ◆é❛♥♠♦✐♥s✱ ❧❡s ♣❛r❛♠ètr❡s ❡①tr❛✐ts ❞✉ rés❡❛✉ ♠✐❝r♦❆❘◆✴❆❘◆♠ ♥❡ s♦♥t ♣❛s ❢♦r❝é♠❡♥t ❝❡✉① q✉✐ ♣❡r♠❡tt❡♥t ❞❡ r❡♣r♦❞✉✐r❡ ❝♦♥✈❡♥❛❜❧❡♠❡♥t ❧❛ str✉❝t✉r❡ s♦✉s✲❥❛❝❡♥t❡ ❞✉ rés❡❛✉✳ ❯♥❡ ✈❡rs✐♦♥ ♣ré❧✐♠✐♥❛✐r❡ ❞❡ ❝❡tt❡ ♠ét❤♦❞❡ ❛ ❢❛✐t ❧✬♦❜❥❡t ❞✬✉♥❡ ♣✉❜❧✐❝❛t✐♦♥ q✉✐ ❛ été sé❧❡❝t✐♦♥♥é❡ ♣❛r♠✐ ❧❡s ❛❝t❡s ❞❡ ❧❛ ❝♦♥❢ér❡♥❝❡ ❊✉r♦♣❡❛♥ ❈♦♥❢❡r❡♥❝❡ ♦♥ ❉❛t❛ ❆♥❛❧②s✐s ✷✵✶✸✷ ✳ ❈❡tt❡ ♣✉❜❧✐❝❛t✐♦♥ ❡st ❞✐s♣♦♥✐❜❧❡ ❡♥ ❛♥♥❡①❡ ✻✳✷✳✷✳ ▲❛ ❞❡✉①✐è♠❡ ♣❛rt✐❡ ✐♥tr♦❞✉✐t ❧❡ ♣r♦❜❧è♠❡ ❞❡ ❧❛ ✈✐s✉❛❧✐s❛t✐♦♥ ❞✬✉♥ ❣r❛♣❤❡ ❜✐♣❛rt✐✳ ▲❛ ♠ét❤♦❞❡ P♦✇❡r ●r❛♣❤ ✭P●✮ ❡st ✉♥❡ s♦❧✉t✐♦♥ q✉✐ ♣❡r♠❡t ❞❡ ré♣♦♥❞r❡ à ❝❡ ♣r♦❜❧è♠❡ ❡♥ ❝♦✉✈r❛♥t ❧❡s ❛rêt❡s ❞✬✉♥ ❣r❛♣❤❡ ❜✐♣❛rt✐ ♣❛r ❞❡s ❜✐❝❧✐q✉❡s ♣❛r ✉♥❡ ❛♣♣r♦❝❤❡ ❤✐ér❛r✲ ❝❤✐q✉❡✳ ▲❛ ♠ét❤♦❞❡ P● ❛ t♦✉t ❞✬❛❜♦r❞ été tr❛♥s♣♦sé❡ ❞❛♥s ❧❡ ❝❛❞r❡ ❞❡ ❧✬❆❈❋✱ ♣✉✐s ✉♥❡ ❞❡✉①✐è♠❡ ♠ét❤♦❞❡ ♣❡r♠❡tt❛♥t ❞❡ ✈✐s✉❛❧✐s❡r ✉♥ ❣r❛♣❤❡ ❜✐♣❛rt✐ ♣❛r s❡s ❝♦♥❝❡♣ts ❡t s♦✉s✲❝♦♥❝❡♣ts ❝♦✉✈r❛♥t ❛✉ ♠✐❡✉① ❝❡ ❣r❛♣❤❡ ❛ été ♣r♦♣♦sé❡✳ ❊❧❧❡ s✬✐♥s♣✐r❡ ❞❡ ❧❛ ♠ét❤♦❞❡ P●✳ ❈❡tt❡ ♠ét❤♦❞❡ ♥♦✉✈❡❧❧❡ ♣❡r♠❡t ❞❡ ♠✐♥✐♠✐s❡r ❧❡ ♥♦♠❜r❡ ❞✬❛rêt❡s ❡♥ r❡♣rés❡♥t❛♥t ✉♥ ❝♦♥❝❡♣t ♦✉ s♦✉s✲❝♦♥❝❡♣t ♣❛r ✉♥❡ s❡✉❧❡ ❛rêt❡✳ ▲✬❛✈❛♥t❛❣❡ ❞❡ ♥♦tr❡ ♠ét❤♦❞❡ ❡st q✉✬❡❧❧❡ ♣❡r♠❡t ❞✬✐♠♣❧é♠❡♥t❡r ❞✐✛ér❡♥t❡s ♦♣t✐♠✐s❛t✐♦♥s✱ ❛✉tr❡s q✉✬✉♥❡ ♦♣t✐♠✐s❛t✐♦♥ ❞❡ ❝♦✉✈❡r✲ t✉r❡ ❞❡ s✉r❢❛❝❡s ❝♦♠♠❡ ❧❛ ♠ét❤♦❞❡ P●✳ ❈❡t ❛✈❛♥t❛❣❡ ❛ été ✐❧❧✉stré ♣❛r ❧✬♦♣t✐♠✐s❛t✐♦♥ ❞✉ r❡❣r♦✉♣❡♠❡♥t ❞❡s ❛rêt❡s ❛ss♦❝✐é❡s à ❞❡s ❝♦✉♣❧❡s ❞❡ rè❣❧❡s ❞é✜♥✐s ❝♦♠♠❡ ✓ ❝♦♥tr❛✐r❡ ✔ s✉r ❧❛ ❜❛s❡ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞❡s ❧✬❆❘◆♠ ❛ss♦❝✐és à ❝❡s ❛rêt❡s✳ ✷▲✐✈r❡ ❞✐s♣♦♥✐❜❧❡ ✜♥ ✷✵✶✹ ✿ ❤tt♣✿✴✴✇✇✇✳s♣r✐♥❣❡r✳❝♦♠✴st❛t✐st✐❝s✴❜♦♦❦✴✾✼✽✲✸✲✻✻✷✲✹✹✾✽✷✲✵❈❤❛♣✐tr❡ ✺ ➱t✉❞❡ ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♣❛r ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ▲❡ ❝❤❛♣✐tr❡ ✷ ❛ ♣rés❡♥té ❧❛ ❝ré❛t✐♦♥ ❞✬✉♥ ♣r❡♠✐❡r rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ❡♥tr❡ ❧❡s ♠✐✲ ❝r♦❆❘◆ ❡t ❧❡s ❆❘◆♠ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ❡t ❧❡ ❝❤❛♣✐tr❡ ❛ ✸ ❞é❝r✐t ❧❛ ré❞✉❝t✐♦♥ ❞❡ ❝❡ rés❡❛✉ ❛✉① ♠✐❝r♦❆❘◆ ❡t ❆❘◆♠ q✉✐ ♣♦ssè❞❡♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t❡s ❡♥tr❡ ❧✬❡♠✲ ❜r②♦❣❡♥ès❡ s❡①✉é❡ ❡t ❧✬❡♠❜r②♦❣❡♥ès❡ ❛s❡①✉é❡✳ ❈❡ ❝❤❛♣✐tr❡ ❞é❝r✐t ❝♦♠♠❡♥t ♥♦✉s ❛✈♦♥s ✉t✐❧✐sé ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❡t s❡s ❡①t❡♥s✐♦♥s ♣♦✉r ♣❡r♠❡ttr❡ ❧✬❡①♣❧♦r❛t✐♦♥ ❞❡ ❝❡ rés❡❛✉✳ ▲✬❛❥♦✉t ❞❡ ♥♦✉✈❡❧❧❡s ✐♥❢♦r♠❛t✐♦♥s ❤étér♦❣è♥❡s ❡t ❧✬✉t✐❧✐s❛t✐♦♥ ❞❡ ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ♥♦✉s ♣❡r♠❡t ❞❡ ❢❛✐r❡ ❞❡ ❧❛ ❢♦✉✐❧❧❡ ❞❡ ❞♦♥♥é❡s ❞❛♥s ❝❡ rés❡❛✉ ❛✜♥ ❞✬❡①✲ tr❛✐r❡ ❞❡s ✐♥t❡r❛❝t✐♦♥s ❡t ❞❡s ❡♥s❡♠❜❧❡s ❞✬✐♥t❡r❛❝t✐♦♥s ♣❡rt✐♥❡♥t❡s ♣♦✉r ❧❛ ♣r♦❜❧é♠❛t✐q✉❡ ét✉❞✐é❡✳ ✶✶✺✶✶✻ ➱t✉❞❡ ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♣❛r ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❈♦♠♠❡ ✐❧ ❛ été ♠♦♥tré✱ ❧❡ ❣r❛♣❤❡ ❜✐♣❛rt✐ ❞❡s ✐♥t❡r❛❝t✐♦♥s ❡♥tr❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❆❘◆♠ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ♣❡✉t êtr❡ ❝♦♥s✐❞éré ❝♦♠♠❡ ✉♥ ❝♦♥t❡①t❡ ❢♦r♠❡❧✱ ❛♣♣❡❧é ♣❛r ❧❛ s✉✐t❡ ❧❡ ❝♦♥t❡①t❡ ❞❡s ✐♥t❡r❛❝t✐♦♥s✳ ▲✬é♥✉♠ér❛t✐♦♥ ❞❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts ❢♦r♠❡❧s s✉r ❧❡ ❝♦♥t❡①t❡ ❞❡s ✐♥t❡r❛❝t✐♦♥s ♥♦✉s ♣❡r♠❡t ❞✬♦❜t❡♥✐r ❧✬❡♥s❡♠❜❧❡ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s q✉✐ ❝✐❜❧❡♥t ❧❡s ♠ê♠❡s ❆❘◆♠✳ ◆é❛♥♠♦✐♥s✱ ❡①tr❛✐r❡ ❞❡ ❧❛ ❝♦♥♥❛✐ss❛♥❝❡ ❜✐♦❧♦❣✐q✉❡ ❡t ✐♥t❡r♣rét❡r ❜✐♦❧♦❣✐q✉❡♠❡♥t ❝❡s ❝♦♥❝❡♣ts s❛♥s ❛♣♣♦rt❡r ❞✬✐♥❢♦r♠❛t✐♦♥s ❡①tér✐❡✉r❡s✱ q✉❡ ❝❡ s♦✐t s✉r ❧❡s ✐♥t❡r❛❝t✐♦♥s ♦✉ s✉r ❧❡s é❧é♠❡♥ts ❞❡ ❝❡s ✐♥t❡r❛❝t✐♦♥s✱ s❡ ré✈è❧❡ ❝♦♠♣❧✐q✉é✳ ❉❛♥s ❧✬♦♣t✐q✉❡ ❞✬❛ss♦❝✐❡r ❞❡s ✐♥❢♦r♠❛t✐♦♥s ❜✐♦❧♦❣✐q✉❡s ❛✉① ❝♦♥❝❡♣ts ❢♦r♠❡❧s✱ ❞❡s ❛ttr✐❜✉ts ❜✐♦❧♦❣✐q✉❡s s♦♥t r❛❥♦✉tés ❛✉ ❝♦♥t❡①t❡ ❡♥tr❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❆❘◆♠✳ ❈❡s ❛ttr✐❜✉ts ✈♦♥t ♥♦✉s ♣❡r♠❡ttr❡ ❞❡ ❝❛r❛❝tér✐s❡r ❧❡s ✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠✳ ▲❛ ♣r❡♠✐èr❡ ♣❛rt✐❡ ❞é❝r✐t ❝♦♠♠❡♥t ❞❡s ❛ttr✐❜✉ts s♦♥t ❛❥♦✉tés à ✉♥ ❝♦♥t❡①t❡ ❛✜♥ ❞❡ ♣♦✉✈♦✐r ✐♥t❡r♣rét❡r ✉♥ rés❡❛✉✳ ❉❛♥s ✉♥❡ s❡❝♦♥❞❡ ♣❛rt✐❡ ❝❡tt❡ ♠ét❤♦❞❡ ❡st ❛♣♣❧✐q✉é❡ à ♥♦tr❡ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ❝❤❡③ ❆✳ ♣✐s✉♠✳ ✺✳✶ ❉❡s❝r✐♣t✐♦♥ ❞❡ ❧✬❛❥♦✉t ❞✬✐♥❢♦r♠❛t✐♦♥s ❤étér♦❣è♥❡s à ✉♥ ❝♦♥t❡①t❡ ❢♦r♠❡❧ P♦✉r ❝❛r❛❝tér✐s❡r ❧❡s ❝♦♥❝❡♣ts ❞✬✉♥ rés❡❛✉ ❜✐♣❛rt✐✱ ❧❛ ♠ét❤♦❞❡ ♥é❝❡ss✐t❡ tr♦✐s ❝♦♥t❡①t❡s ❢♦r♠❡❧s ✿ ✕ ▲❡ ❝♦♥t❡①t❡ ❢♦r♠❡❧ q✉✐ ❞é❝r✐t ❧❡ rés❡❛✉ ❜✐♣❛rt✐ ♣❛r ✉♥❡ r❡❧❛t✐♦♥ R ❡♥tr❡ ❧❡s ❡♥✲ s❡♠❜❧❡s ❞✬♦❜❥❡ts O1 ❡t O2 ✿ Kr❡❧ = (O1, O2, R)❀ ✕ ▲❡ ❝♦♥t❡①t❡ ❢♦r♠❡❧ q✉✐ ❞é❝r✐t ❧❡s ♦❜❥❡ts O1 ♣❛r ✉♥ ❡♥s❡♠❜❧❡ ❞✬❛ttr✐❜✉ts A1 ✿ K1 = (O1, A1, I1)❀ ✕ ▲❡ ❝♦♥t❡①t❡ ❢♦r♠❡❧ q✉✐ ❞é❝r✐t ❧❡s ♦❜❥❡ts O2 ♣❛r ✉♥ ❡♥s❡♠❜❧❡ ❞✬❛ttr✐❜✉ts A2 ✿ K2 = (O2, A2, I2)✳ ➚ ❝❤❛❝✉♥ ❞❡ ❝❡s ❝♦♥t❡①t❡s✱ ✉♥ ❡♥s❡♠❜❧❡ ❞❡ ❝♦♥❝❡♣ts ❡st ❛ss♦❝✐é ✿ C r❡❧ ✱ C 1 ❡t C 2 r❡s♣❡❝t✐✈❡♠❡♥t ♣♦✉r Kr❡❧ ✱ K1 ❡t K2 ✳ ➚ ♣❛rt✐r ❞❡ ❝❡s tr♦✐s ❝♦♥t❡①t❡s✱ ✉♥ ♥♦✉✈❡❛✉ ❝♦♥t❡①t❡ ❢♦r♠❡❧ Kr❡❧,1,2 ❡st ❢♦r♠é ♣❛r ❧❛ ❢✉s✐♦♥ ❞❡ ❝❡s tr♦✐s ❝♦♥t❡①t❡s s✉r ❧❛ ❜❛s❡ ❞❡ ❧❡✉rs ❡♥s❡♠❜❧❡s ❝♦♠♠✉♥s✱ O1 ❡t O2✳ ▲❡ ♥♦✉✈❡❛✉ ❝♦♥t❡①t❡ ❡st ❢♦r♠é ❞❡ ❧❛ ❢❛ç♦♥ s✉✐✈❛♥t❡ ✿ K r❡❧,1,2 = (O1 ∪ A2, O2 ∪ A1, R ∪ I1 ∪ ¯I2) ❛✈❡❝ ¯I2 ⊆ A2 × O2 ❡t (a, b) ∈ I2 ⇔ (b, a) ∈ ¯I2✳ ▲✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts C r❡❧,1,2 ❞❡ Kr❡❧,1,2 à ♣❛rt✐r ❞❡s ❡♥s❡♠❜❧❡s ❞❡ ❝♦♥❝❡♣ts C r❡❧ ✱ C 1 ❡t C 2 ♣❡✉t êtr❡ ❞é✜♥✐ ♣❛r ❧✬✉t✐❧✐s❛t✐♦♥ ❞✬✉♥ ♦♣ér❛t❡✉r ❛❞❛♣té à ♣❛rt✐r ❞❡ ❧✬♦♣ér❛t❡✉r ❞❡ ❢✉s✐♦♥ f ❞é✜♥✐ s✉r ❧❛ ré♣❛r❛t✐♦♥ ❞❡ ❝♦♥t❡①t❡s ❜r✉✐tés ✭♣❛rt✐❡ ✹✳✶✳✶✮✳ ▲✬❡♥s❡♠❜❧❡ C r❡❧ s❡r❛✐t ❝♦♥s✐❞éré ❝♦♠♠❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts ❞✬♦r✐❣✐♥❡ ❡t ❧❡s ❡♥s❡♠❜❧❡s C 1 ❡t C 2 ❝♦♠♠❡ ❧❡s ✓ ❢❛✉① ✔ ❝♦♥❝❡♣ts ✭❝❡ q✉✐ ♥✬❡st ♣❛s ❧❡ ❝❛s ✐❝✐✮✳ ❈♦♠♠❡ ❧✬♦♥ s♦✉❤❛✐t❡ ❝❛r❛❝tér✐s❡r ❧❡s r❡❧❛t✐♦♥s ❞❡ Kr❡❧✱ ♣❛r♠✐ t♦✉s ❧❡s ❝♦♥❝❡♣ts ♦❜t❡✲ ♥✉s s✉r Kr❡❧,1,2 ✱ s❡✉❧s ❧❡s ❝♦♥❝❡♣ts ✐♥❝❧✉❛♥t ❛✉ ♠♦✐♥s ✉♥❡ r❡❧❛t✐♦♥ ❞❡ R s♦♥t ✐♥tér❡ss❛♥ts✳ ❈❡ s♦♥t ❧❡s s❡✉❧s q✉✐ ❝❛r❛❝tér✐s❡♥t ♣♦t❡♥t✐❡❧❧❡♠❡♥t ❧❡s ✐♥t❡r❛❝t✐♦♥s ❞✉ rés❡❛✉✳ ❈✬❡st ♣♦✉r✲ q✉♦✐ ♥♦✉s ❞é✜♥✐ss♦♥s ✉♥ s♦✉s ❡♥s❡♠❜❧❡ CAr❡❧,1,2 ⊆ C r❡❧,1,2 q✉✐ ❞✐st✐♥❣✉❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❞❡ Kr❡❧,1,2 q✉✐ ❝♦♠♣r❡♥♥❡♥t ✉♥❡ r❡❧❛t✐♦♥ ❞✬✐♥t❡r❛❝t✐♦♥ ✿❉❡s❝r✐♣t✐♦♥ ❞❡ ❧✬❛❥♦✉t ❞✬✐♥❢♦r♠❛t✐♦♥s ❤étér♦❣è♥❡s à ✉♥ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ✶✶✼ ❉é✜♥✐t✐♦♥ ✺✳✶ ❖♥ ❛♣♣❡❧❧❡ ❝♦♥❝❡♣t ❛♥♥♦té ✉♥ ❝♦♥❝❡♣t ❞✉ s♦✉s ❡♥s❡♠❜❧❡ CAr❡❧,1,2 ⊆ C r❡❧,1,2 ❞é✜♥✐ ❞❡ ❧❛ ❢❛ç♦♥ s✉✐✈❛♥t❡ ✿ ∀ C r❡❧,1,2 ∈ CAr❡❧,1,2 ⇒ ∃o1 ∈ extension(C r❡❧,1,2 )∧∃o2 ∈ intension(C r❡❧,1,2 )∧(o1, o2) ∈ R, ❛✈❡❝ extension(C r❡❧,1,2 ) ❡t intension(C r❡❧,1,2 ) ❧✬❡①t❡♥s✐♦♥ ❡t ❧✬✐♥t❡♥s✐♦♥ ❞❡ C r❡❧,1,2 ✳ ▲❡ s♦✉s ❡♥s❡♠❜❧❡ ❞❡ ❝♦♥❝❡♣ts CAr❡❧,1,2 r❡♣rés❡♥t❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts ❞❡ C r❡❧,1,2 q✉✐ ♣♦ssè❞❡♥t ❛✉ ♠♦✐♥s ✉♥❡ r❡❧❛t✐♦♥ ❞❡ Kr❡❧ ✳ ◆✬♦❜t❡♥✐r q✉❡ ❧❡s ❝♦♥❝❡♣ts C r❡❧,1,2 ∈ CAr❡❧,1,2 ❞❡ Kr❡❧,1,2 q✉✐ ♣♦ssè❞❡♥t ❛✉ ♠✐♥✐♠✉♠ ✉♥❡ r❡❧❛t✐♦♥ ✐♥❝❧✉s❡ ❞❛♥s R ♣❡r♠❡t ❞✬♦❜t❡♥✐r tr♦✐s t②♣❡s ❞❡ ❝♦♥❝❡♣ts ❧✐stés ❝✐✲❞❡ss♦✉s✳ ❉❛♥s ❝❡ q✉✐ s✉✐t✱ C r❡❧,1,2 ∈ CAr❡❧,1,2 ✱ C r❡❧ = (C, D) ∈ C r❡❧ ✱ A1 ❡st ❧✬❡♥s❡♠❜❧❡ ❞❡s ❛ttr✐❜✉ts ❞❡ K1 ❡t A2 ❡st ❧✬❡♥s❡♠❜❧❡ ❞❡s ❛ttr✐❜✉ts ❞❡ K2 ✿ ✶✳ C r❡❧,1,2 ∈ C r❡❧ ✿ ❧❡ ❝♦♥❝❡♣t ♥❡ ❝♦♥t✐❡♥t ❛✉❝✉♥❡ ❛♥♥♦t❛t✐♦♥ ❛ss♦❝✐é s✉r ❧❡s ❡♥s❡♠❜❧❡s ❞✬❛ttr✐❜✉ts A1 ❡t A2 ❀ ✷✳ C r❡❧,1,2 = (D ∪ A0 2 , E) ∧ A0 2 ⊆ A2 ∧ A0 2 6= ∅ ♦✉ C r❡❧,1,2 = (D, E ∪ A0 1 ) ∧ A0 1 ⊆ A1 ∧ A0 1 6= ∅ ✿ ❧❡ ❝♦♥❝❡♣t ♣❡✉t êtr❡ ❛ss♦❝✐é à ✉♥ ❝♦♥❝❡♣t ❞❡ C r❡❧ ❡t ❝♦♥t✐❡♥t ✉♥❡ ❛♥♥♦t❛t✐♦♥ s✉r ❧❡s ❡♥s❡♠❜❧❡s ❞✬❛ttr✐❜✉ts A1 ♦✉ A2 ❀ ✸✳ C r❡❧,1,2 = (D0 ∪ A0 2 , E0 ) ∧ D0 ⊂ D ∧ E0 ⊂ E ∧ D0 6= ∅ ∧ E0 6= ∅ ∧ A0 2 ⊂ A2 ∧ A0 2 6= ∅ ♦✉ r❡❧,1,2 = (D0 , E0∪A0 1 )∧D0 ⊂ D ∧E0 ⊂ E ∧D0 6= ∅∧E0 6= ∅∧A0 1 ⊂ A1∧A0 1 6= ∅ ✿ ❧❡ ❝♦♥❝❡♣t ❝♦♥t✐❡♥t ✉♥ r❡❝t❛♥❣❧❡ ♥♦♥ ♠❛①✐♠❛❧ ❞❡ C r❡❧ ❡t ❝♦♥t✐❡♥t ✉♥❡ ❛♥♥♦t❛t✐♦♥ s✉r ❧❡s ❡♥s❡♠❜❧❡s ❞✬❛ttr✐❜✉ts A1 ♦✉ A2✳ ❙✉r ❧❡ ❝♦♥t❡①t❡ ❢♦r♠❡❧ Kr❡❧✱ ❛✉❝✉♥❡ r❡❧❛t✐♦♥ ♥✬❡st ❞é✜♥✐❡ s✉r ❧❡s ❡♥s❡♠❜❧❡s A2 ❡t A1✱ A2 × A1 = ∅✳ ❈✬❡st ♣♦✉r ❝❡tt❡ r❛✐s♦♥ q✉❡ ❧❡s ❝♦♥❝❡♣ts ❞❡ CAr❡❧,1,2 ✐♥❝❧✉❡♥t s♦✐t ❞❡s ❛ttr✐❜✉ts ❞❡ A2 s♦✐t ❞❡s ❛ttr✐❜✉ts ❞❡ A1 ♠❛✐s ♣❛s ❧❡s ❞❡✉① ✭❝❛s ✷ ❡t ✸ ❝✐✲❞❡ss✉s✮✳ ❈❡❧❛ ✐♠♣❧✐q✉❡ q✉✬✐❧ ♣❡✉t ❡①✐st❡r ❞❡✉① ❛♥♥♦t❛t✐♦♥s ♣♦✉r ✉♥ ♠ê♠❡ ❝♦♥❝❡♣t ❞❡ C r❡❧ ✭❝❛s ✷✮ ♦✉ ✉♥❡ ❛♥♥♦t❛t✐♦♥ ♣♦✉r ❧❡ ❝♦♥❝❡♣t ❞❡ C r❡❧ ❡t ✉♥❡ ❛✉tr❡ s✉r ❧✬❛✉tr❡ ❡♥s❡♠❜❧❡ ❞✬❛ttr✐❜✉t ✉♥ r❡❝t❛♥❣❧❡ ♥♦♥ ♠❛①✐♠❛❧ ❞❡ C r❡❧ ✭❝❛s ✷✱✸✮✳ ◆♦✉s t❡r♠✐♥❡r♦♥s ❝❡tt❡ ❡①❡♠♣❧❡ ♣❛r ✉♥❡ ✐❧❧✉str❛t✐♦♥✳ Pr❡♥♦♥s tr♦✐s ❝♦♥t❡①t❡s ❢♦r✲ ♠❡❧s ✿ ❧❡ ❝♦♥t❡①t❡ K✐ s✉r ❞❡s ✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠✱ ❧❡ ❝♦♥t❡①t❡ Kµ s✉r ❧❡s ❛ttr✐❜✉ts ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❧❡ ❝♦♥t❡①t❡ Ka s✉r ❧❡s ❛ttr✐❜✉ts ❞❡s ❆❘◆♠ ❛✐♥s✐ q✉❡ ❧❡ tr❡✐❧❧✐s B(K✐ ) ❛ss♦❝✐é à K✐ ✭❋✐❣✉r❡ ✺✳✶✮✳ ❈❡s tr♦✐s ❝♦♥t❡①t❡s ❝♦rr❡s♣♦♥❞❡♥t ❛✉① ❝♦♥t❡①t❡s Kr❡❧ ✱ K1 ❡t K2 ❡t ❧❡ tr❡✐❧❧✐s r❡♣rés❡♥t❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts C r❡❧✳ ▲❛ ❢✉s✐♦♥ ❞❡ ❝❡s tr♦✐s ❝♦♥t❡①t❡s ❞♦♥♥❡ ❧❡ ❝♦♥t❡①t❡ K✐,µ,a ❡t s♦♥ tr❡✐❧❧✐s B(K✐,µ,a) ✭❋✐❣✉r❡ ✺✳✷✮✳ ■❧s ❝♦rr❡s♣♦♥❞❡♥t ❛✉ ❝♦♥t❡①t❡ Kr❡❧,1,2 ❡t à ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts C r❡❧,1,2 ✳ ❈❡t ❡①❡♠♣❧❡ ♥♦✉s ♣❡r♠❡t ❞✬✐❧❧✉str❡r ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝❛s ❞é❝r✐ts ♣❧✉s ❤❛✉t✳ ❖♥ ♣❡✉t ✈♦✐r q✉❡ ❧❡ ❝♦♥❝❡♣t C ✐,1,2 1 ❡♥ r♦✉❣❡ ❋✐❣✉r❡ ✺✳✷ ♥❡ ❝♦✉✈r❡ ❛✉❝✉♥❡ ✐♥t❡r❛❝t✐♦♥ ❡♥tr❡ ♠✐✲ ❝r♦❆❘◆ ♠❛t✉r❡ ❡t ❆❘◆♠✱ ✐❧ ♥❡ ❢❛✐t ❞♦♥❝ ♣❛s ♣❛rt✐❡ ❞❡s ❝♦♥❝❡♣ts ❞✬✐♥térêt ♣♦✉r ❧✬✐♥t❡r✲ ♣rét❛t✐♦♥ ❞❡s ✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠✳ ▲❡ ❝❛s ✶ ❡st ✐❧❧✉stré ♣❛r ❧❡ ❝♦♥❝❡♣t C ✐,1,2 4 q✉✐ ❡st ❞é❥à ♣rés❡♥t ❞❛♥s C r❡❧ s♦✉s ❧❡ ♥♦♠ C ✐ 1 ✳ ■❧ ♥✬❡st ❝❛r❛❝tér✐sé ♣❛r ❛✉❝✉♥ ❛ttr✐❜✉t✳ ▲❡ ❝❛s ✷ ❡st ✐❧❧✉stré ♣❛r ❧❡ ❝♦♥❝❡♣t C ✐,1,2 7 q✉✐ ♣❡r♠❡t ❞❡ ❝❛r❛❝tér✐s❡r ❧❡ ♠✐❝r♦❆❘◆ ❞✉ ❝♦♥❝❡♣t ⊥✐ ♣❛r ❧✬❛ttr✐❜✉t µatt1 ✳ ▲❡ ❝♦♥❝❡♣t C ✐ 2 ❡st ✐♥❝❧✉s ❞❛♥s ❞❡✉① ❝♦♥❝❡♣ts✱ C ✐,1,2 3 ❡t C ✐,1,2 5 ♦ù ❧❡ ♣r❡♠✐❡r ❝❛r❛❝tér✐s❡ ❧❡s ❆❘◆♠ ❞✉ ❝♦♥❝❡♣t C ✐ 2 ❡t ❧❡ s❡❝♦♥❞ ❧❡s ♠✐❝r♦❆❘◆ ❞❡ ❝❡ ❝♦♥❝❡♣t✳✶✶✽ ➱t✉❞❡ ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♣❛r ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ▲❡ ❝❛s ✸ ❡st ✐❧❧✉stré ♥♦t❛♠♠❡♥t ♣❛r C ✐,1,2 6 q✉✐ ❝❤❡✈❛✉❝❤❡ ❧❡ ❝♦♥❝❡♣t C ✐ 1 ✳ ■❧ ❝❛r❛❝tér✐s❡ ❞♦♥❝ ✉♥ s♦✉s ❡♥s❡♠❜❧❡ ❞❡s r❡❧❛t✐♦♥s ❞❡ C ✐ 1 ✭{µ1} × {a1, a2}✮ ♣❛r ❧✬❛ttr✐❜✉t µatt2 s✉r ❧❡ ♠✐❝r♦❆❘◆ µ1✳ a1 a2 a3 a4 µ1 ✶ ✶ µ2 ✶ ✶ µ3 ✶ ✶ ✶ ✶ µ4 ✶ ✶ µ5 ✶ ✶ K✐ µ❛tt1 µ❛tt2 µ1 ✶ µ2 µ3 ✶ µ4 ✶ µ5 ✶ ✶ Kµ a❛tt1 a❛tt2 a1 a2 ✶ a3 ✶ a4 ✶ Ka >✐ = {µ1, µ2, µ3, µ4, µ5} × ∅ C ✐ 1 = {µ1, µ2, µ3} × {a1, a2} C ✐ 2 = {µ3, µ4, µ5} × {a3, a4} ⊥✐ = {µ3} × {a1, a2, a3, a4} B(K✐) ❋✐❣✳ ✺✳✶ ✕ ❚r♦✐s ❝♦♥t❡①t❡s ❢♦r♠❡❧s ❡t ✉♥ tr❡✐❧❧✐s ❞❡ ❝♦♥❝❡♣ts ✿ K✐ r❡♣rés❡♥t❡ ❧❡s ✐♥t❡r❛❝✲ t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠✱ Kµ ❡t Ka r❡♣rés❡♥t❡♥t r❡s♣❡❝t✐✈❡♠❡♥t ❧❡s ❛ttr✐❜✉ts ♣♦ssé❞és ♣❛r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s µ1..µ5 ❡t ❧❡s ❆❘◆♠ a1..a4✳ ▲❡ tr❡✐❧❧✐s ❞❡ ❝♦♥❝❡♣ts B(K✐) ❡st r❡♣rés❡♥té ❡♥ ❞❡ss♦✉s✳ ✺✳✷ ❆♣♣❧✐❝❛t✐♦♥ ❛✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ▲✬❛❥♦✉t ❞✬✐♥❢♦r♠❛t✐♦♥s ❜✐♦❧♦❣✐q✉❡s ❤étér♦❣è♥❡s ❛✉ ❝♦♥t❡①t❡ ❢♦r♠❡❧ ❞❡s ✐♥t❡r❛❝t✐♦♥s ✭♠❛tr✐❝❡ ❞✬❛❞❥❛❝❡♥❝❡ ❞✉ ❣r❛♣❤❡ ❜✐♣❛rt✐ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠✮ ♣❛r ❧❛ ♠é✲ t❤♦❞❡ ❣❧♦❜❛❧❡♠❡♥t ❞é❝r✐t❡ ❝✐✲❞❡ss✉s ♣❡r♠❡t ❞❡ ré♣♦♥❞r❡ à ❞❡✉① t②♣❡s ❞❡ q✉❡st✐♦♥s ✿ ✶✳ ❊st✲❝❡ q✉❡ ❧❡ r❡❣r♦✉♣❡♠❡♥t ❞✬❡♥s❡♠❜❧❡ ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞✬❆❘◆♠ ❡♥ ✐♥✲ t❡r❛❝t✐♦♥ ✐♠♣❧✐q✉❡ ❞❡s ❛ttr✐❜✉ts ❜✐♦❧♦❣✐q✉❡s s♣é❝✐✜q✉❡s ♣♦✉r ❝❡s ❞❡✉① ❡♥s❡♠❜❧❡s ❄ ✷✳ ❊st✲❝❡ q✉❡ ❧✬❛❥♦✉t ❞✬❛ttr✐❜✉ts ❜✐♦❧♦❣✐q✉❡s ♣❛rt✐❝✉❧✐❡rs ♣❡r♠❡t ❞✬♦❜s❡r✈❡r ❞❡ ♥♦✉✲ ✈❡❛✉① r❡❣r♦✉♣❡♠❡♥ts ❞✬✐♥t❡r❛❝t✐♦♥s ✐♠♣❧✐q✉és ♣❛r ❝❡s ❛ttr✐❜✉ts ❄ ❉❛♥s ❧❛ s✉✐t❡ ❞❡ ❝❡tt❡ ♣❛rt✐❡✱ ❧❡s ❛ttr✐❜✉ts ❛❥♦✉tés ❛✉ ❝♦♥t❡①t❡ s♦♥t t♦✉t ❞✬❛❜♦r❞ ❞ét❛✐❧❧és ♣✉✐s ♦♥ ♣rés❡♥t❡ ✉♥❡ ❛♥❛❧②s❡ ❞❡s rés✉❧t❛ts ♦❜t❡♥✉s ♣❛r ❝❡tt❡ ♠ét❤♦❞❡ s✉r ❝❡s ❛ttr✐❜✉ts✳❆♣♣❧✐❝❛t✐♦♥ ❛✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ✶✶✾ a1 a2 a3 a4 µatt1 µatt2 µ1 ✶ ✶ ✶ µ2 ✶ ✶ µ3 ✶ ✶ ✶ ✶ ✶ µ4 ✶ ✶ ✶ µ5 ✶ ✶ ✶ ✶ aatt1 ✶ aatt2 ✶ ✶ K✐,µ,a >✐,1,2 = {µ1, µ2, µ3, µ4, µ5, aatt1 , aatt2 } × ∅ C ✐,1,2 1 = {µ1, µ5} × {µatt2 } C ✐,1,2 2 = {µ1, µ2, µ3, aatt1 } × {a2} C ✐,1,2 3 = {µ3, µ4, µ5, aatt2 } × {a3, a4} C ✐,1,2 4 = {µ1, µ2, µ3} × {a1, a2} C ✐,1,2 5 = {µ3, µ4, µ5} × {a3, a4, µatt1 } C ✐,1,2 6 = {µ1} × {a1, a2, µatt2 } C ✐,1,2 7 = {µ3} × {a1, a2, µatt1 } C ✐,1,2 8 = {µ5} × {a3, a4, µatt1 , µatt2 } ⊥ = ∅ × {a1, a2, a3, a4, µatt1 , µatt2 } B(K✐,µ,a) ❋✐❣✳ ✺✳✷ ✕ ▲❡ ❝♦♥t❡①t❡ K✐,µ,a ❡t s♦♥ tr❡✐❧❧✐s ❞❡ ❝♦♥❝❡♣ts✳ ❊♥ r♦✉❣❡ ❧❡ ❝♦♥❝❡♣t q✉✐ ♥❡ ❝♦♠♣♦rt❡ ❛✉❝✉♥❡ ✐♥t❡r❛❝t✐♦♥ ♠✐❝r♦❆❘◆✴❆❘◆♠ ❡t ♥❡ ❢❛✐t ❞♦♥❝ ♣❛s ♣❛rt✐❡ ❞❡ CA✐,µ,a✶✷✵ ➱t✉❞❡ ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♣❛r ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ✺✳✷✳✶ ❆ttr✐❜✉ts ❜✐♦❧♦❣✐q✉❡s ✉t✐❧✐sés ♣♦✉r ❧❡s ♠✐❝r♦❆❘◆ ❡t ❧❡s ❆❘◆♠ ❘è❣❧❡s ❞❡ tr❛♥s✐t✐♦♥ ❞❡ ♣r♦✜❧ ❝✐♥ét✐q✉❡ ❈❡t ❛ttr✐❜✉t ❡st ✐❞❡♥t✐q✉❡ ❛✉① rè❣❧❡s ✐ss✉❡s ❞❡ ❧❛ ❝❧❛ss✐✜❝❛t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞❡s ❆❘◆♠ ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ré❣✉❧és ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❡✉rs ♣r♦✜❧s ❝✐♥ét✐q✉❡s s❡①✉és ❡t ❛s❡①✉és ❞é❝r✐ts ❝❤❛♣✐tr❡ ✸✳ P♦✉r ❝❤❛q✉❡ é❧é♠❡♥t ❞✉ rés❡❛✉✱ ✉♥❡ rè❣❧❡ ❞❡ tr❛♥s✐t✐♦♥ ❡st ❛ss♦❝✐é❡✳ ■❧ s✬❛❣✐t ❞✬♦❜s❡r✈❡r s✐ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♦✉ ❞❡s ❆❘◆♠ ♣♦ssé❞❛♥t ❞❡s rè❣❧❡s ❞❡ tr❛♥s✐t✐♦♥s ✐❞❡♥t✐q✉❡s ♣rés❡♥t❡♥t ❞❡s ❝❛r❛❝tér✐st✐q✉❡s ❝♦♠♠✉♥❡s✳ ❈❤❛❝✉♥ ❞❡s ❛ttr✐❜✉ts r❡♣rés❡♥t❡ ❧✬✉♥❡ ❞❡s ♥❡✉❢ rè❣❧❡s ❞❡ ❝❧❛ss✐✜❝❛t✐♦♥ ❡t ✐❧ ❡①✐st❡ ✉♥❡ r❡❧❛t✐♦♥ ❡♥tr❡ ❧✬♦❜❥❡t ❡t ❧✬❛ttr✐❜✉t s✐ ❧❡ ❝♦✉♣❧❡ ❞❡ ♣r♦✜❧s ❞❡ ❧✬♦❜❥❡t ❝♦rr❡s♣♦♥❞ à ❧❛ rè❣❧❡✳ P♦✉r ❧❡s ✶✺ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✐❧ ② ❛ ❡①❛❝t❡♠❡♥t ✉♥ ❝❤♦✐① ❡✛❡❝t✉é ♣❛r♠✐ ❧❡s q✉❛tr❡ ❛ttr✐❜✉ts ❡①❝❧✉s✐❢s ❛ss♦❝✐és ❝❡ q✉✐ ❣é♥èr❡ ✶✺ ❝♦✉♣❧❡s ♠✐❝r♦❆❘◆✴rè❣❧❡ ❡t ♣♦✉r ❧❡s ✶✳✽✶✵ ❆❘◆♠ ✐❧ ② ❛ ♥❡✉❢ ❛ttr✐❜✉ts ❝❡ q✉✐ ❣é♥èr❡ ✶✳✽✶✵ ❝♦✉♣❧❡s ♠✐❝r♦❆❘◆✴rè❣❧❡✳ ➱❧é♠❡♥ts ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ré❣✉❧és ❛✉ ♣r❡♠✐❡r t❡♠♣s ❞❡s ❝✐♥ét✐q✉❡s ■❧ ❛ été ♠♦♥tré q✉❡ ♣❛ssé ❧❡ st❛❞❡ ❞❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❧❛r✈❛✐r❡ ✶✼✱ ❧❡s ❡♠❜r②♦♥s ♥❡ s♦♥t ♣❧✉s ✢❡①✐❜❧❡s ❛✉ ❦✐♥♦♣rè♥❡ ❡t q✉❡ ❧❡✉r ❛✈❡♥✐r✱ s❡①✉é ♦✉ ❛s❡①✉é✱ ❞❡✈✐❡♥t ❞ét❡r♠✐♥é ❬✼✼❪✳ ▲❡ ♣♦✐♥t ❞❡ tr❛♥s✐t✐♦♥ ❡♥tr❡ ❧❡ ❙t❛❞❡ ✶✼ ❡t ❧❡s st❛❞❡s s✉✐✈❛♥ts ♠ér✐t❡ ✉♥❡ ❛tt❡♥t✐♦♥ ♣❛rt✐❝✉❧✐èr❡✳ ◆♦✉s ❛✈♦♥s ❞♦♥❝ ✐♥tr♦❞✉✐t ✉♥ ❛ttr✐❜✉t ♣♦✉r ✐❞❡♥t✐✜❡r t♦✉t é❧é♠❡♥t ré❣✉❧é ♣♦ssé❞❛♥t ✉♥❡ ❞✐✛ér❡♥❝❡ ❞❡ ♣r♦✜❧s ❞✬❡①♣r❡ss✐♦♥ ❡♥tr❡ ❧❡ ❚✵ ✭❙t❛❞❡ ✶✼✮ ❡t ❧❡s ❚✶❙ ✭s❡①✉é✮ ♦✉ ❧❡s ❚✶❆❙ ✭❛s❡①✉é✮✳ ❊♥ ♣r♦❝é❞❛♥t à ❝❡tt❡ sé❧❡❝t✐♦♥✱ ❤✉✐t ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ✹✼✺ ❆❘◆♠ ♦♥t été ♠❛rq✉és ♣❛r ❝❡t ❛ttr✐❜✉t ✐♥t✐t✉❧é ✓ P❈❉ ✔ ✭♣♦✉r Pr❡♠✐èr❡ ❈✐♥ét✐q✉❡ ❉✐✛ér❡♥t❡✮✳ ❆♥♥♦t❛t✐♦♥ ❢♦♥❝t✐♦♥♥❡❧❧❡ ♣❛r ●❖ P♦✉r ❝❤❛q✉❡ ❆❘◆♠ ❞✉ rés❡❛✉ ❛✈❡❝ ❛✉ ♠♦✐♥s ✉♥❡ ❛♥♥♦t❛t✐♦♥ ❢♦♥❝t✐♦♥♥❡❧❧❡ ●❖ ✭♣♦✉r r❛♣♣❡❧ ✻✾✵ ❆❘◆♠✮✱ ❝❡tt❡ ♦✉ ❝❡s ❛♥♥♦t❛t✐♦♥s ❢♦♥❝t✐♦♥♥❡❧❧❡s ❧✉✐ s♦♥t ❛ss♦❝✐é❡s✳ ❈❤❛❝✉♥❡ ❞❡s ❛♥♥♦t❛t✐♦♥s r❡♣rés❡♥t❡ ✉♥ ❛ttr✐❜✉t ❡t ✐❧ ❡①✐st❡ ✉♥❡ r❡❧❛t✐♦♥ ❡♥tr❡ ❧✬❆❘◆♠ ❡t ❧✬❛ttr✐❜✉t s✐ ❧✬❆❘◆♠ ❡st ❛♥♥♦té ♣❛r ❝❡tt❡ ❛♥♥♦t❛t✐♦♥✳ ■❧ ② ❛ ✶✳✹✵✾ ❛ttr✐❜✉ts ♣♦✉r ✸✳✵✻✹ r❡❧❛t✐♦♥s✳ ❈❡t ❛ttr✐❜✉t ❡st ❛♣♣❡❧é ✓ ●❖ ✔ ♣❛r ❧❛ s✉✐t❡✳ ❆♥♥♦t❛t✐♦♥ ❢♦♥❝t✐♦♥♥❡❧❧❡ ♠❛♥✉❡❧❧❡ ♣❛r t❡r♠❡s ●❖ ❞✬✐♥térêt ❯♥❡ ❧✐st❡ ❞❡ ❢♦♥❝t✐♦♥s ❞✬✐♥térêt à ♦❜s❡r✈❡r ❞❛♥s ❧❡ rés❡❛✉ ❛ été ❡①tr❛✐t❡ à ♣❛rt✐r ❞❡s q✉❛tr❡ ❢♦♥❝t✐♦♥s ❜✐♦❧♦❣✐q✉❡s ♣ré❝é❞❡♠♠❡♥t ❛♥♥♦té❡s ♣❛r ●❛❧❧♦t ❡t ❛❧✳ ❬✼✼❪ ❡t ❜❛✲ sé❡s s✉r ❧✬❡①♣r❡ss✐♦♥ ❞✐✛ér❡♥t✐❡❧❧❡ ❞✬❆❘◆♠ ❝❤❡③ ❆✳ ♣✐s✉♠ ❛✈❡❝ ✉♥ ♣r♦t♦❝♦❧❡ ❡①♣ér✐✲ ♠❡♥t❛❧ ✐❞❡♥t✐q✉❡ ❛✉ ♥ôtr❡✳ ❈❡s q✉❛tr❡ ❢♦♥❝t✐♦♥s s♦♥t ✿ ❧✬♦✈♦❣❡♥ès❡ ✭✶✮✱ ❧❛ ré❣✉❧❛t✐♦♥ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ✭✷✮✱ ❧✬é♣✐❣é♥ét✐q✉❡ ✭✸✮ ❡t ❧❡ ❝②❝❧❡ ❝❡❧❧✉❧❛✐r❡ ✭✹✮✳ ➚ ❝❡s ❢♦♥❝t✐♦♥s s♦♥t ❛❥♦✉té❡s tr♦✐s ❛✉tr❡s ❢♦♥❝t✐♦♥s ✿ ❧❡ s②stè♠❡ ♥❡✉r♦❡♥❞♦❝r✐♥❡ ✭✺✮✱ ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ♠✉s❝✉❧❛✐r❡ ✭✻✮ ❡t ❧❛ ré❣✉❧❛t✐♦♥ tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ✭✼✮✳ P♦✉r ❧❛ ❢♦♥❝t✐♦♥ ✺✱ ✐❧ ❛ été ❞é❝✐❞é ❞❡ ❧✬❛❥♦✉t❡r ❝❛r ❝❡s é❧é♠❡♥ts ❥♦✉❡♥t ✉♥ rô❧❡ ❛✈éré ♦✉ ♣♦t❡♥t✐❡❧ ❞❛♥s ❧❛ ré❝❡♣t✐♦♥ ❡t tr❛♥s❞✉❝t✐♦♥ ❞✉ s✐❣♥❛❧ ❞❡ ❧❛ ♣❤♦t♦♣ér✐♦❞❡ ❝❤❡③ ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❬✼✸❪✳ ▲❛ ❢♦♥❝t✐♦♥ ✻ ❛ été ❛❥♦✉té❡ ❝❛r ❧✬♦♥ s❛✐t q✉❡ ❞✉ ♣♦✐♥t ❞❡ ✈✉❡ ♣❤é♥♦t②♣✐q✉❡ ❧❡s ❢❡♠❡❧❧❡s s❡①✉é❡s ❡t ❛s❡①✉é❡s ♥❡ s♦♥t ♣❛s ✐❞❡♥t✐q✉❡s✱ ❞✬♦ù ✉♥❡ ❞✐✛ér❡♥❝❡ ❞❡ ré❣✉❧❛t✐♦♥ ♣♦t❡♥t✐❡❧❧❡ ❞❡s ❆❘◆♠ ✐♠♣❧✐q✉és ❞❛♥s ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ♠✉s❝✉❧❛✐r❡✳ ▲❛ ❢♦♥❝t✐♦♥ ✼ ❛ été❆♣♣❧✐❝❛t✐♦♥ ❛✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ✶✷✶ ❛❥♦✉té❡ ❝❛r ♦♥ ❛ ❝♦♥st❛té ✉♥ ❡♥r✐❝❤✐ss❡♠❡♥t ❡♥ t❡r♠❡s ●❖ ❛ss♦❝✐és à ❝❡tt❡ ❢♦♥❝t✐♦♥ ❞❛♥s ❧❡s ❆❘◆♠ ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ré❣✉❧és ✭♣♦✉r r❛♣♣❡❧✱ ✈♦✐r ❚❛❜❧❡❛✉ ✸✳✸ ♣❛rt✐❡ ✸✳✷✮✳ ❯♥❡ ❢♦✐s ❝❡s s❡♣t ❢♦♥❝t✐♦♥s ❞é✜♥✐❡s✱ ❡❧❧❡s ♦♥t été ❝❛r❛❝tér✐sé❡s ♣❛r ❞❡s ❡♥s❡♠❜❧❡s ❞❡ t❡r♠❡s ●❖✳ ❙✐ ✉♥ ❆❘◆♠ ♣♦ssè❞❡ ✉♥ ❞❡s t❡r♠❡s ●❖ ❛ss♦❝✐és à ❧✬✉♥❡ ❞❡s ❢♦♥❝t✐♦♥s✱ ❛❧♦rs ✐❧ ❡st ❛✉ss✐ ❛ss♦❝✐é à ❝❡tt❡ ❢♦♥❝t✐♦♥✳ ▲✬❡♥s❡♠❜❧❡ ❞❡s s❡♣t ❢♦♥❝t✐♦♥s ❡t ❧❡✉rs ❛♥♥♦t❛t✐♦♥s ❡t ♥✉♠ér♦ ●❖ s♦♥t ❧✐sté❡s ❝✐✲❞❡ss♦✉s ✿ ✶✳ ❖✈♦❣❡♥ès❡ ✿ ♦♦❣❡♥❡s✐s ✭✵✵✹✽✹✼✼✮✱ ❣♦♥❛❞ ❞❡✈❡❧♦♣♠❡♥t ✭✵✵✵✽✹✵✻✮✱ r❡♣r♦❞✉❝t✐✈❡ str✉❝t✉r❡ ❞❡✈❡✲ ❧♦♣♠❡♥t ✭✵✵✹✽✻✵✽✮❀ ✷✳ ❘é❣✉❧❛t✐♦♥ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ✿ ♣♦sttr❛♥s❝r✐♣t✐♦♥❛❧ r❡❣✉❧❛t✐♦♥ ♦❢ ❣❡♥❡ ❡①♣r❡ss✐♦♥ ✭✵✵✶✵✻✵✽✮✱ ♣r♦❞✉❝t✐♦♥ ♦❢ s♠❛❧❧ ❘◆❆ ✐♥✈♦❧✈❡❞ ✐♥ ❣❡♥❡ s✐❧❡♥❝✐♥❣ ❜② ❘◆❆ ✭✵✵✼✵✾✶✽✮❀ ✸✳ ➱♣✐❣é♥ét✐q✉❡ ✿ r❡❣✉❧❛t✐♦♥ ♦❢ ♠♦❧❡❝✉❧❛r ❢✉♥❝t✐♦♥✱ ❡♣✐❣❡♥❡t✐❝ ✭✵✵✹✵✵✸✵✮✱ r❡❣✉❧❛t✐♦♥ ♦❢ ❣❡♥❡ ❡①✲ ♣r❡ss✐♦♥✱ ❡♣✐❣❡♥❡t✐❝ ✭✵✵✹✵✵✷✾✮✱ ❉◆❆ ♠❡t❤②❧❛t✐♦♥ ✭✵✵✵✻✸✵✻✮✱ ❝❤r♦♠❛t✐♥ ♦r❣❛♥✐③❛t✐♦♥ ✭✵✵✵✻✸✷✺✮✱ ❝❤r♦♠❛t✐♥ s✐❧❡♥❝✐♥❣ ✭✵✵✵✻✸✹✷✮❀ ✹✳ ❈②❝❧❡ ❝❡❧❧✉❧❛✐r❡ ✿ ❝❡❧❧ ❝②❝❧❡ ✭✵✵✵✼✵✹✾✮✱ ❝❡❧❧ ❞✐✛❡r❡♥t✐❛t✐♦♥ ✭✵✵✸✵✶✺✹✮✱ ❝❡❧❧ ❝②❝❧❡ ❉◆❆ r❡♣❧✐❝❛t✐♦♥ ✭✵✵✹✹✼✽✻✮❀ ✺✳ ❙②stè♠❡ ♥❡✉r♦❡♥❞♦❝r✐♥❡ ✿ ♥❡r✈♦✉s s②st❡♠ ❞❡✈❡❧♦♣♠❡♥t ✭✵✵✵✼✸✾✾✮✱ s②♥❛♣t✐❝ tr❛♥s♠✐ss✐♦♥ ✭✵✵✵✼✷✻✽✮✱ r❡s♣♦♥s❡ t♦ ❤♦r♠♦♥❡ ✭✵✵✵✾✼✷✺✮✱ r❡❣✉❧❛t✐♦♥ ♦❢ ❤♦r♠♦♥❡ ❧❡✈❡❧s ✭✵✵✶✵✽✶✼✮✱ ♥❡✉r♦♣❡♣t✐❞❡ s✐❣♥❛❧✐♥❣ ♣❛t❤✇❛② ✭✵✵✵✼✷✶✽✮✱ ♥❡✉r♦♣❡♣t✐❞❡ ❝❛t❛❜♦❧✐❝ ♣r♦❝❡ss ✭✵✵✶✵✽✶✸✮✱ ♥❡✉r♦tr❛♥s♠✐tt❡r tr❛♥s✲ ♣♦rt ✭✵✵✵✻✽✸✻✮✱ ❞♦♣❛♠✐♥❡ s❡❝r❡t✐♦♥ ✭✵✵✶✹✵✹✻✮✱ ❞♦♣❛♠✐♥❡ ♠❡t❛❜♦❧✐❝ ♣r♦❝❡ss ✭✵✵✹✷✹✶✼✮✱ ♦❝t♦♣❛✲ ♠✐♥❡ s❡❝r❡t✐♦♥ ✭✵✵✻✶✺✸✾✮✱ ♦❝t♦♣❛♠✐♥❡ ♠❡t❛❜♦❧✐❝ ♣r♦❝❡ss ✭✵✵✹✻✸✸✸✮✱ ❤✐st❛♠✐♥❡ ♠❡t❛❜♦❧✐❝ ♣r♦❝❡ss ✭✵✵✵✶✻✾✷✮✱ r❡s♣♦♥s❡ t♦ ❤✐st❛♠✐♥❡ ✭✵✵✸✹✼✼✻✮✱ ❤✐st❛♠✐♥❡ tr❛♥s♣♦rt ✭✵✵✺✶✻✵✽✮✱ ❡❝❞②s♦♥❡ ♠❡t❛❜♦✲ ❧✐❝ ♣r♦❝❡ss ✭✵✵✵✽✷✵✺✮✱ r❡s♣♦♥s❡ t♦ ❡❝❞②s♦♥❡ ✭✵✵✸✺✵✼✺✮✱ ♠❡✈❛❧♦♥❛t❡ tr❛♥s♣♦rt ✭✵✵✶✺✼✷✽✮✱ ✐s♦♣r❡✲ ♥♦✐❞ ❜✐♦s②♥t❤❡t✐❝ ♣r♦❝❡ss ✈✐❛ ♠❡✈❛❧♦♥❛t❡ ✭✶✾✵✷✼✻✼✮✱ t❡r♣❡♥♦✐❞ ❜✐♦s②♥t❤❡t✐❝ ♣r♦❝❡ss✱ ♠❡✈❛❧♦♥❛t❡✲ ❞❡♣❡♥❞❡♥t ✭✵✵✺✶✹✽✺✮✱ st❡r♦✐❞ ♠❡t❛❜♦❧✐❝ ♣r♦❝❡ss ✭✵✵✵✽✷✵✷✮✱ st❡r♦✐❞ ❤♦r♠♦♥❡ s❡❝r❡t✐♦♥ ✭✵✵✸✺✾✷✾✮❀ ✻✳ ❉é✈❡❧♦♣♣❡♠❡♥t ♠✉s❝✉❧❛✐r❡ ✿ ♠✉s❝❧❡ str✉❝t✉r❡ ❞❡✈❡❧♦♣♠❡♥t ✭✵✵✻✶✵✻✶✮❀ ✼✳ ❘é❣✉❧❛t✐♦♥ tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ✿ r❡❣✉❧❛t✐♦♥ ♦❢ tr❛♥s❝r✐♣t✐♦♥✱ ❉◆❆✲t❡♠♣❧❛t❡❞ ✭✵✵✵✻✸✺✺✮✳ ▲❡ ❚❛❜❧❡❛✉ ✺✳✶ ❞♦♥♥❡ ❧❡ ♥♦♠❜r❡ ❞✬❆❘◆♠ ❛ss♦❝✐és à ❝❤❛❝✉♥❡ ❞❡s ❢♦♥❝t✐♦♥s s✉r ❧❡s ❆❘◆♠ q✉✐ ♣♦ssè❞❡♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t❡s✳ ➚ ♥♦t❡r q✉❡ ❝❡rt❛✐♥s ❆❘◆♠ ♣❡✉✈❡♥t êtr❡ ❛ss♦❝✐és à ♣❧✉s✐❡✉rs ❢♦♥❝t✐♦♥s✱ ❝✬❡st ♣♦✉rq✉♦✐ ❧❡ ♥♦♠❜r❡ t♦t❛❧ ❞✬❆❘◆♠ ❡st ❞✐✛ér❡♥t ❞❡ ❧❛ s♦♠♠❡ ❞❡s ❆❘◆♠ ❛ss♦❝✐és à ❝❤❛❝✉♥❡ ❞❡s ❢♦♥❝t✐♦♥s✳ ❢♦♥❝t✐♦♥ ♥♦♠❜r❡ ❞✬❆❘◆♠ ♦✈♦❣❡♥ès❡ ✷✵ ré❣✉❧❛t✐♦♥ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ✼ é♣✐❣é♥ét✐q✉❡ ✶✾ ❝②❝❧❡ ❝❡❧❧✉❧❛✐r❡ ✾✼ s②stè♠❡ ♥❡✉r♦❡♥❞♦❝r✐♥❡ ✻✼ ❞é✈❡❧♦♣♣❡♠❡♥t ♠✉s❝✉❧❛✐r❡ ✶✷ ré❣✉❧❛t✐♦♥ tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ✺✷ t♦t❛❧ ✷✼✹ ❆❘◆♠ ✉♥✐q✉❡ ❛ss♦❝✐é à ✉♥❡ ❢♦♥❝t✐♦♥ ✶✹✻ ❚❛❜❧❡❛✉ ✺✳✶ ✕ ◆♦♠❜r❡ ❞✬❆❘◆♠ ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ré❣✉❧és ✐♠♣❧✐q✉és ❞❛♥s ❝❤❛q✉❡ ❢♦♥❝✲ t✐♦♥✳✶✷✷ ➱t✉❞❡ ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♣❛r ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❈❤❛❝✉♥❡ ❞❡ ❝❡s ❢♦♥❝t✐♦♥s r❡♣rés❡♥t❡ ✉♥ ❛ttr✐❜✉t ❡t ✐❧ ❡①✐st❡ ✉♥❡ r❡❧❛t✐♦♥ ❡♥tr❡ ❧✬❆❘◆♠ ❡t ❧✬❛ttr✐❜✉t s✐ ❧✬❆❘◆♠ ❡st ❛♥♥♦té ♣❛r ❝❡tt❡ ❢♦♥❝t✐♦♥✳ ■❧ ② ❛ ✼ ❛ttr✐❜✉ts ♣♦✉r ✷✼✹ r❡❧❛t✐♦♥s✳ ❉❛♥s ❧❛ s✉✐t❡ ❞❡ ❧❛ t❤ès❡ ❝❡t ❛ttr✐❜✉t ❡st ❛♣♣❡❧é ✓ ❢♦♥❝t✐♦♥ ♠❛♥✉❡❧❧❡ ✔✳ ❆✉❝✉♥ ❛ttr✐❜✉t ❞❡ ❢♦♥❝t✐♦♥ ♥✬❛ été ❛❥♦✉té ♣♦✉r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s à ❝❛✉s❡ ❞❡ ❧❡✉r ❢❛✐❜❧❡ ❡✛❡❝t✐❢✳ ✺✳✷✳✷ ❘és✉❧t❛t s✉r ❧❡ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥ ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ▲❛ ♠ét❤♦❞❡ ❞✬❡♥r✐❝❤✐ss❡♠❡♥t ❞❡s ♠♦❞✉❧❡s ❞✬✐♥t❡r❛❝t✐♦♥ ❛ été ❛♣♣❧✐q✉é❡ ❛✉ rés❡❛✉ s✉r ❧❡s ❝♦♥t❡①t❡s s✉✐✈❛♥ts ✿ ✕ ▲❡ ❝♦♥t❡①t❡ ❞❡s ✐♥t❡r❛❝t✐♦♥s ❡♥tr❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❆❘◆♠ ✿ ✶✺ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ✶✳✽✶✵ ❆❘◆♠ ❡t ✷✳✷✺✵ ✐♥t❡r❛❝t✐♦♥s ❀ ✕ ▲❡ ❝♦♥t❡①t❡ ❞❡s ❛ttr✐❜✉ts ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✿ ✶✺ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ✺ ❛t✲ tr✐❜✉ts ❡t ✷✸ ❝♦✉♣❧❡s ❡♥ r❡❧❛t✐♦♥s ❀ ✕ ▲❡ ❝♦♥t❡①t❡ ❞❡s ❛ttr✐❜✉ts ❞❡s ❆❘◆♠ ✿ ✶✳✽✶✵ ❆❘◆♠✱ ✶✳✹✷✻ ❛ttr✐❜✉ts ❡t ✺✳✻✷✸ ❝♦✉♣❧❡s ❡♥ r❡❧❛t✐♦♥s✳ ▲❡ ♥♦♠❜r❡ ❞❡ ❝♦♥❝❡♣ts✱ ♦✉ ♠♦❞✉❧❡s✱ ♦❜t❡♥✉s ❝♦♥t❡♥❛♥t ❛✉ ♠♦✐♥s ✉♥❡ ✐♥t❡r❛❝t✐♦♥ ♠✐❝r♦❆❘◆✴❆❘◆♠ ❡st ❞❡ ✷✳✷✷✺✳ ❯♥❡ ♣r❡♠✐èr❡ ❛♥❛❧②s❡ r❛♣✐❞❡ ❞❡ ❝❡s ❝♦♥❝❡♣ts ♠♦♥tr❡ q✉❡ ❧✬✐♥tr♦❞✉❝t✐♦♥ ❞❡ ❧✬❛ttr✐❜✉t ✓ ●❖ ✔ r❡♥❞ ❧❡ ♥♦♠❜r❡ ❞❡ ❝♦♥❝❡♣ts ✈r❛✐♠❡♥t tr♦♣ ✐♠♣♦rt❛♥t ✭✷✳✷✷✺✮ ❡t t❡♥❞ à ❜r♦✉✐❧❧❡r ❧✬✐♥t❡r♣rét❛t✐♦♥ ❞✉ rés❡❛✉✳ ❈❡❝✐ ♣❡✉t êtr❡ ❞û ❛✉ ❢❛✐t q✉✬✐❧ ♥✬② ❛ q✉❡ ✻✾✵ ❆❘◆♠ s✉r ❧❡s ✶✳✽✶✵ q✉✐ ♣♦ssè❞❡♥t ❛✉ ♠♦✐♥s ✉♥ ❛ttr✐❜✉t ●❖ ❡t q✉❡ ❧❛ ♣ré❝✐s✐♦♥ ❞❡s ❛♥♥♦t❛t✐♦♥s ♥✬❡st ♣❛s ❧❛ ♠ê♠❡ ♣♦✉r ❝❡s ✻✾✵ ❆❘◆♠✳ P♦✉r ❝❡tt❡ r❛✐s♦♥✱ ✐❧ ❛ été ❞é❝✐❞é ❞❡ s✉♣♣r✐♠❡r ❧✬❛ttr✐❜✉t ♣♦rt❛♥t s✉r ❧✬❛♥♥♦t❛t✐♦♥ ❢♦♥❝t✐♦♥♥❡❧❧❡ ♣❛r ●❖✱ ❝❡ q✉✐ r❛♠è♥❡ ❧❡ ❝♦♥t❡①t❡ ❞❡s ❛ttr✐❜✉ts ❞❡s ❆❘◆♠ à ✿ ✶✳✽✶✵ ❆❘◆♠✱ ✶✼ ❛ttr✐❜✉ts ❡t ✷✳✺✺✾ r❡❧❛t✐♦♥s✳ ▲❡ ♥♦♠❜r❡ ❞❡ ❝♦♥❝❡♣ts ♦❜t❡♥✉s ❡♥ s✉♣♣r✐♠❛♥t ❧✬❛♥♥♦t❛t✐♦♥ ●❖ ❞❡ ❧✬❛♥❛❧②s❡ ♣❛ss❡ à ✺✺✺ ❝♦♥❝❡♣ts✱ ❝❡ q✉✐ ❡st très ✐♥❢ér✐❡✉r ❛✉ ♥♦♠❜r❡ ♣ré❝é❞❡♥t ✭✷✳✷✷✺✮✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts ♦❜t❡♥✉s ❡♥ ❡①❝❧✉❛♥t ❧❡ t♦♣ ✭s✉♣r❡♠✉♠ ❞✉ tr❡✐❧❧✐s✮ ❡t ❧❡ ❜♦tt♦♠ ✭✐♥✜♠✉♠ ❞✉ tr❡✐❧❧✐s✮✱ ✻✺ ❝♦♠♣♦rt❡♥t ❛✉ ♠♦✐♥s ✉♥ ❛ttr✐❜✉t s✉r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ✹✼✸ ❛✉ ♠♦✐♥s ✉♥ ❛ttr✐❜✉t s✉r ❧❡s ❆❘◆♠ ❡t ✶✺ ♥❡ ❝♦♠♣♦rt❡♥t ❛✉❝✉♥ ❛ttr✐❜✉t✳ ❆✈❛♥t ❞✬❛❜♦r❞❡r ❧✬❛♥❛❧②s❡ ♣r♦♣r❡♠❡♥t ❞✐t❡✱ ♥♦✉s ♣rés❡♥t♦♥s ❋✐❣✉r❡ ✺✳✸ ✉♥ ❡①❡♠♣❧❡ ❞✉ t②♣❡ ❞❡ rés✉❧t❛t q✉❡ ❧✬♦♥ ♣❡✉t ♦❜t❡♥✐r✳ ❊❧❧❡ ❡st ✐ss✉❡ ❞❡ ❧✬❡①tr❛❝t✐♦♥ ❞❡ ❝✐♥q ❝♦♥❝❡♣ts ❞✉ tr❡✐❧❧✐s✳ ❈❤❛q✉❡ ❝♦♥❝❡♣t ❡st ❝♦♥st✐t✉é ❞❡ ❝✐♥q ♣❛rt✐❡s ✭sé♣❛ré❡s ♣❛r ✉♥ tr❛✐t✮ t♦✉❥♦✉rs ♣rés❡♥té❡s ❞❛♥s ❝❡t ♦r❞r❡ ✿ ✶✳ ▲❡ ♥✉♠ér♦ ❞✉ ❝♦♥❝❡♣t ❀ ✷✳ ▲✬❡♥s❡♠❜❧❡ ❞❡s ❛ttr✐❜✉ts ♣♦ssé❞és ♣❛r ❧❡s ❆❘◆♠ ❀ ✸✳ ▲✬❡♥s❡♠❜❧❡ ❞❡s ❆❘◆♠ ✭♥♦♠❡♥❝❧❛t✉r❡ ❆♣❤✐❞❇❛s❡ ✿ ❆❈❨P■✮✳ ❙✐ ❧❡ ♥♦♠❜r❡ ❞✬❆❘◆♠ ♣rés❡♥ts ❞❛♥s ❧❡ ❝♦♥❝❡♣t ❞é♣❛ss❡ ❧❡s ✷✺✱ ❛❧♦rs ❞❛♥s ❝❡ ❝❛s s❡✉❧ ❧❡ ♥♦♠❜r❡ ❞✬❆❘◆♠ ♣rés❡♥ts ❡st ❛✣❝❤é ❀ ✹✳ ▲✬❡♥s❡♠❜❧❡ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❀ ✺✳ ▲✬❡♥s❡♠❜❧❡ ❞❡s ❛ttr✐❜✉ts ♣♦ssé❞és ♣❛r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✳ ➚ ♥♦t❡r q✉❡ ♣♦✉r ❢❛❝✐❧✐t❡r ❧❛ ❧✐s✐❜✐❧✐té ❡t ❧✬✐♥t❡r♣rét❛t✐♦♥ ❞❡s ✜❣✉r❡s✱ ❝❡rt❛✐♥s ❛ttr✐❜✉ts ♦♥t été ❛❥♦✉tés ❛✉① ❝♦♥❝❡♣ts ❛♣rès ❧❛ ❝ré❛t✐♦♥ ❞✉ tr❡✐❧❧✐s✳ ❈❡s ❝❛s ❝♦rr❡s♣♦♥❞❡♥t ❛✉①❆♣♣❧✐❝❛t✐♦♥ ❛✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ✶✷✸ ❝♦♥❝❡♣ts ♣♦ssé❞❛♥t ✉♥❡ ❛♥♥♦t❛t✐♦♥ à ❧❛ ❢♦✐s s✉r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❧❡s ❆❘◆♠ ✭❝❛s ✷ ❡t ❝❛s ✷✱✸✮✳ ▲❡s ❛ttr✐❜✉ts s♦♥t ❞♦♥❝ ❛❥♦✉tés s✐ ❡t s❡✉❧❡♠❡♥t s✐ ✐❧s s♦♥t ♣rés❡♥ts ♣♦✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s é❧é♠❡♥ts ✭♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♦✉ ❆❘◆♠ ❞✉ ❝♦♥❝❡♣t✮✳ ▲❡s ❛ttr✐❜✉ts ❛❥♦✉tés ❛♣♣❛r❛✐ss❡♥t ❡♥tr❡ ❛❝❝♦❧❛❞❡s✳ Concept 429 « diminution » ACYPI000346 ACYPI082800 ACYPI083520 ACYPI48937 api-mir-316-5p api-mir-novel146-5p { augmentation } Concept 238 « diminution » ... 65 ... api-mir-316-5p { augmentation } Concept 283 « diminution » ... 62 ... api-mir-novel146-5p { augmentation } { PCD } Concept 505 « diminution » « PCD » ACYPI001421 ACYPI001777 ACYPI002240 ACYPI002982 ACYPI004012 ACYPI008556 ACYPI009377 ACYPI068173 ACYPI069860 ACYPI083520 ACYPI085775 ACYPI087684 ACYPI22226 ACYPI29370 ACYPI33621 ACYPI33946 ACYPI44738 ACYPI46195 ACYPI51768 api-mir-316-5p { augmentation } Concept 528 « diminution » « PCD » « système neuroendocrine » ACYPI008556 ACYPI44738 api-mir-316-5p { augmentation } ❋✐❣✳ ✺✳✸ ✕ ❈✐♥q ❝♦♥❝❡♣ts ❡①tr❛✐ts ❞✉ tr❡✐❧❧✐s ❞❡s ✐♥t❡r❛❝t✐♦♥s ❛♣rès ❛❥♦✉t ❞✬✐♥❢♦r♠❛t✐♦♥✳ ❯♥❡ ❞❡s ❢❛ç♦♥s ❞❡ ❧✐r❡ ❝❡tt❡ ✜❣✉r❡ ❡st ❧❛ s✉✐✈❛♥t❡ ✿ ❧❡ ❝♦♥❝❡♣t ✷✸✽ ✐♥❝❧✉t ✻✺ ❆❘◆♠ ❝✐❜❧és ♣❛r ❧❡ ♠✐❝r♦❆❘◆ ❛♣✐✲♠✐r✲✸✶✻✲✺♣✱ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❆❘◆♠ s✉✐✈❡♥t ❧❛ rè❣❧❡ ✓ ❞✐♠✐♥✉✲ t✐♦♥ ✔ ❡t ❛♣✐✲♠✐r✲✸✶✻✲✺♣ s✉✐t ❧❛ rè❣❧❡ ✓ ❛✉❣♠❡♥t❛t✐♦♥ ✔✳ ❊♥s✉✐t❡✱ ❧❡ ❝♦♥❝❡♣t ✷✽✸ r❡❣r♦✉♣❡ ✻✷ ❆❘◆♠ q✉✐ s✉✐✈❡♥t ❧❛ rè❣❧❡ ✓ ❞✐♠✐♥✉t✐♦♥ ✔ ❡t s♦♥t ❝✐❜❧és ♣❛r ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹✻✲✺♣ q✉✐ ❧✉✐ ♣♦ssè❞❡ ❧❡s ❛ttr✐❜✉ts ✓ ❛✉❣♠❡♥t❛t✐♦♥ ✔ ❡t ✓ P❈❉ ✔ ✭é❧é♠❡♥t ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ré❣✉❧é ❛✉ ♣r❡♠✐❡r ♣❛s ❞❡ t❡♠♣s ❞❡s ❝✐♥ét✐q✉❡s✮✳ ▲❡ ❝♦♥❝❡♣t ✹✷✾ r❡❣r♦✉♣❡ q✉❛tr❡ ❝✐❜❧❡s ❝♦♠✲ ♠✉♥❡s ❞❡ ❛♣✐✲♠✐r✲✸✶✻✲✺♣ ❡t ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹✻✲✺♣ q✉✐ s✉✐✈❡♥t ❧❛ rè❣❧❡ ✓ ❞✐♠✐♥✉t✐♦♥ ✔✳ ❖♥ ♣❡✉t ✈♦✐r ❛✉ss✐ q✉❡ ❝❡s ❞❡✉① ♠✐❝r♦❆❘◆ s✉✐✈❡♥t ❧❛ rè❣❧❡ ✓ ❛✉❣♠❡♥t❛t✐♦♥ ✔✳ ▲❡s q✉❛tr❡ ❆❘◆♠ ❞✉ ❝♦♥❝❡♣t ✹✷✾ ❢♦r♠❡♥t ✉♥ s♦✉s ❡♥s❡♠❜❧❡ à ❧❛ ❢♦✐s ❞❡s ❆❘◆♠ ❞✉ ❝♦♥❝❡♣t ✷✸✽ ❡t ❞❡s ❆❘◆♠ ❞✉ ❝♦♥❝❡♣t ✷✽✸✳ ▲❡ ❝♦♥❝❡♣t ✺✵✺ r❡❣r♦✉♣❡ ✉♥ s♦✉s ❡♥s❡♠❜❧❡ ❞❡s ❆❘◆♠ ❝✐❜❧és ♣❛r ❛♣✐✲♠✐r✲✸✶✻✲✺♣ ❡t ♣rés❡♥ts ❞❛♥s ❧❡ ❝♦♥❝❡♣t ✷✸✽ ♠❛✐s ♦ù ❝❡tt❡ ❢♦✐s✲❝✐ ❧✬❡♥s❡♠❜❧❡✶✷✹ ➱t✉❞❡ ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♣❛r ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❞❡ ❝❡s ❆❘◆♠ ♣♦ssè❞❡♥t ❧❡s ❛ttr✐❜✉ts ✓ ❞✐♠✐♥✉t✐♦♥ ✔ ❡t ✓ P❈❉ ✔✳ ❉❡ ❧❛ ♠ê♠❡ ❢❛ç♦♥✱ ❧❡s ❆❘◆♠ ❞✉ ❝♦♥❝❡♣t ✺✷✽ ✭s♦✉s ❡♥s❡♠❜❧❡ ❞❡ ❝❡✉① ♣rés❡♥ts ❞❛♥s ❧❡ ❝♦♥❝❡♣t ✺✵✺✮ ♣♦s✲ sè❞❡♥t t♦✉❥♦✉rs ❧❡s ❛ttr✐❜✉ts ✓ ❞✐♠✐♥✉t✐♦♥ ✔ ❡t ✓ P❈❉ ✔ ♠❛✐s ❛✉ss✐ ❧✬❛ttr✐❜✉t ✓ s②stè♠❡ ♥❡✉r♦❡♥❞♦❝r✐♥❡ ✔✳ ▲❡s ✜❣✉r❡s ♦♥t été ♣r♦❞✉✐t❡s à ❧✬❛✐❞❡ ❞❡ ❣r❛♣❤✈✐③ ❬✶✻✷❪✳ ❊①♣❧♦r❛t✐♦♥ ♥♦♥ s✉♣❡r✈✐sé❡ ❞❡s ♠♦❞✉❧❡s ▲✬❡①♣❧♦r❛t✐♦♥ ♥♦♥ s✉♣❡r✈✐sé❡ ❝♦♥s✐st❡ à ♦❜s❡r✈❡r ❧✬❡♥s❡♠❜❧❡ ❞❡s ♠♦❞✉❧❡s ❢♦r♠és s❛♥s ❛ ♣r✐♦r✐ ❜✐♦❧♦❣✐q✉❡ ❡♥ r❡❣❛r❞❛♥t ♣ré❢ér❡♥t✐❡❧❧❡♠❡♥t ❞❡s ♠♦❞✉❧❡s r❡s♣❡❝t❛♥t ❝❡rt❛✐♥❡s ❝♦♥tr❛✐♥t❡s✳ ❖♥ ♣❡✉t ❛✐♥s✐ ❝❤❡r❝❤❡r à ♦❜s❡r✈❡r ❧❡s ♠♦❞✉❧❡s ❝♦♥t❡♥❛♥t ❛✉ ♠✐♥✐♠✉♠ ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞❡✉① ❆❘◆♠ ♦✉ ❡♥❝♦r❡ ❝♦♥tr❛✐♥❞r❡ q✉❡ ❧❡s rè❣❧❡s s✉✐✈✐❡s ♣❛r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s♦✐t ❝♦❤ér❡♥t❡s à ❝❡❧❧❡s s✉✐✈✐❡s ♣❛r ❧❡s ❆❘◆♠✳ ❊①♣❧♦r❛t✐♦♥ ❞❡s ♠♦❞✉❧❡s ❝♦♥t❡♥❛♥t ❛✉ ♠✐♥✐♠✉♠ ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞❡✉① ❆❘◆♠ ❉❛♥s ❝❡tt❡ s♦✉s✲♣❛rt✐❡ ♥♦✉s ♥♦✉s ✐♥tér❡ss♦♥s ❛✉① ❝♦♥❝❡♣ts ❝♦♥t❡♥❛♥t ❛✉ ♠♦✐♥s ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❛✉ ♠♦✐♥s ❞❡✉① ❆❘◆♠ ♣♦✉r ♦❜s❡r✈❡r s✐ ❝❡rt❛✐♥s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❝✐❜❧❡♥t ❞❡s ❡♥s❡♠❜❧❡s ❞✬❆❘◆♠ ✐❞❡♥t✐q✉❡s q✉✐ s❡r❛✐❡♥t ✐♠♣❧✐q✉és ❞❛♥s ❞❡s ❢♦♥❝t✐♦♥s ✐❞❡♥t✐q✉❡s✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s ✺✺✺ ❝♦♥❝❡♣ts ♦❜t❡♥✉s✱ ✉♥ t✐❡rs ✭✶✻✹✮ ♣♦ssè❞❡♥t ❛✉ ♠✐♥✐♠✉♠ ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞❡✉① ❆❘◆♠✳ ▲❡s s♦✉s✲❣r❛♣❤❡s ❝♦♠♣♦rt❛♥t ✉♥✐q✉❡♠❡♥t ❝❡s ❝♦♥❝❡♣ts ♦♥t été ❡①tr❛✐ts✳ ■❧s s❡ ❞✐✈✐s❡♥t ❡♥ ✷✵ ❝♦♠♣♦s❛♥t❡s ❝♦♥♥❡①❡s✱ ♦ù ✉♥❡ ❝♦♠♣♦s❛♥t❡ ❝♦♥♥❡①❡ r❡❣r♦✉♣❡ t♦✉s ❧❡s ❝♦♥❝❡♣ts r❡❧✐és ♣❛r ✉♥ ❝❤❡♠✐♥ ❞✉ s♦✉s✲❣r❛♣❤❡✳ ❆✉tr❡♠❡♥t ❞✐t✱ ✐❧ ♥✬❡①✐st❡ ❛✉❝✉♥❡ r❡❧❛t✐♦♥ ❡♥tr❡ ❧❡s ❝♦♥❝❡♣ts ❞❡ ❞❡✉① ❝♦♠♣♦s❛♥t❡s ❝♦♥♥❡①❡s ❞✐✛ér❡♥t❡s✳ ▲❡s ❝♦♠♣♦s❛♥t❡s ❝♦♥♥❡①❡s s♦♥t ♠❛❥♦r✐t❛✐r❡♠❡♥t ❝♦♠♣♦sé❡s ❞✬✉♥ s❡✉❧ ❝♦♥❝❡♣t ✭✶✷ ❝♦♠✲ ♣♦s❛♥t❡s✮✱ s✐① ❝♦♠♣♦s❛♥t❡s ✐♥❝❧✉❡♥t ❞❡✉① ❝♦♥❝❡♣ts✱ ✉♥❡ ❝♦♠♣♦s❛♥t❡ ✐♥❝❧✉t tr♦✐s ❝♦♥❝❡♣ts ❡t ❧❛ ❞❡r♥✐èr❡ ❝♦♠♣♦s❛♥t❡ ✐♥❝❧✉t ✶✸✼ ❝♦♥❝❡♣ts✳ ❊♥ ♦❜s❡r✈❛♥t ❝❡tt❡ ❞❡r♥✐èr❡ ❝♦♠♣♦s❛♥t❡✱ ✐❧ ❛♣♣❛r❛ît q✉✬❡❧❧❡ ❡st ❝♦♠♣♦sé❡ q✉❛s✐ ❡①❝❧✉s✐✈❡♠❡♥t ❞❡ ❝♦♥❝❡♣ts ✐♥❝❧✉❛♥t ❧❡ ♠✐❝r♦❆❘◆ ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣✱ q✉✐ ♣♦✉r r❛♣♣❡❧ ❝✐❜❧❡ ✺✹ ✪ ❞❡s ❆❘◆♠ ❞✉ rés❡❛✉✳ ■♥t❡r♣rét❡r ❧❛ ❢♦♥❝t✐♦♥ ❞❡ ❝❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ s❡♠❜❧❡ ❞✐✣❝✐❧❡ ❛✉ ✈✉ ❞❡ s♦♥ ♥♦♠❜r❡ é♥♦r♠❡ ❞✬✐♥t❡r❛❝t✐♦♥s✳ ❉❡s ❝r✐tèr❡s s✉r ❧❡s ♠♦❞✉❧❡s ♣ré❝é❞❡♠♠❡♥t ❡①tr❛✐ts ♦♥t ❞♦♥❝ été r❛❥♦✉tés ♣♦✉r ❞ét❡r♠✐♥❡r s✐ ✉♥ ❝♦♥❝❡♣t ❞❡✈❛✐t êtr❡ ❣❛r❞é ♦✉ ♥♦♥ ♣♦✉r ❝❡tt❡ ❛♥❛❧②s❡ ✿ ✕ ❯♥ ♠♦❞✉❧❡ q✉✐ ♥❡ ❝♦♥t✐❡♥t q✉❡ ❞❡✉① ♠✐❝r♦❆❘◆ ♥❡ ❞♦✐t ♣❛s ❝♦♥t❡♥✐r ❛♣✐✲♠✐r✲✸✵✶✾✲ ✺♣ ❀ ✕ ❯♥ ♠♦❞✉❧❡ q✉✐ ❝♦♥t✐❡♥t str✐❝t❡♠❡♥t ♣❧✉s ❞❡ ❞❡✉① ♠✐❝r♦❆❘◆ ♣❡✉t ❝♦♥t❡♥✐r ❛♣✐✲ ♠✐r✲✸✵✶✾✲✺♣✳ ❯♥❡ ❢♦✐s ❝❡s ❝r✐tèr❡s ❛❥♦✉tés✱ ❧❡ ♥♦♠❜r❡ ❞❡ ❝♦♥❝❡♣ts✱ ❧❡ ♥♦♠❜r❡ ❞❡ ❝♦♠♣♦s❛♥t❡s ❡t ❧❛ ré♣❛rt✐t✐♦♥ ❞❡s ❝♦♥❝❡♣ts ❛✉ s❡✐♥ ❞❡s ❝♦♠♣♦s❛♥t❡s ♥❡ ❝♦♠♣♦rt❡ ♣❧✉s q✉❡ ✼✻ ❝♦♥❝❡♣ts ré♣❛rt✐s ❞❛♥s ✷✾ ❝♦♠♣♦s❛♥t❡s ❝♦♥♥❡①❡s ❛✈❡❝ ✿ ✕ ✶✹ ❝♦♥❝❡♣ts s❡✉❧s ❀ ✕ q✉❛tr❡ ❝♦♠♣♦s❛♥t❡s ❛✈❡❝ ❞❡✉① ❝♦♥❝❡♣ts ❀ ✕ ❝✐♥q ❝♦♠♣♦s❛♥t❡s ❛✈❡❝ q✉❛tr❡ ❝♦♥❝❡♣ts ❀ ✕ ❞❡✉① ❝♦♠♣♦s❛♥t❡s ❛✈❡❝ ❝✐♥q ❝♦♥❝❡♣ts ❀ ✕ q✉❛tr❡ ❝♦♠♣♦s❛♥t❡s ❛✈❡❝ s✐① ❝♦♥❝❡♣ts✳ ❖♥ ♥♦t❡ t♦✉t ❞✬❛❜♦r❞ q✉❡ ❧❡ ♥♦♠❜r❡ ♠❛①✐♠✉♠ ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❞❛♥s ✉♥ ♠♦❞✉❧❡ ❡st ❞❡ tr♦✐s ❡t q✉❡ ❧❡s ♠✐❝r♦❆❘◆ ❛♣✐✲♠✐r✲✷✽✶✲✺♣✱ ❛♣✐✲♠✐r✲✷✼✽✲✺♣✱ ❛♣✐✲♠✐r✲✸✵✷✻✲ ✺♣ ❡t ❛♣✐✲♠✐r✲♥♦✈❡❧✽✺✲✸♣ ♥❡ s♦♥t ♣❛s ♣rés❡♥ts✱ ❝❡ q✉✐ ❢❛✐t q✉❡ s❡✉❧s ✶✶ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s❆♣♣❧✐❝❛t✐♦♥ ❛✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ✶✷✺ ❛♣♣❛r❛✐ss❡♥t ❞❛♥s ❧❡s ❝♦♥❝❡♣ts r❡s♣❡❝t❛♥t ❧❡s ❝r✐tèr❡s ❞é✜♥✐s ❝✐✲❞❡ss✉s✳ ❙✉r ❧✬❡♥s❡♠❜❧❡ ❞❡ ❝❡s ❝♦♥❝❡♣ts✱ ✉♥❡ ♣r❡♠✐èr❡ ❛♥❛❧②s❡ ♣♦ss✐❜❧❡ ❡st ❞✬♦❜s❡r✈❡r ❧❛ ❝♦♦❝✲ ❝✉rr❡♥❝❡ ❞❡s ❞✐✛ér❡♥ts ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❞❛♥s ❝❡s ❝♦♥❝❡♣ts ✿ q✉❡❧s s♦♥t ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s q✉✐ s❡ r❡tr♦✉✈❡♥t ❛✉ s❡✐♥ ❞❡s ♠ê♠❡s ❝♦♥❝❡♣ts ❄ ❊♥ ❞✬❛✉tr❡s t❡r♠❡s✱ ❡st✲❝❡ q✉✬✐❧ ❡①✐st❡ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s q✉✐ ♦♥t t❡♥❞❛♥❝❡ à s❡ r❡❣r♦✉♣❡r ❞✉ ❢❛✐t ❞❡ ❧❡✉rs ✐♥t❡r❛❝t✐♦♥s ❄ P❛r♠✐ ❧❡s ♠✐❝r♦❆❘◆ q✉✐ ❛♣♣❛r❛✐ss❡♥t s♦✉✈❡♥t ❡♥s❡♠❜❧❡ ✭s❛♥s ♣r❡♥❞r❡ ❡♥ ❝♦♠♣t❡ ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣✮ ♥♦✉s ♣♦✉✈♦♥s ❝✐t❡r ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣ ❡t ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹✻✲ ✺♣✱ ❛♣✐✲♠✐r✲✶✲✸♣ ❡t ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣✱ ❛♣✐✲♠✐r✲✶✹✲✸♣ ❡t ❛♣✐✲♠✐r✲✸✶✻✲✺♣✱ ❛♣✐✲♠✐r✲✸✶✻✲✺♣ ❡t ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹✻✲✺♣✳ ❖♥ ♣❡✉t ♥♦t❡r ❧❛ ❝♦♦❝❝✉rr❡♥❝❡ ❞❡ ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣ ❡t ❛♣✐✲♠✐r✲✷✻✸❛✲ ✺♣✱ ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡①♣r✐♠és ❞❛♥s ❧❛ têt❡ s♦✐t ❝❤❡③ ❧✬❛❜❡✐❧❧❡ ❬✶✸✼❪ s♦✐t ❝❤❡③ ❧❡ ✈❡r à s♦✐❡ ❬✺✻❪ ✭❋✐❣✉r❡ ✺✳✹✮✳ ❉❛♥s ❝❡ s♦✉s✲❣r❛♣❤❡✱ ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣ ❡t ❛♣✐✲♠✐r✲✷✻✸❛✲✺♣ ❝✐❜❧❡♥t tr♦✐s ❆❘◆♠ ❝♦♠♠✉♥s ❡t ❧✬❛❥♦✉t ❞❡ ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣ ré❞✉✐t ❝❡ ♥♦♠❜r❡ à ❞❡✉①✳ ❖♥ ♣❡✉t ♦❜s❡r✈❡r q✉❡ ❧❡s ❝♦♥❝❡♣ts ✸✻ ❡t ✸✼ ♣❡✉✈❡♥t êtr❡ r❡❣r♦✉♣és✱ ❞❡ ♠ê♠❡ ♣♦✉r ❧❡s ❝♦♥❝❡♣ts ✸✹ ❡t ✸✺✳ ▲❡s tr♦✐s ❆❘◆♠ ❛ss♦❝✐és s✉✐✈❡♥t ❧❛ rè❣❧❡ ✓ ❛✉❣♠❡♥t❛t✐♦♥ ✔ ❡t ❧❡s ❞❡✉① ♠✐❝r♦❆❘◆ ❧❛ rè❣❧❡ ✓ ❞✐♠✐♥✉t✐♦♥ ✔ ❡t ♣♦ssè❞❡♥t ❛✉ss✐ ❧✬❛ttr✐❜✉t ✓ P❈❉ ✔✳ ❙✐ ❧✬♦♥ r❡❣❛r❞❡ ❞❡ ♣❧✉s ♣rès ❧❡s ❛♥♥♦t❛t✐♦♥s ❞❡s ❆❘◆♠✱ ♦♥ ♣❡✉t ✈♦✐r q✉❡ ❆❈❨P■✵✵✵✷✸✺ ❡st ❛♥✲ ♥♦té ❝♦♠♠❡ ✓ ♣r♦t❡✐♥ ❤❡❧❞ ♦✉t ✇✐♥❣s✲❧✐❦❡ ✔✱ ❆❈❨P■✵✵✺✺✶✹ ❝♦♠♠❡ ✓ ❜❡t❛✲❛♠②❧♦✐❞✲❧✐❦❡ ♣r♦t❡✐♥ ✔ ✭❛ttr✐❜✉t ❢♦♥❝t✐♦♥ ✿ ✓ ❝②❝❧❡ ❝❡❧❧✉❧❛✐r❡ ✔ ❡t ✓ s②stè♠❡ ♥❡✉r♦❡♥❞♦❝r✐♥❡ ✔✮ ❡t q✉❡ ❆❈❨P■✵✵✷✼✻✸ ♥❡ ♣♦ssè❞❡ ❛✉❝✉♥❡ ❛♥♥♦t❛t✐♦♥✳ ❊♥ r❡❣❛r❞❛♥t ♣❧✉s ❡♥ ❞ét❛✐❧s ❧❡s ❛♥♥♦t❛✲ t✐♦♥s ●❖ ❞❡ ❆❈❨P■✵✵✺✺✶✹✱ ♦♥ ✈♦✐t q✉❡ ❝❡ ❣è♥❡ ❡st ✐♠♣❧✐q✉é ❞❛♥s ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞✉ s②stè♠❡ ♥❡r✈❡✉① ♣ér✐♣❤ér✐q✉❡✱ ❝❡ q✉✐ ❡st ❝♦❤ér❡♥t ❛✈❡❝ ❧❛ ❧♦❝❛❧✐s❛t✐♦♥ ❞❡ ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣ ❡t ❛♣✐✲♠✐r✲✷✻✸❛✲✺♣ ❞❛♥s ❧❛ têt❡✳ ▲❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❞❡ ❝❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s✉r ❝❡s ❆❘◆♠ s♦♥t tr♦♣ ❞✐st❛♥ts✱ ❡♥tr❡ ✶✺✵ ❡t ✹✺✵ ♥✉❝❧é♦t✐❞❡s✱ ♣♦✉r ♣♦✉✈♦✐r ❢❛✐r❡ ❧✬❤②♣♦t❤ès❡ ❞✬✉♥❡ ❝♦♦♣ér❛t✐♦♥ ❡♥tr❡ ❝❡s s✐t❡s✳ ❊♥ ♣❧✉s ❞❡ ❝❡tt❡ ❝♦♦❝❝✉rr❡♥❝❡✱ ❝❡❧❧❡ ❞❡ ❛♣✐✲♠✐r✲✶✹✲✸♣ ❡t ❛♣✐✲♠✐r✲✷✻✸❛✲✺♣✱ ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♣♦t❡♥t✐❡❧❧❡♠❡♥t ✐♠♣❧✐q✉és ❞❛♥s ❧✬❛♣♦♣t♦s❡✱ s❡ r❡tr♦✉✈❡♥t ❞❡ ❢❛ç♦♥ ✐♥tér❡ss❛♥t❡ ❛✉ s❡✐♥ ❞✉ ♠ê♠❡ ❝♦♥❝❡♣t ✭❧❡ ❝♦♥❝❡♣t ✹✺✻ ❋✐❣✉r❡ ✺✳✺✮✳ ❈❡ ❝♦♥❝❡♣t ✐♥❝❧✉t ❞❡✉① ❆❘◆♠ ✿ ❆❈❨P■✵✵✹✵✵✾ ✭✓ ❛✉❣♠❡♥t❛t✐♦♥ ✔✮ ❡t ❆❈❨P■✵✵✽✽✷✼ ✭✓ ❞✐♠✐♥✉t✐♦♥ ✔✮✱ t♦✉s ❞❡✉① ❛♥♥♦tés r❡s♣❡❝t✐✈❡♠❡♥t ❝♦♠♠❡ ✉♥❡ ✓ ♣r♦t❡✐♥ ♣❤♦s♣❤❛t❛s❡ ✶ r❡❣✉❧❛t♦r② s✉❜✉♥✐t ✸✼ ✔ ❡t ✉♥❡ ✓ ❢♦r❦❤❡❛❞ ❜♦① ♣r♦t❡✐♥ ♦✲❧✐❦❡ ✔ ✭❢❛❝t❡✉r ❞❡ tr❛♥s❝r✐♣t✐♦♥✮✳ ❖♥ ♣❡✉t ♥♦t❡r q✉❡ ❧❡s ♣r♦té✐♥❡s ❞❡ ❧❛ ❢❛♠✐❧❧❡ ❋❖❳❖✸✱ ✉♥❡ s♦✉s✲❢❛♠✐❧❧❡ ❞❡s ♣r♦té✐♥❡s ❢♦r❦❤❡❛❞ ❜♦①✱ s♦♥t ✐♠♣❧✐q✉é❡s ❞❛♥s ❧✬❛♣♦♣t♦s❡ ❬✶✻✸❪✱ ❝❡ q✉✐ ét❛✐t ❞é❥à ❧❡ ❝❛s ♣♦✉r ❧❡s ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✳ ▲✬❤②♣♦t❤ès❡ ❞✬✉♥❡ ❛❝t✐♦♥ ❝♦♦♣ér❛t✐✈❡ ❞❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ s✉r ❧✬✉♥ ❞❡s ❞❡✉① ♦✉ ❧❡s ❞❡✉① ❆❘◆♠ ❡st t❡♥t❛♥t❡✱ ♠❛✐s ❧❡s s✐t❡s s❡♠❜❧❡♥t tr♦♣ é❧♦✐❣♥és ♣♦✉r ❝❡❧❛ ✭✶✽✸ ♥✉❝❧é♦t✐❞❡s ♣♦✉r ❆❈❨P■✵✵✽✽✷✼ ❡t ✾✻ ♣♦✉r ❆❈❨P■✵✵✹✵✵✾✮✳ ❍♦r♠✐s ❝❡s ❞❡✉① ❝❛s✱ ✐❧ ♥❡ s❡♠❜❧❡ ♣❛s ② ❛✈♦✐r ❞✬❛✉tr❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♣❛rt❛❣❡❛♥t ❞❡s ❢♦♥❝t✐♦♥s✴❛♥♥♦t❛t✐♦♥s ❝♦♥♥✉❡s s❡♠❜❧❛❜❧❡s q✉✐ s❡ r❡❣r♦✉♣❡♥t ♣ré❢ér❡♥t✐❡❧❧❡♠❡♥t✳ ❯♥❡ ❛✉tr❡ ✐♥❢♦r♠❛t✐♦♥ à ♥♦t❡r ❡st q✉❡ ♣❛r♠✐ ❧❡s ✼✻ ❝♦♥❝❡♣ts✱ ❛✉❝✉♥ ❡♥s❡♠❜❧❡ ❞✬❆❘◆♠ ♥❡ ♣❛rt❛❣❡ ❧❛ ♠ê♠❡ ❢♦♥❝t✐♦♥ ♣❛r♠✐ ❝❡❧❧❡s ♠❛♥✉❡❧❧❡♠❡♥t sé❧❡❝t✐♦♥♥é❡s✳ ❊①♣❧♦r❛t✐♦♥ ❞❡s ♠♦❞✉❧❡s ❝♦♥t❡♥❛♥t ❞❡s ✐♥t❡r❛❝t✐♦♥s ❛✉① rè❣❧❡s ❝♦❤ér❡♥t❡s ❙✉✐✈❛♥t ❧❛ rè❣❧❡ s✉✐✈✐❡ ♣❛r ✉♥ ♠✐❝r♦❆❘◆ ♠❛t✉r❡✱ ♦♥ ♣❡✉t ❞é✜♥✐r ✉♥ ❡♥s❡♠❜❧❡ ❞❡ rè❣❧❡s ❞✐t❡s ❝♦❤ér❡♥t❡s q✉✐✱ s✐ ❝❡s rè❣❧❡s s♦♥t s✉✐✈✐❡s ♣❛r ❞❡s ❝✐❜❧❡s ♣♦t❡♥t✐❡❧❧❡s ❞❡ ❝❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡✱ s♦♥t ❝♦❤ér❡♥t❡s ❛✈❡❝ ✉♥❡ ré❣✉❧❛t✐♦♥ ❞❡ ❧✬❡①♣r❡ss✐♦♥ ❞❡ ❝❡s ❝✐❜❧❡s ♣❛r ❧❡ ♠✐✲ ❝r♦❆❘◆✳ P❛r ❡①❡♠♣❧❡✱ s✐ ✉♥ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ s✉✐t ❧❛ rè❣❧❡ ✓ ❞✐♠✐♥✉t✐♦♥ ✔✱ ❛❧♦rs ♦♥ s✬❛tt❡♥❞ à ❝❡ q✉❡ ❧❡s ❆❘◆♠ q✉✬✐❧ ré❣✉❧❡ s✉✐✈❡♥t ❞❡s rè❣❧❡s ❝♦♠♠❡ ✓ ❛✉❣♠❡♥t❛t✐♦♥ ✔✱ ✓ ❛✈❛♥❝❡ ✔ ♦✉ ❡♥❝♦r❡ ✓ ❞✐s♣❛r✐t✐♦♥ ♣✐❝ ♥é❣❛t✐❢ ✔✳ ▲❡ ❚❛❜❧❡❛✉ ✺✳✷ ♣rés❡♥t❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s✶✷✻ ➱t✉❞❡ ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♣❛r ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s Concept 37 { augmentation } ACYPI000235 ACYPI002763 ACYPI005514 api-mir-1000-5p api-mir-263a-5p « diminution » « PCD » Concept 36 « augmentation » ACYPI000235 ACYPI002763 ACYPI005514 api-mir-1000-5p api-mir-263a-5p { diminution } { PCD } Concept 35 { augmentation } ACYPI000235 ACYPI002763 api-mir-1000-5p api-mir-263a-5p api-mir-3019-5p « diminution » « PCD » Concept 34 « augmentation » ACYPI000235 ACYPI002763 api-mir-1000-5p api-mir-263a-5p api-mir-3019-5p { diminution } { PCD } Concept 456 ACYPI004009 ACYPI008827 api-mir-14-3p api-mir-263a-5p « diminution » Concept 384 « disparition pic négatif » « PCD » ACYPI003493 api-mir-263a-5p { diminution } { premiereCinDiff } Concept 295 « apparition pic négatif » ACYPI005988 api-mir-316-5p { augmentation } Concept 381 « disparition pic négatif » « PCD » ACYPI000827 ACYPI003684 ACYPI007739 ACYPI086589 ACYPI32340 api-mir-3019-5p { diminution } { premiereCinDiff } Concept 322 « apparition pic positif » « PCD » ACYPI50271 ACYPI55488 api-mir-3019-5p { diminution } { premiereCinDiff } Concept 310 « avance » ACYPI005313 ACYPI008685 api-mir-263a-5p { diminution } { PCD } Concept 286 « diminution » ACYPI004108 ACYPI008273 ACYPI009473 ACYPI009680 ACYPI063015 ACYPI067556 ACYPI071213 api-mir-34-5p { augmentation } Concept 244 « disparition pic positif » « PCD » ACYPI55019 api-mir-316-5p { augmentation } Concept 13 « disparition pic négatif » « PCD » ACYPI006918 api-mir-1000-5p { diminution } { premiereCinDiff } ❋✐❣✳ ✺✳✻ ✕ ▲❡s ❤✉✐t ❝♦♠♣♦s❛♥t❡s ❝♦♥♥❡①❡s ❛✈❡❝ ✉♥ s❡✉❧ ❝♦♥❝❡♣t ✐ss✉❡s ❞❡ ❧❛ r❡❝❤❡r❝❤❡ ❞❡ ♠♦❞✉❧❡s ❝♦♥t❡♥❛♥t ✉♥✐q✉❡♠❡♥t ❞❡s rè❣❧❡s ❝♦❤ér❡♥t❡s✳ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹✻✲✺♣ ✭❝❛❞r❡ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹✻✲✺♣✮ ❡t ❧❡ ❝♦♥❝❡♣t ✹✷✾ ❛✉ ❝❡♥tr❡ ❛✈❡❝ ❧❡s ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❝♦♥♥❡❝t❛♥t ❧❡s ❞❡✉① ❜❧♦❝s✳ ❖♥ ♣❡✉t ♥♦t❡r ❧❛ ♣rés❡♥❝❡ ❞❛♥s ❧❡ ❝♦♥❝❡♣t ✹✷✾ ❞❡ ❧✬❆❘◆♠ ❆❈❨P■✵✵✵✸✹✻✱ ✉♥❡ ✓ ●❚P✲❜✐♥❞✐♥❣ ♣r♦t❡✐♥ ❘❍❊❙✲❧✐❦❡ ✔ ♦ù ❧❛ ♣r♦té✐♥❡ ❘❍❊❙ s❡♠❜❧❡ ✐♠♣❧✐q✉é❡ ❞❛♥s ❧❛ ♥❡✉r♦tr❛♥s♠✐ss✐♦♥ ❞❡ ❧❛ ❞♦♣❛♠✐♥❡ ❝❤❡③ ❧❛ s♦✉r✐s ❬✶✻✻❪✱ ❢♦♥❝t✐♦♥ q✉✐ ❡st ❧✐é❡ ❛✉ s②stè♠❡ ♥❡✉r♦❡♥❞♦❝r✐♥❡ ♣rés❡♥t ❞❛♥s ❧❡s ❝♦♥❝❡♣ts ✷✸✻✱ ✶✾✼✱ ✺✷✽✱ ✶✾✾ ❡t ✷✵✵✳ P♦✉r ❧❛ ❞❡r♥✐èr❡ ❝♦♠♣♦s❛♥t❡✱ ❝❡❧❧❡ ✐♥❝❧✉❛♥t ✶✸✼ ❝♦♥❝❡♣ts✱ ❧❡ ♥♦♠❜r❡ ❞❡ ❝♦♥❝❡♣ts ♥❡ ♣❡r♠❡t ♣❛s ❞❡ ❣é♥ér❡r ✉♥❡ ✐♠❛❣❡ ✐♠♣r✐♠❛❜❧❡ ❞❛♥s ❧❡ ❞♦❝✉♠❡♥t✳ ❉❡ ♣❧✉s✱ ❛✉❝✉♥ ♠♦❞✉❧❡ ♥❡ r❡ss♦rt ❞❡ ❧❛ ❝♦♠♣♦s❛♥t❡ ♣❛r s♦♥ ♥♦♠❜r❡ ❞✬✐♥t❡r❛❝t✐♦♥s ♦✉ ♣❛r ✉♥ ❛s♣❡❝t ♣❛rt✐❝✉❧✐❡r✳ ❊①♣❧♦r❛t✐♦♥ s✉♣❡r✈✐sé❡ ❞❡s ♠♦❞✉❧❡s ❆♣rès ✉♥❡ ❡①♣❧♦r❛t✐♦♥ ✓ s❛♥s ❛ ♣r✐♦r✐ ✔✱ ❧✬❡①♣❧♦r❛t✐♦♥ s✉♣❡r✈✐sé❡ ❞❡s ♠♦❞✉❧❡s ❝♦♥s✐st❡ ❝❡tt❡ ❢♦✐s✲❝✐ à ✉t✐❧✐s❡r ❞❡s ❛ttr✐❜✉ts ❜✐♦❧♦❣✐q✉❡s✱ ❝♦♠♠❡ ✐❝✐ ❧❡s ❢♦♥❝t✐♦♥s ♠❛♥✉❡❧❧❡s ♦✉ ❡♥❝♦r❡ ❧✬❛ttr✐❜✉t P❈❉✳ ❊①♣❧♦r❛t✐♦♥ ❞❡s ♠♦❞✉❧❡s ❝♦♥t❡♥❛♥t ❞❡s ❢♦♥❝t✐♦♥s ❞é✜♥✐❡s ♠❛♥✉❡❧❧❡♠❡♥t P♦✉r ❝❤❛❝✉♥❡ ❞❡s ❢♦♥❝t✐♦♥s ❜✐♦❧♦❣✐q✉❡s ❞é✜♥✐❡s ♠❛♥✉❡❧❧❡♠❡♥t✱ ❧❡s ❝♦♥❝❡♣ts q✉✐ ♣♦ssè❞❡♥t ❝❡tt❡ ❢♦♥❝t✐♦♥ ♦♥t été ❡①tr❛✐ts ❛✐♥s✐ q✉❡ ❧❡s ❝♦♠♣♦s❛♥t❡s ❝♦♥♥❡①❡s ✐♠♣❧✐q✉❛♥t ❝❡tt❡ ❢♦♥❝✲ t✐♦♥✳ ➚ ❧❛ ❞✐✛ér❡♥❝❡ ❞❡s ❡①tr❛❝t✐♦♥s ♣ré❝é❞❡♥t❡s✱ ❧❡s ❝♦♥❝❡♣ts ❞✐r❡❝t❡♠❡♥t ✐♥❢ér✐❡✉rs ❛✉①❆♣♣❧✐❝❛t✐♦♥ ❛✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ✶✷✾ Concept 133 « avance » ACYPI003072 ACYPI006522 api-mir-3038-3p { diminution } Concept 141 « avance » « PCD » ACYPI003072 api-mir-3038-3p { diminution } Concept 296 « retard » ACYPI006305 ACYPI069910 ACYPI55154 ACYPI55738 api-mir-316-5p { augmentation } Concept 362 « PCD » « retard » ACYPI55154 ACYPI55738 api-mir-316-5p { augmentation } Concept 230 « retard » « cycle cellulaire » « développement musculaire » « ovogenèse » ACYPI006305 api-mir-316-5p { augmentation } Concept 388 « développement musculaire » ACYPI000882 ACYPI006305 api-mir-316-5p { augmentation } ❋✐❣✳ ✺✳✼ ✕ ▲❡s ❞❡✉① ❝♦♠♣♦s❛♥t❡s ❝♦♥♥❡①❡s ❛✈❡❝ ❞❡✉① ❡t q✉❛tr❡ ❝♦♥❝❡♣ts ✐ss✉❡s ❞❡ ❧❡ r❡❝❤❡r❝❤❡ ❞❡ ♠♦❞✉❧❡s ❝♦♥t❡♥❛♥t ✉♥✐q✉❡♠❡♥t ❞❡s rè❣❧❡s ❝♦❤ér❡♥t❡s✳ ❝♦♥❝❡♣ts ❝♦♥t❡♥❛♥t ❧❛ ❢♦♥❝t✐♦♥ ♦♥t ❛✉ss✐ été ❡①tr❛✐ts✳ P❛r ❡①❡♠♣❧❡ ❞❛♥s ❧❛ ❋✐❣✉r❡ ✺✳✾ q✉✐ ❝♦♥❝❡r♥❡ ❞❡s ♠♦❞✉❧❡s ❧✐és à ❧✬♦✈♦❣❡♥ès❡✱ ❧❡ ❝♦♥❝❡♣t ✼✼ ♥❡ ♣♦ssè❞❡ ♣❛s ❝❡t ❛ttr✐❜✉t ♠❛✐s ✐❧ ❡st ❞✐r❡❝t❡♠❡♥t r❡❧✐é à ❧✬✉♥ ❞✬❡✉①✳ ❈❡tt❡ sé❧❡❝t✐♦♥ ét❡♥❞✉❡ t✐❡♥t ❝♦♠♣t❡ ❞✉ ❢❛✐t q✉❡ ❝❡rt❛✐♥s ❆❘◆♠ ♣❡✉✈❡♥t ♥❡ ♣❛s êtr❡ ❛♥♥♦tés ♣❛r ✉♥❡ ❢♦♥❝t✐♦♥ ♣ré❝✐s❡ ✭♣❛s ❞✬❛♥♥♦t❛t✐♦♥ ●❖ ❝♦✉✈r❛♥t ❝❡tt❡ ❢♦♥❝t✐♦♥ ♦✉ ❛♥♥♦t❛t✐♦♥s ✐♥❝♦♠♣❧èt❡s✮ ♠❛✐s ♣❛rt✐❝✐♣❡ q✉❛♥❞ ♠ê♠❡ à ❝❡ ♣r♦❝❡ss✉s ❜✐♦❧♦❣✐q✉❡✳ P♦✉r ❧✬❡♥s❡♠❜❧❡ ❞❡s s❡♣t ❢♦♥❝t✐♦♥s✱ ✉♥ rés✉♠é ❞❡s rés✉❧t❛ts s✉r ❧❡ ♥♦♠❜r❡ ❞❡ ❝♦♥❝❡♣ts ❡t ❧❡ ♥♦♠❜r❡ ❞❡ ❝♦♠♣♦s❛♥t❡s ❝♦♥♥❡①❡s ❡st ♣rés❡♥té ❚❛❜❧❡❛✉ ✺✳✸✳ ❢♦♥❝t✐♦♥ ♥♦♠❜r❡ ❞❡ ❝♦♥❝❡♣ts ♥♦♠❜r❡ ❞❡ ❝♦♠♣♦s❛♥t❡s ❝♦♥♥❡①❡s ♥♦♠❜r❡ ❞✬❆❘◆♠ ♦✈♦❣❡♥ès❡ ✻✶ ✸ ✷✵ ré❣✉❧❛t✐♦♥ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ✷✻ ✷ ✼ é♣✐❣é♥ét✐q✉❡ ✽✻ ✶ ✶✾ ❝②❝❧❡ ❝❡❧❧✉❧❛✐r❡ ✷✸✾ ✶ ✾✼ s②stè♠❡ ♥❡✉r♦❡♥❞♦❝r✐♥❡ ✷✵✽ ✷ ✻✼ ❞é✈❡❧♦♣♣❡♠❡♥t ♠✉s❝✉❧❛✐r❡ ✹✽ ✸ ✶✷ ré❣✉❧❛t✐♦♥ tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ✶✼✶ ✸ ✺✷ ❚❛❜❧❡❛✉ ✺✳✸ ✕ ◆♦♠❜r❡ ❞❡ ❝♦♥❝❡♣ts ❝♦✉✈r❛♥t ❧✬✉♥❡ ❞❡s s❡♣t ❢♦♥❝t✐♦♥s ♠❛♥✉❡❧❧❡s ❡t ♥♦♠❜r❡ ❞❡ ❝♦♠♣♦s❛♥t❡s ❝♦♥♥❡①❡s ❡①tr❛✐t❡s ❞✉ tr❡✐❧❧✐s ❛ss♦❝✐é à ❝❡s ❝♦♥❝❡♣ts✳ ❈❡ t❛❜❧❡❛✉ ❞♦♥♥❡ à ❧✉✐ s❡✉❧ ✉♥❡ ✈✐s✐♦♥ ❣❧♦❜❛❧❡ ❞❡s ❣r❛♥❞❡s ❢♦♥❝t✐♦♥s ❜✐♦❧♦❣✐q✉❡s r❡♣rés❡♥té❡s ❞❛♥s ❧❡ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s✳ ❈❡❝✐ s✐❣♥✐✜❡ q✉❡ ♥♦s tr❛✈❛✉① ♦♥t ❝❡r♥é ❞❡s✶✸✵ ➱t✉❞❡ ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♣❛r ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s api-mir-316-5p api-mir-novel146-5p Concept 200 « diminution » « PCD » « cycle cellulaire » « système neuroendocrine » ACYPI44738 api-mir-316-5p { augmentation } Concept 197 « diminution » « cycle cellulaire » « système neuroendocrine » ACYPI008876 ACYPI009979 ACYPI081754 ACYPI44738 api-mir-316-5p { augmentation } Concept 528 « diminution » « PCD » « système neuroendocrine » ACYPI008556 ACYPI44738 api-mir-316-5p { augmentation } Concept 199 « diminution » « cycle cellulaire » « épigénétique » « régulation post-transcriptionnelle » « système neuroendocrine » ACYPI081754 api-mir-316-5p { augmentation } Concept 236 « diminution » « système neuroendocrine » ACYPI000882 ACYPI008556 ACYPI008876 ACYPI009979 ACYPI081754 ACYPI44738 api-mir-316-5p { augmentation } Concept 238 « diminution » ... 65 ... api-mir-316-5p { augmentation } Concept 505 « diminution » « PCD » ACYPI001421 ACYPI001777 ACYPI002240 ACYPI002982 ACYPI004012 ACYPI008556 ACYPI009377 ACYPI068173 ACYPI069860 ACYPI083520 ACYPI085775 ACYPI087684 ACYPI22226 ACYPI29370 ACYPI33621 ACYPI33946 ACYPI44738 ACYPI46195 ACYPI51768 api-mir-316-5p { augmentation } Concept 443 « diminution » « PCD » ACYPI001347 ACYPI003261 ACYPI004280 ACYPI005191 ACYPI007970 ACYPI061023 ACYPI067418 ACYPI068490 ACYPI080717 ACYPI081643 ACYPI082917 ACYPI083112 ACYPI083520 ACYPI083590 ACYPI085221 ACYPI20218 ACYPI24144 ACYPI29828 ACYPI38409 ACYPI45625 ACYPI47138 api-mir-novel146-5p { augmentation } { premiereCinDiff } Concept 283 « diminution » ... 62 ... api-mir-novel146-5p { augmentation } { PCD } Concept 429 « diminution » ACYPI000346 ACYPI082800 ACYPI083520 ACYPI48937 api-mir-316-5p api-mir-novel146-5p { augmentation } ❋✐❣✳ ✺✳✽ ✕ ▲❛ ❝♦♠♣♦s❛♥t❡ ❝♦♥♥❡①❡ ❛✈❡❝ ✶✵ ❝♦♥❝❡♣ts ✐ss✉❡ ❞❡ ❧❡ r❡❝❤❡r❝❤❡ ❞❡ ♠♦❞✉❧❡s ❝♦♥t❡♥❛♥t ✉♥✐q✉❡♠❡♥t ❞❡s rè❣❧❡s ❝♦❤ér❡♥t❡s✳ ▲❡s ❝♦♥❝❡♣ts ❡♥❝❛❞rés s♦♥t ❝❡✉① q✉✐ ♥✬✐♠✲ ♣❧✐q✉❡♥t q✉✬✉♥ s❡✉❧ ♠✐❝r♦❆❘◆ ♠❛t✉r❡✳ ❢♦♥❝t✐♦♥s ♣♦t❡♥t✐❡❧❧❡♠❡♥t ✐♠♣♦rt❛♥t❡s ❞❛♥s ❧❛ ❞✐s❝r✐♠✐♥❛t✐♦♥ ❞❡s ❡♠❜r②♦❣❡♥ès❡s s❡①✉é❡s ❡t ❛s❡①✉é❡s ❝❤❡③ ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❧♦rs ❞❡ ❧❛ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡ ❞✉ ♠♦❞❡ ❞❡ r❡♣r♦✲ ❞✉❝t✐♦♥✳ ▲❡s ✹ ♣r❡♠✐èr❡s ❢♦♥❝t✐♦♥s ❛✈❛✐❡♥t ❞é❥à été ✐❞❡♥t✐✜é❡s ❧♦rs ❞✬✉♥ tr❛✈❛✐❧ ♣ré❝é❞❡♥t ❬✼✼❪ ❡t ❝♦rr❡s♣♦♥❞❡♥t à ❞❡s ❢♦♥❝t✐♦♥s ❛❝t✐✈❡s ❧♦rs ❞❡ ❧✬♦✈♦❣❡♥ès❡ ♣ré❝♦❝❡✱ ❞❛♥s ❧❛q✉❡❧❧❡ ❞❡s ré❣✉❧❛t✐♦♥s é♣✐❣é♥ét✐q✉❡s ❡t ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡s ♦♥t ❧✐❡✉✳ ▲❡s ❡♠❜r②♦♥s ét✉❞✐és ❞é✈❡❧♦♣♣❡♥t s♦✐t ❞❡s ❣❛♠èt❡s ♠é✐♦t✐q✉❡s ✈r❛✐❡s ✭❡♠❜r②♦❣❡♥ès❡ s❡①✉é❡✮ s♦✐t ❞❡s ❣❛♠èt❡s❆♣♣❧✐❝❛t✐♦♥ ❛✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ✶✸✶ ❞✐♣❧♦ï❞❡s ♥♦♥ ♠é✐♦t✐q✉❡s ✭❡♠❜r②♦❣❡♥ès❡ ❛s❡①✉é❡✮ ✿ ✐❧ ❡st ❞♦♥❝ ❝♦❤ér❡♥t q✉❡ ❧❛ ❢♦♥❝t✐♦♥ ❝②❝❧❡ ❝❡❧❧✉❧❛✐r❡ s♦✐t r❡♣rés❡♥té❡✳ ▲❡s ❡♠❜r②♦♥s ❡♥ ❢♦r♠❛t✐♦♥ ✜♥✐ss❡♥t ❞❡ ❝♦♥str✉✐r❡ ❧❡s t✐ss✉s ❡t ❧❛ ♣rés❡♥❝❡ ❞✉ ❞é✈❡❧♦♣♣❡♠❡♥t ♠✉s❝✉❧❛✐r❡ ❡t ❞✉ s②stè♠❡ ♥❡r✈❡✉① ♥✬❡st ❞♦♥❝ ♣❛s ✐♥❛tt❡♥❞✉❡✳ ❉❡ ♣❧✉s✱ ✐❧ ❡st ❝♦♥♥✉ q✉❡ ❧❡s ré❣✉❧❛t✐♦♥s ♥❡✉r♦❡♥❞♦❝r✐♥❡s ❥♦✉❡♥t ✉♥ rô❧❡ ✐♠♣♦rt❛♥t ❞❛♥s ❧❛ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡✳ ❊♥✜♥✱ ❧❛ ❢♦rt❡ s✐❣♥❛t✉r❡ s✉r ❧❛ ré❣✉❧❛t✐♦♥ tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ s♦✉❧✐❣♥❡ ❡♥❝♦r❡ ✉♥❡ ❢♦✐s ✉♥ ♠é❝❛♥✐s♠❡ ❜✐♦❧♦❣✐q✉❡ ❞é✈❡❧♦♣♣❡♠❡♥t❛❧ ❞②♥❛♠✐q✉❡ ❞❛♥s ❧❡q✉❡❧ ❞❡ ♥♦♠❜r❡✉① ♣r♦❣r❛♠♠❡s ❣é♥ét✐q✉❡s s♦♥t ré❣✉❧és✳ ❉✬❛✐❧❧❡✉rs✱ ❧❛ ♣rés❡♥❝❡ ❞❡ ♥♦♠❜r❡✉① ❢❛❝t❡✉rs ❞❡ tr❛♥s❝r✐♣t✐♦♥ ❡st à s♦✉❧✐❣♥❡r✱ s❛❝❤❛♥t q✉❡ ❝❡s ♣r♦✲ té✐♥❡s ❢♦r♠❡♥t s♦✉✈❡♥t ❞❡s ❜♦✉❝❧❡s ❞❡ ré❣✉❧❛t✐♦♥s tr✐♣❛rt✐t❡s ❡♥tr❡ ♠✐❝r♦❆❘◆✱ ❆❘◆♠ ❡t ❢❛❝t❡✉rs ❞❡ tr❛♥s❝r✐♣t✐♦♥ ❬✶✻✼❪✳ ❖♥ ♣❡✉t ✈♦✐r q✉❡ ❧❡ ♥♦♠❜r❡ ❞❡ ❝♦♥❝❡♣ts ✈❛r✐❡ ❣r❛♥❞❡♠❡♥t ❡♥tr❡ ❧❡s ❞✐✛ér❡♥t❡s ❢♦♥❝✲ t✐♦♥s✱ ❡♥tr❡ ✷✻ ♣♦✉r ❧❛ ré❣✉❧❛t✐♦♥ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ❡t ✷✸✾ ♣♦✉r ❧❡ ❝②❝❧❡ ❝❡❧❧✉❧❛✐r❡✳ ❈❡tt❡ t❛✐❧❧❡ s✉✐t ❧❡ ♥♦♠❜r❡ ❞✬❆❘◆♠ ❛♥♥♦tés ♣❛r ❝❡s ❢♦♥❝t✐♦♥s✱ ❝❡ q✉✐ ❡st ❝♦❤ér❡♥t✳ P❛r ❝♦♥tr❡ ❧❡ ♥♦♠❜r❡ ❞❡ ❝♦♠♣♦s❛♥t❡s ❝♦♥♥❡①❡s✱ ❡♥tr❡ ✉♥❡ ❡t tr♦✐s✱ ♥❡ s✉✐t ♥✐ ❧❡ ♥♦♠❜r❡ ❞❡ ❝♦♥❝❡♣ts ♥✐ ❧❡ ♥♦♠❜r❡ ❞✬❆❘◆♠✳ P♦✉r t♦✉t❡s ❧❡s ❢♦♥❝t✐♦♥s ♦ù ✐❧ ② ❛ ♣❧✉s ❞✬✉♥❡ ❝♦♠♣♦✲ s❛♥t❡ ❝♦♥♥❡①❡✱ ✐❧ ② ❛ t♦✉❥♦✉rs ✉♥❡ ❣r❛♥❞❡ ❝♦♠♣♦s❛♥t❡ ✐♠♣❧✐q✉❛♥t à ❧❛ ❢♦✐s ❧❛ ♠❛❥♦r✐té ❞❡s ❝♦♥❝❡♣ts ❡t ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣ ❡t ❞✬❛✉tr❡s ❝♦♠♣♦s❛♥t❡s ♣❧✉s ♣❡t✐t❡s✱ ❞✬✉♥❡ t❛✐❧❧❡ ❝♦♠♣r✐s❡ ❡♥tr❡ ✷ ❡t ✶✾ ❝♦♥❝❡♣ts✳ ■❧ ❛ été ❝❤♦✐s✐ ❞✬❡①♣♦s❡r ♣❧✉s ❡♥ ❞ét❛✐❧s ❝❡rt❛✐♥s s♦✉s✲❣r❛♣❤❡s ❡t ❝♦♥❝❡♣ts ✐ss✉s ❞❡ ❝❡✉① ❝♦✉✈r❛♥t ❧❡s ❛ttr✐❜✉ts ✓ ♦✈♦❣é♥ès❡ ✔ ❡t ✓ ré❣✉❧❛t✐♦♥ ♣♦st✲ tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ✔ ❝❛r ❝❡s s♦✉s✲❣r❛♣❤❡s s♦♥t ❢❛❝✐❧❡♠❡♥t ✐♥t❡r♣rét❛❜❧❡s ❡t ❝♦♠♣♦rt❡♥t ❞❡s ♠♦❞✉❧❡s ✐♥tér❡ss❛♥ts✳ ▲❛ ❢♦♥❝t✐♦♥ ✓ ♦✈♦❣é♥ès❡ ✔ ❡st ❝♦♠♣♦sé❡ ❞❡ tr♦✐s ❝♦♠♣♦s❛♥t❡s ❝♦♥♥❡①❡s ❝♦♥t❡♥❛♥t r❡s✲ ♣❡❝t✐✈❡♠❡♥t ✹✱ ✶✾ ❡t ✸✽ ❝♦♥❝❡♣ts✳ ❈❡s tr♦✐s ❝♦♠♣♦s❛♥t❡s ❝♦✉✈r❡♥t ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❛♣✐✲♠✐r✲✸✶✻✲✺♣ ♣♦✉r ❧❛ ♣r❡♠✐èr❡✱ ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣ ❡t ❛♣✐✲♠✐r✲✸✵✸✽✲✸♣ ♣♦✉r ❧❛ ❞❡✉①✐è♠❡ ❡t ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣✱ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹✻✲✺♣ ❡t ❛♣✐✲♠✐r✲✷✻✸❛✲✺♣ ♣♦✉r ❧❛ tr♦✐s✐è♠❡✳ ▲❛ ♣r❡♠✐èr❡ ❝♦♠♣♦s❛♥t❡ ♥❡ ♣rés❡♥t❡ ♣❛s ❞❡ ❝❛r❛❝tèr❡ ♣❛rt✐❝✉❧✐❡r✱ ❞❡ ♠ê♠❡ q✉❡ ❧❛ tr♦✐s✐è♠❡ ❝♦♠✲ ♣♦s❛♥t❡ q✉✐ ❡st très ❣r❛♥❞❡ ❡t q✉✐ ♠❡t ❡♥ ❥❡✉ q✉❛s✐ ❡①❝❧✉s✐✈❡♠❡♥t ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣✳ ▲❛ ❞❡✉①✐è♠❡ ❝♦♠♣♦s❛♥t❡✱ ♣rés❡♥té❡ ❋✐❣✉r❡ ✺✳✾✱ ✺✳✶✵ ❡t ✺✳✶✶✱ ♣♦ssè❞❡ ❞❡s ❝❛r❛❝tér✐st✐q✉❡s ✐♥tér❡ss❛♥t❡s✳ ❈❡tt❡ ❝♦♠♣♦s❛♥t❡ ✐♠♣❧✐q✉❡ ♣r✐♥❝✐♣❛❧❡♠❡♥t ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣ ❡t ❛♣✐✲♠✐r✲ ✸✵✸✽✲✸♣✳ ◆é❛♥♠♦✐♥s✱ ❛♣✐✲♠✐r✲✸✵✸✽✲✸♣ ♥✬❡st ♣rés❡♥t q✉❡ ❞❛♥s tr♦✐s ❝♦♥❝❡♣ts ✿ ✽✱ ✺✺ ❡t ✶✸✹ ✭❋✐❣✉r❡ ✺✳✶✵✮✳ ▲❡s ❝♦♥❝❡♣ts ✼✼ ❡t ✾✸ ✭❋✐❣✉r❡ ✺✳✶✶✮ ♥❡ ♣♦ssè❞❡♥t ♣❛s ❧✬❛ttr✐❜✉t ✓ ♦✈♦✲ ❣é♥ès❡ ✔ ♠❛✐s ❧❡s ❛ttr✐❜✉ts ✓ ❝②❝❧❡ ❝❡❧❧✉❧❛✐r❡ ✔ ❡t ✓ ré❣✉❧❛t✐♦♥ tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ✔ ♣♦✉r ✼✼ ❡t ✓ é♣✐❣é♥ét✐q✉❡ ✔ ♣♦✉r ✾✸✳ ❉❡ ♣❧✉s✱ ❝❡s ❞❡✉① ❝♦♥❝❡♣ts s♦♥t ❧❡s ❞❡✉① ❝♦♥❝❡♣ts ❧❡s ♣❧✉s ❜❛s ❞❛♥s ❧❛ ♣❛rt✐❡ ❞✉ s♦✉s✲❣r❛♣❤❡ ✐♠♣❧✐q✉❛♥t ✉♥✐q✉❡♠❡♥t ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣✱ ❡t ❧✬❡♥s❡♠❜❧❡ ❞❡s ❛✉tr❡s ❝♦♥❝❡♣ts ✐♠♣❧✐q✉❛♥t ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣ s♦♥t r❡❧✐és à ❛✉ ♠♦✐♥s ❧✬✉♥ ❞❡ ❝❡s ❞❡✉① ❝♦♥❝❡♣ts✳ ❈❡ q✉✐ s✐❣♥✐✜❡ q✉❡✱ ❛✈❡❝ ❧❡s ❞♦♥♥é❡s ❞✬❛♥♥♦t❛t✐♦♥ ❞✐s♣♦♥✐❜❧❡s✱ t♦✉s ❧❡s ❆❘◆♠ ❝✐❜❧és ♣❛r ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣ ❡t q✉✐ s♦♥t ❝♦♥♥✉s ♣♦✉r êtr❡ ✐♠♣❧✐q✉és ❞❛♥s ❧✬♦✈♦❣é♥ès❡ s♦♥t ❛✉ss✐ ✐♠♣❧✐q✉és s♦✐t ❞❛♥s ❧❡ ❝②❝❧❡ ❝❡❧❧✉❧❛✐r❡ ❡t ❧❛ ré❣✉❧❛t✐♦♥ tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ s♦✐t ❞❛♥s ❧❡ ❝♦♥trô❧❡ é♣✐❣é♥ét✐q✉❡✳ ▲❛ ❢♦♥❝t✐♦♥ ✓ ré❣✉❧❛t✐♦♥ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ✔ ❡st ♣♦✉r s❛ ♣❛rt ❝♦♥st✐t✉é❡ ❞✬✉♥❡ ❝♦♠♣♦s❛♥t❡ ❞❡ ✸ ❝♦♥❝❡♣ts ❡t ❞✬✉♥❡ ❞❡✉①✐è♠❡ ❞❡ ✷✸ ❝♦♥❝❡♣ts✳ ▲❛ ♣r❡♠✐èr❡ ❝♦♠♣♦s❛♥t❡ ♥✬✐♠♣❧✐q✉❡ q✉❡ ❛♣✐✲♠✐r✲✸✶✻✲✺♣ ❡t s❡✉❧❡♠❡♥t ✉♥ ❝♦♥❝❡♣t ✐♠♣❧✐q✉❡ ❝❡tt❡ ❢♦♥❝t✐♦♥✳ ❈❡ ❝♦♥❝❡♣t ❡st ❝♦♠♣♦sé ❞✬✉♥ s❡✉❧ ❆❘◆♠✱ ❆❈❨P■✵✽✶✼✺✹✱ q✉✐ ❡st ❛♥♥♦té ❝♦♠♠❡ ✓ ♥✉❝❧❡❛r ❝❛♣✲❜✐♥❞✐♥❣ ♣r♦t❡✐♥ s✉❜✉♥✐t ✶✲❧✐❦❡ ✔ ❡t ♣♦ssè❞❡ ❞❡s ❛♥♥♦t❛t✐♦♥s ●❖ ❡♥ ❧✐❡♥ ❛✈❡❝ ❧❡ ❝♦✐❢✲ ❢❛❣❡ ❞❡s ❆❘◆♠✱ ❧❛ ♣r♦❞✉❝t✐♦♥ ❞❡ ♣❡t✐ts ❆❘◆ ✐♥t❡r❢ér❡♥ts ♦✉ ❡♥❝♦r❡ ❧✬✐♥❤✐❜✐t✐♦♥ ❞❡ ❣è♥❡s ♣❛r ❧❡s ♠✐❝r♦❆❘◆✳ ▲❛ ❞❡✉①✐è♠❡ ❝♦♠♣♦s❛♥t❡✱ ♣rés❡♥té❡ ❋✐❣✉r❡ ✺✳✶✷✱ ✺✳✶✸ ❡t ✺✳✶✹✱✶✸✷ ➱t✉❞❡ ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♣❛r ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s Concept 116 « augmentation » « cycle cellulaire » « épigénétique » « ovogenèse » « régulation transcriptionnelle » « système neuroendocrine » ACYPI007984 api-mir-1000-5p { diminution } { PCD } Concept 109 « augmentation » « cycle cellulaire » « ovogenèse » « régulation transcriptionnelle » « système neuroendocrine » ACYPI007984 ACYPI008075 api-mir-1000-5p { diminution } { PCD } Concept 79 « augmentation » « cycle cellulaire » « épigénétique » « ovogenèse » « régulation transcriptionnelle » ACYPI007984 ACYPI080522 api-mir-1000-5p { diminution } { PCD } Concept 23 « augmentation » « PCD » ACYPI000235 ACYPI001366 ACYPI002569 ACYPI003380 ACYPI007230 ACYPI008887 ACYPI008916 ACYPI060431 ACYPI060566 ACYPI062334 ACYPI070720 ACYPI080522 ACYPI084893 ACYPI085765 ACYPI086601 ACYPI087611 ACYPI087715 ACYPI087914 ACYPI26655 ACYPI34018 ACYPI41809 api-mir-1000-5p { diminution } { PCD } Concept 55 « augmentation » ACYPI080522 ACYPI086577 api-mir-1000-5p api-mir-3038-3p { diminution } Concept 134 « augmentation » « PCD » ACYPI080522 ACYPI080663 ACYPI34415 api-mir-3038-3p { diminution } Concept 77 « cycle cellulaire » « régulation transcriptionnelle » ACYPI002653 ACYPI004772 ACYPI007984 ACYPI008075 ACYPI067710 ACYPI080522 ACYPI23921 ACYPI38042 api-mir-1000-5p { diminution } { PCD } Concept 114 « diminution » « cycle cellulaire » « régulation transcriptionnelle » « système neuroendocrine » ACYPI23921 ACYPI38042 api-mir-1000-5p { diminution } { PCD } Concept 107 « cycle cellulaire » « régulation transcriptionnelle » « système neuroendocrine » ACYPI004772 ACYPI007984 ACYPI008075 ACYPI067710 ACYPI23921 ACYPI38042 api-mir-1000-5p { diminution } { PCD } Concept 108 « augmentation » « cycle cellulaire » « développement musculaire » « ovogenèse » « régulation transcriptionnelle » « système neuroendocrine » ACYPI008075 api-mir-1000-5p { diminution } { PCD } Concept 111 « cycle cellulaire » « développement musculaire » « régulation transcriptionnelle » « système neuroendocrine » ACYPI008075 ACYPI23921 api-mir-1000-5p { diminution } { PCD } Concept 110 « cycle cellulaire » « ovogenèse » « régulation transcriptionnelle » « système neuroendocrine » ACYPI007984 ACYPI008075 ACYPI38042 api-mir-1000-5p { diminution } { PCD } Concept 112 « augmentation » « cycle cellulaire » « régulation transcriptionnelle » « système neuroendocrine » ACYPI004772 ACYPI007984 ACYPI008075 api-mir-1000-5p { diminution } { PCD } Concept 81 « augmentation » « cycle cellulaire » « ovogenèse » « régulation transcriptionnelle » ACYPI007984 ACYPI008075 ACYPI080522 api-mir-1000-5p { diminution } { PCD } Concept 80 « cycle cellulaire » « ovogenèse » « régulation transcriptionnelle » ACYPI007984 ACYPI008075 ACYPI080522 ACYPI38042 api-mir-1000-5p { diminution } { PCD } Concept 113 « diminution » « cycle cellulaire » « ovogenèse » « régulation transcriptionnelle » « système neuroendocrine » ACYPI38042 api-mir-1000-5p { diminution } { PCD } Concept 78 « augmentation » « cycle cellulaire » « régulation transcriptionnelle » ACYPI002653 ACYPI004772 ACYPI007984 ACYPI008075 ACYPI080522 api-mir-1000-5p { diminution } { PCD } Concept 8 « augmentation » « PCD » « cycle cellulaire » « épigénétique » « ovogenèse » « régulation transcriptionnelle » ACYPI080522 api-mir-1000-5p api-mir-3038-3p { diminution } Concept 93 « augmentation » « épigénétique » ACYPI007984 ACYPI008539 ACYPI080522 api-mir-1000-5p { diminution } { PCD } ❋✐❣✳ ✺✳✾ ✕ ❉❡✉①✐è♠❡ ❝♦♠♣♦s❛♥t❡ ❝♦♥♥❡①❡ ✐♠♣❧✐q✉❛♥t ❧❛ ❢♦♥❝t✐♦♥ ✓ ♦✈♦❣é♥ès❡ ✔✳❆♣♣❧✐❝❛t✐♦♥ ❛✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ✶✸✸ ❋✐❣✳ ✺✳✶✵ ✕ ❩♦♦♠ ❞❡ ❧❛ ♣❛rt✐❡ ❤❛✉t❡ ❞❡ ❧❛ ❞❡✉①✐è♠❡ ❝♦♠♣♦s❛♥t❡ ❝♦♥♥❡①❡ ✐♠♣❧✐q✉❛♥t ❧❛ ❢♦♥❝t✐♦♥ ✓ ♦✈♦❣é♥ès❡ ✔✳ ❈♦rr❡s♣♦♥❞ ❛✉① ❞❡✉① ♣r❡♠✐❡rs ♥✐✈❡❛✉①✳✶✸✹ ➱t✉❞❡ ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♣❛r ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❋✐❣✳ ✺✳✶✶ ✕ ❩♦♦♠ ❞❡ ❧❛ ♣❛rt✐❡ ❜❛ss❡ ❞❡ ❧❛ ❞❡✉①✐è♠❡ ❝♦♠♣♦s❛♥t❡ ❝♦♥♥❡①❡ ✐♠♣❧✐q✉❛♥t ❧❛ ❢♦♥❝t✐♦♥ ✓ ♦✈♦❣é♥ès❡ ✔✳ ❈♦rr❡s♣♦♥❞ ❛✉① tr♦✐s ❞❡r♥✐❡rs ♥✐✈❡❛✉①✳❆♣♣❧✐❝❛t✐♦♥ ❛✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ✶✸✺ ✐♠♣❧✐q✉❡ ❛♣✐✲♠✐r✲✶✲✸♣✱ ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣ ❡t ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣✳ ▲❡s ❞❡✉① ❝♦♥❝❡♣ts ✹✶ ❡t ✺✺✹ ❧❡s ♣❧✉s ❜❛s ❞❛♥s ❧❡ s♦✉s✲❣r❛♣❤❡ ✐♠♣❧✐q✉❛♥t ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣ ❡t ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣ ✐♥❝❧✉❡♥t ❧✬❛ttr✐❜✉t ✓ ❛✉❣♠❡♥t❛t✐♦♥ ✔✱ ❝❡ q✉✐ s✐❣♥✐✜❡ q✉❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❆❘◆♠ ❝✐❜❧és ♣❛r ❝❡s ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s✉✐✈❡♥t ❝❡tt❡ rè❣❧❡✱ q✉✐ ❡st ❝♦❤ér❡♥t❡ ❛✈❡❝ ❝❡❧❧❡ ❞❡s ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s q✉✐ ♣♦ssè❞❡♥t ❧❛ rè❣❧❡ ✓ ❞✐♠✐♥✉t✐♦♥ ✔✳ ❉❡✉① ❝♦♥❝❡♣ts✱ ✶✶✼ ❡t ✽✷ ✭❋✐❣✉r❡ ✺✳✶✸✮✱ ✐♠♣❧✐q✉❡♥t ❝❤❛❝✉♥ ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s r❡s♣❡❝t✐✈❡♠❡♥t ❛♣✐✲♠✐r✲✶✲✸♣✱ ❛♣✐✲♠✐r✲✶✵✵✵✲ ✺♣ ❡t ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣ ❡t ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣✳ ▲❡ ❝♦♥❝❡♣t ✶✶✼ ✐♥❝❧✉t ❧✬❆❘◆♠ ❆❈❨P■✵✵✹✼✼✷ ❛♥♥♦té ❝♦♠♠❡ ✓ r✐❜♦s♦♠❛❧ ♣r♦t❡✐♥ s✻ ❦✐♥❛s❡ ❛❧♣❤❛✲✸✲❧✐❦❡ ✔ ❡t ✐♠♣❧✐q✉é ❞❛♥s ❧❛ tr❛♥s✲ ❞✉❝t✐♦♥ ❞✉ s✐❣♥❛❧✳ ■❧ ♣♦✉rr❛✐t ré❣✉❧❡r ❧✬❛❝t✐✈✐té ❞❡ ♣❧✉s✐❡✉rs ❢❛❝t❡✉rs ❞❡ tr❛♥s❝r✐♣t✐♦♥✳ ▲❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ s♦♥t tr♦♣ é❧♦✐❣♥és ❧✬✉♥ ❞❡ ❧✬❛✉tr❡ ✭✶✻✶ ♥✉❝❧é♦t✐❞❡s✮ ♣♦✉r ♣❡r♠❡ttr❡ ✉♥❡ ❝♦♦♣ér❛t✐♦♥ ❡♥tr❡ ❡✉①✳ ▲❡ ❝♦♥❝❡♣t ✽✷ ✐♥❝❧✉t ❧✬❆❘◆♠ ❆❈❨P■✵✵✽✺✸✾ ❛♥♥♦té ❝♦♠♠❡ ✓ ❛rs❡♥✐t❡✲r❡s✐st❛♥❝❡ ✔ ❛✉ss✐ ❛♣♣❡❧é ✓ s❡rr❛t❡ ❘◆❆ ❡✛❡❝t♦r ♠♦❧❡❝✉❧❡ ❤♦♠♦❧♦❣ ✔✳ ■❧ ❡st ♠♦♥tré ❝♦♠♠❡ ét❛♥t ✐♠♣❧✐q✉é ♣♦s✐t✐✈❡♠❡♥t ❞❛♥s ❧❛ ❜✐♦s②♥t❤ès❡ ❞❡s ♠✐❝r♦❆❘◆ ❝❤❡③ ❉r♦s♦♣❤✐❧❛ ❡t ❧❛ s♦✉r✐s ❬✶✻✽✱ ✶✻✾❪✳ ❉❡✉① s✐t❡s ❞❡ ✜①❛t✐♦♥ s♦♥t ♣ré❞✐ts ♣♦✉r ❛♣✐✲♠✐r✲✸✵✶✾✲ ✺♣ ❡t ✉♥ ♣♦✉r ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣✱ q✉✐ ❡st à ✉♥❡ ❞✐st❛♥❝❡ ❞❡ ✶✺ ♥✉❝❧é♦t✐❞❡s ❞❡ ❧✬✉♥ ❞❡s s✐t❡s ❞❡ ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣✳ ❈❡tt❡ ❞✐st❛♥❝❡ ❡st ❝♦♠♣❛t✐❜❧❡ ❛✈❡❝ ✉♥❡ ❝♦♦♣ér❛t✐♦♥ ❡♥tr❡ s✐t❡s ❞❡ ✜①❛t✐♦♥✳ ❖♥ ♣❡✉t ❞♦♥❝ s✉♣♣♦s❡r ✉♥❡ ❛❝t✐♦♥ ❝♦♥❥♦✐♥t❡ ❞❡ ❝❡s ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s✉r ❆❈❨P■✵✵✽✺✸✾✳ ❊①♣❧♦r❛t✐♦♥ ❞❡s ♠♦❞✉❧❡s ❝♦♥t❡♥❛♥t ❞❡s é❧é♠❡♥ts ré❣✉❧és ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ❧♦rs ❞✉ ♣r❡♠✐❡r t❡♠♣s ❞❡s ❝✐♥ét✐q✉❡s ▲✬❛ttr✐❜✉t ✓ P❈❉ ✔ ❝♦rr❡s♣♦♥❞ à ❧❛ tr❛♥s✐✲ t✐♦♥ ❡♥tr❡ ❧❡ st❛❞❡ ❡♠❜r②♦♥♥❛✐r❡ ❡♥❝♦r❡ s❡♥s✐❜❧❡ ❛✉① ❝♦♥❞✐t✐♦♥s ❝❤❛♥❣❡❛♥t❡s ❞✉ ♠✐❧✐❡✉ ❡t ❧❡s st❛❞❡s ✉❧tér✐❡✉rs ❞✉ ❞é✈❡❧♦♣♣❡♠❡♥t ❡♥❣❛❣és ❞❛♥s ❞❡s ❡♠❜r②♦❣❡♥ès❡s ❞✐✛ér❡♥t❡s✳ ▲✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts ♦ù ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❧❡s ❆❘◆♠ ♣♦ssè❞❡♥t ❝❡t ❛ttr✐❜✉t ❛ été ❡①tr❛✐t ✿ ✾✸ ❝♦♥❝❡♣ts s❡ ré♣❛rt✐ss❡♥t ❞❛♥s ✉♥❡ s❡✉❧❡ ❝♦♠♣♦s❛♥t❡ ❝♦♥♥❡①❡✳ ❊♥❝♦r❡ ✉♥❡ ❢♦✐s✱ ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣ ❡st ✐♠♣❧✐q✉é s❡✉❧ ❞❛♥s ✉♥ très ❣r❛♥❞ ♥♦♠❜r❡ ❞❡ ❝♦♥❝❡♣ts✳ ❆✜♥ ❞❡ s✐♠♣❧✐✜❡r ❧❛ ✈✐s✉❛❧✐s❛t✐♦♥ ❡t ❧✬❛♥❛❧②s❡✱ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts ♦ù ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣ ❛♣♣❛r❛ît s❡✉❧ ♦♥t été s✉♣♣r✐♠és✳ ❖♥ ♦❜t✐❡♥t tr♦✐s ❝♦♠♣♦s❛♥t❡s ❝♦♥♥❡①❡s ❛✈❡❝ ✉♥✱ q✉❛tr❡ ❡t ✺✾ ❝♦♥❝❡♣ts ♣♦✉r ✉♥ t♦t❛❧ ❞❡ ✻✹ ❝♦♥❝❡♣ts✳ ▲❛ ♣r❡♠✐èr❡ ❡t ❞❡✉①✐è♠❡ ❝♦♠♣♦s❛♥t❡s ✐♥❝❧✉❡♥t r❡s♣❡❝t✐✈❡♠❡♥t ❧❡s ♠✐❝r♦❆❘◆ ♠❛✲ t✉r❡s ❛♣✐✲♠✐r✲✷✽✶✲✺♣ ❡t ❛♣✐✲♠✐r✲✸✵✷✻✲✺♣✱ ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣✳ ❯♥ s❡✉❧ ❆❘◆♠ ❞❛♥s ❧❛ s❡✲ ❝♦♥❞❡ ❝♦♠♣♦s❛♥t❡✱ ❆❈❨P■✵✵✾✶✻✹✱ ♣♦ssè❞❡ ✉♥❡ ❛♥♥♦t❛t✐♦♥ ✿ ✓ ❛r②❧s✉❧❢❛t❛s❡ ❜✲❧✐❦❡ ✔✳ ▲❡ ♣❡✉ ❞✬✐♥❢♦r♠❛t✐♦♥ ❞✐s♣♦♥✐❜❧❡ ♣♦✉r ❧❡s ❆❘◆♠ ❞❡ ❝❡s ❝♦♠♣♦s❛♥t❡s r❡♥❞ ❧✬✐♥t❡r♣rét❛✲ t✐♦♥ ❞❡ ❝❡s ❝♦♥❝❡♣ts ❞✐✣❝✐❧❡✳ ▲❛ tr♦✐s✐è♠❡ ❝♦♠♣♦s❛♥t❡✱ ♣rés❡♥té❡ ❋✐❣✉r❡ ✺✳✶✺ ❡t ✺✳✶✻✱ ❢❛✐t ✐♥t❡r✈❡♥✐r ❛♣✐✲♠✐r✲✶✲✸♣✱ ❛♣✐✲♠✐r✲✽✼✲✸♣✱ ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣✱ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹✻✲✺♣✱ ❛♣✐✲ ♠✐r✲✷✻✸❛✲✺♣ ❡t ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣✳ ❈❡rt❛✐♥s ❝♦♥❝❡♣ts ❝♦♥t✐❡♥♥❡♥t ❧❡s ❢♦♥❝t✐♦♥s ✓ ❝②❝❧❡ ❝❡❧✲ ❧✉❧❛✐r❡ ✔✱ ✓ s②stè♠❡ ♥❡✉r♦❡♥❞♦❝r✐♥❡ ✔✱ ✓ ♦✈♦❣❡♥ès❡ ✔✱ ✓ ❞é✈❡❧♦♣♣❡♠❡♥t ♠✉s❝✉❧❛✐r❡ ✔✱ ✓ é♣✐❣é♥ét✐q✉❡ ✔ ❡t ✓ ré❣✉❧❛t✐♦♥ tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ✔✱ ❝✬❡st✲à✲❞✐r❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❢♦♥❝✲ t✐♦♥s s❛✉❢ ✓ ré❣✉❧❛t✐♦♥ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ✔✳ ▲❡ ❝♦♥❝❡♣t ✷✵ ✭❋✐❣✉r❡ ✺✳✶✻✮ ✐♥❝❧✉t ✉♥ ❆❘◆♠ s❛♥s ❛♥♥♦t❛t✐♦♥ ❛✐♥s✐ q✉❡ ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣✱ ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣ ❡t ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹✻✲ ✺♣✳ ▲❛ ❞✐st❛♥❝❡ ❡♥tr❡ ❧❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❞❡ ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣ ❡t ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹✻✲✺♣ ❡st ❞❡ ✺✵ ♥✉❝❧é♦t✐❞❡s ❀ ✉♥❡ ❝♦♦♣ér❛t✐♦♥ ❡♥tr❡ ❝❡s ❞❡✉① s✐t❡s ❡st ❞♦♥❝ ♣♦ss✐❜❧❡✳ ▲❡ ❝♦♥❝❡♣t ✷✾ ✭❋✐❣✉r❡ ✺✳✶✻✮ ✐♥❝❧✉t ❧✬✉♥ ❞❡s ♥❡✉❢ ❆❘◆♠ ❝✐❜❧és ♣❛r q✉❛tr❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ♣♦✉r r❛♣♣❡❧ ❧❡ ❞❡❣ré ❧❡ ♣❧✉s é❧❡✈é ♦❜s❡r✈é ♣♦✉r ❧❡ ♥♦♠❜r❡ ❞✬✐♥t❡r❛❝t✐♦♥s ❞✬✉♥ ❆❘◆♠✳ ❈❡t ❆❘◆♠ ❡st ❛♥♥♦té ❝♦♠♠❡ ✓ ♣r♦t❡✐♥ ❤❡❧❞ ♦✉t ✇✐♥❣s✲❧✐❦❡ ✔✱ ♣r♦té✐♥❡ ✐♠♣❧✐q✉é❡ ❞❛♥s ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❝❤❡③ ❉r♦s♦♣❤✐❧❛ ❬✶✼✵❪✳ ▲❡s q✉❛tr❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❛♣✐✲♠✐r✲✸✵✶✾✲✺♣✱✶✸✻ ➱t✉❞❡ ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♣❛r ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s api-mir-1000-5p api-mir-1-3p api-mir-3019-5p Concept 112 « augmentation » « cycle cellulaire » « régulation transcriptionnelle » « système neuroendocrine » ACYPI008075 ACYPI007984 ACYPI004772 api-mir-1000-5p { diminution } { PCD } Concept 83 « augmentation » « régulation post-transcriptionnelle » ACYPI008539 ACYPI004772 api-mir-1000-5p { diminution } { PCD } Concept 41 « augmentation » ... 109 ... api-mir-1000-5p { diminution } { PCD } Concept 93 « épigénétique » « augmentation » ACYPI080522 ACYPI008539 ACYPI007984 api-mir-1000-5p { diminution } { PCD } Concept 195 « cycle cellulaire » « régulation transcriptionnelle » ACYPI004772 ACYPI000186 api-mir-1-3p { defaut } { PCD } Concept 167 « cycle cellulaire » « système neuroendocrine » ACYPI38406 ACYPI004772 api-mir-1-3p { defaut } { PCD } Concept 145 « augmentation » « cycle cellulaire » ACYPI005883 ACYPI004772 ACYPI001717 api-mir-1-3p { defaut } { PCD } Concept 519 « augmentation » « système neuroendocrine » ACYPI009908 ACYPI006545 ACYPI004772 ACYPI003833 api-mir-1-3p { defaut } { PCD } Concept 354 « augmentation » « régulation transcriptionnelle » ACYPI009993 ACYPI004772 api-mir-1-3p { defaut } { PCD } Concept 156 « augmentation » « cycle cellulaire » ACYPI070244 ACYPI010117 ACYPI008663 ACYPI006635 ACYPI005673 ACYPI004639 ACYPI002275 ACYPI000800 « ovogenèse » api-mir-3019-5p { diminution } { PCD } Concept 554 « augmentation » ... 702 ... api-mir-3019-5p { diminution } { PCD } Concept 270 « épigénétique » « augmentation » « régulation post-transcriptionnelle » ACYPI088085 ACYPI008539 api-mir-3019-5p { diminution } { PCD } Concept 466 « épigénétique » « augmentation » ACYPI56610 ACYPI088085 ACYPI085026 ACYPI084268 ACYPI069638 ACYPI060844 ACYPI008539 ACYPI004190 ACYPI002814 ACYPI002722 ACYPI002182 api-mir-3019-5p { diminution } { PCD } Concept 268 « augmentation » « régulation post-transcriptionnelle » ACYPI46078 ACYPI43037 ACYPI088085 ACYPI008539 ACYPI000800 api-mir-3019-5p { diminution } { PCD } Concept 271 « augmentation » « PCD » « épigénétique » « régulation post-transcriptionnelle » ACYPI088085 api-mir-3019-5p { diminution } { PCD } Concept 499 « augmentation » « PCD » api-mir-3019-5p ACYPI088085 ACYPI084268 « épigénétique » { diminution } { PCD } Concept 269 « augmentation » « PCD » « régulation post-transcriptionnelle » ACYPI43037 ACYPI088085 api-mir-3019-5p { diminution } { PCD } Concept 280 « augmentation » « PCD » ... 156 ... api-mir-3019-5p { diminution } { PCD } Concept 175 « augmentation » « cycle cellulaire » « ovogenèse » « régulation post-transcriptionnelle » ACYPI000800 api-mir-3019-5p { diminution } { PCD } Concept 117 « augmentation » « cycle cellulaire » « régulation post-transcriptionnelle » « régulation transcriptionnelle » « système neuroendocrine » ACYPI004772 api-mir-1000-5p api-mir-1-3p { PCD } Concept 66 « augmentation » ACYPI42473 ACYPI009392 ACYPI008383 ACYPI004772 api-mir-1000-5p api-mir-1-3p { PCD } Concept 82 « épigénétique » « augmentation » « régulation post-transcriptionnelle » ACYPI008539 api-mir-3019-5p api-mir-1000-5p { diminution } { PCD } Concept 42 « augmentation » ... 45 ... api-mir-3019-5p api-mir-1000-5p { diminution } { PCD } ❋✐❣✳ ✺✳✶✷ ✕ ❉❡✉①✐è♠❡ ❝♦♠♣♦s❛♥t❡ ❝♦♥♥❡①❡ ✐♠♣❧✐q✉❛♥t ❧❛ ❢♦♥❝t✐♦♥ ré❣✉❧❛t✐♦♥ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡✳ ▲❡s ❝♦♥❝❡♣ts ❡♥❝❛❞rés ❢♦♥t ✐♥t❡r✈❡♥✐r ✉♥ ♠ê♠❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡✳❆♣♣❧✐❝❛t✐♦♥ ❛✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ✶✸✼ ❋✐❣✳ ✺✳✶✸ ✕ ❩♦♦♠ s✉r ❧❛ ♣❛rt✐❡ ❣❛✉❝❤❡ ❞❡ ❧❛ ❞❡✉①✐è♠❡ ❝♦♠♣♦s❛♥t❡ ❝♦♥♥❡①❡ ✐♠♣❧✐q✉❛♥t ❧❛ ❢♦♥❝t✐♦♥ ré❣✉❧❛t✐♦♥ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡✳ ▲❡s ❝♦♥❝❡♣ts ❡♥❝❛❞rés ❢♦♥t ✐♥t❡r✈❡♥✐r ✉♥ ♠ê♠❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡✳✶✸✽ ➱t✉❞❡ ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♣❛r ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❋✐❣✳ ✺✳✶✹ ✕ ❩♦♦♠ s✉r ❧❛ ♣❛rt✐❡ ❞r♦✐t❡ ❞❡ ❧❛ ❞❡✉①✐è♠❡ ❝♦♠♣♦s❛♥t❡ ❝♦♥♥❡①❡ ✐♠♣❧✐q✉❛♥t ❧❛ ❢♦♥❝t✐♦♥ ré❣✉❧❛t✐♦♥ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡✳ ▲❡s ❝♦♥❝❡♣ts ❡♥❝❛❞rés ❢♦♥t ✐♥t❡r✈❡♥✐r ✉♥ ♠ê♠❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡✳❆♣♣❧✐❝❛t✐♦♥ ❛✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ✶✸✾ ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣✱ ❛♣✐✲♠✐r✲✷✻✸❛✲✺♣ ❡t ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹✻✲✺♣ ♣♦ssè❞❡♥t ❝❤❛❝✉♥ ✉♥ s✐t❡ ❞❡ ✜①❛t✐♦♥ ❡t ❧❛ ❞✐st❛♥❝❡ ❡♥tr❡ ❧❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❞❡ ❛♣✐✲♠✐r✲♥♦✈❡❧✶✹✻✲✺♣ ❡t ❛♣✐✲♠✐r✲✶✵✵✵✲ ✺♣ ❞❡ ✻✽ ♥✉❝❧é♦t✐❞❡s ❡st ♣r♦❝❤❡ ❞❡ ❧❛ ❧✐♠✐t❡ ✭✻✵ ♥✉❝❧é♦t✐❞❡s✮ ♣♦✉r ❧❛ ❝♦♦♣ér❛t✐♦♥ ❞❡s s✐t❡s✳ ❊♥ ❝♦♥❝❧✉s✐♦♥✱ ❧✬❛♥❛❧②s❡ ❞✉ rés❡❛✉ ❝♦♠♣r❡♥❛♥t ❞❡s é❧é♠❡♥ts ré❣✉❧és ❡♥tr❡ ❧❡s ❞❡✉① t②♣❡s ❞✬❡♠❜r②♦❣❡♥ès❡ ❛ été r❡♥❞✉❡ ♣♦ss✐❜❧❡ ❣râ❝❡ à ❧✬❡♥r✐❝❤✐ss❡♠❡♥t ♣❛r ❞❡s ❛ttr✐❜✉ts✱ ❡t ♣❛r ✉♥❡ sé❧❡❝t✐♦♥ ❞❡ s♦✉s✲rés❡❛✉① ♣♦✉r ❢❛❝✐❧✐t❡r ❧❡✉r ✐♥t❡r♣rét❛t✐♦♥✳ ❉❡s ❢♦♥❝t✐♦♥s s❡♠❜❧❡♥t ❝❛r❛❝tér✐s❡r ❝❡ rés❡❛✉ ✭♦✈♦❣❡♥ès❡ ♣ré❝♦❝❡✱ ❞é✈❡❧♦♣♣❡♠❡♥t✳✳✳✮ ❡t ❞❡s é❧é♠❡♥ts ❝❧❡❢s ❞✉ rés❡❛✉① ♦♥t été ✐❞❡♥t✐✜és✳ ▲✬✐♥t❡r♣rét❛t✐♦♥ ✜♥❡ ❞❡s rés❡❛✉① ❡t s♦✉s✲rés❡❛✉① ré✲ ❝❧❛♠❡♥t ✉♥❡ ❛♥♥♦t❛t✐♦♥ ❡t ❛♥❛❧②s❡ ❡①♣❡rt❡ ❛✜♥ ❞✬✉t✐❧✐s❡r ❝❡s rés❡❛✉① ❝♦♠♠❡ ❞❡ ✈ér✐t❛❜❧❡s ♦✉t✐❧s ❞✬❛✐❞❡ à ❧❛ ❞é❝✐s✐♦♥✳ ❈❡❝✐ ❡st ♣rés❡♥té ❡♥ ❞✐s❝✉ss✐♦♥ ❣é♥ér❛❧❡✳✶✹✵ ➱t✉❞❡ ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♣❛r ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s Concept 339 « retard » « PCD » api-mir-1-3p ACYPI38131 { defaut } { PCD } Concept 333 « PCD » ACYPI38131 ACYPI36720 ACYPI26074 ACYPI25229 ACYPI23727 ACYPI23312 ACYPI088463 ACYPI087927 ACYPI084962 ACYPI082993 ACYPI082899 ACYPI072792 ACYPI067785 ACYPI063298 ACYPI009908 ACYPI009167 ACYPI007104 ACYPI006040 ACYPI006028 ACYPI005365 ACYPI004760 ACYPI004733 ACYPI002827 ACYPI000186 api-mir-1-3p { defaut } { PCD } Concept 229 « diminution » « PCD » « cycle cellulaire » « développement musculaire » « ovogenèse » « système neuroendocrine » ACYPI003261 api-mir-3019-5p api-mir-novel146-5p { PCD } Concept 444 « diminution » « PCD » ACYPI47138 ACYPI45625 ACYPI29828 ACYPI24144 ACYPI083590 ACYPI083520 ACYPI080717 ACYPI067418 ACYPI004280 ACYPI003261 ACYPI001347 api-mir-3019-5p api-mir-novel146-5p { PCD } Concept 222 « PCD » « cycle cellulaire » « système neuroendocrine » ACYPI009245 ACYPI003261 api-mir-novel146-5p { augmentation } { PCD } Concept 334 « diminution » « PCD » ACYPI36720 ACYPI25229 ACYPI23727 ACYPI082993 ACYPI067785 ACYPI007104 ACYPI005365 ACYPI004760 ACYPI000186 api-mir-1-3p { defaut } { PCD } Concept 196 « diminution » « PCD » « cycle cellulaire » « épigénétique » « régulation transcriptionnelle » ACYPI000186 api-mir-1-3p api-mir-3019-5p { PCD } Concept 345 « diminution » « PCD » ACYPI36720 ACYPI25229 ACYPI067785 ACYPI007104 ACYPI005365 ACYPI000186 api-mir-1-3p api-mir-3019-5p { PCD } Concept 494 « PCD » ACYPI35357 ACYPI31064 ACYPI23509 ACYPI069860 ACYPI008887 api-mir-3019-5p { diminution } api-mir-87-3p { PCD } Concept 291 « PCD » { diminution } api-mir-87-3p ACYPI55968 ACYPI49595 ACYPI38693 ACYPI35357 ACYPI31064 ACYPI26074 ACYPI23509 ACYPI088682 ACYPI069860 ACYPI068608 ACYPI008887 ACYPI007348 ACYPI005819 ACYPI002608 ACYPI001934 { PCD } Concept 391 « avance » « PCD » { diminution } api-mir-87-3p ACYPI005819 { PCD } Concept 498 « diminution » « PCD » ACYPI008827 ACYPI004342 ACYPI004158 api-mir-3019-5p api-mir-263a-5p { diminution } { PCD } Concept 497 « diminution » « PCD » ACYPI50323 ACYPI081297 ACYPI008827 ACYPI004342 ACYPI004158 api-mir-263a-5p { diminution } { PCD } Concept 490 « PCD » ACYPI008827 ACYPI006911 ACYPI004342 ACYPI004158 ACYPI000235 api-mir-3019-5p api-mir-263a-5p { diminution } { PCD } Concept 489 « augmentation » « PCD » ACYPI55779 ACYPI084323 ACYPI006911 ACYPI006449 ACYPI000235 api-mir-263a-5p { diminution } { PCD } Concept 471 « PCD » ACYPI55779 ACYPI50323 ACYPI084323 ACYPI081297 ACYPI008827 ACYPI006911 ACYPI006449 ACYPI004342 ACYPI004158 ACYPI003493 ACYPI000235 api-mir-263a-5p { diminution } { PCD } Concept 495 « augmentation » « PCD » ACYPI23509 ACYPI008887 api-mir-3019-5p { diminution } api-mir-87-3p { PCD } Concept 473 « augmentation » « PCD » { diminution } api-mir-87-3p ACYPI38693 ACYPI26074 ACYPI23509 ACYPI008887 ACYPI007348 ACYPI002608 { PCD } Concept 493 « diminution » « PCD » ACYPI35357 ACYPI31064 ACYPI069860 api-mir-3019-5p { diminution } api-mir-87-3p { PCD } Concept 472 « diminution » « PCD » { diminution } api-mir-87-3p ACYPI35357 ACYPI31064 ACYPI088682 ACYPI069860 ACYPI068608 ACYPI001934 { PCD } Concept 24 « augmentation » « PCD » ACYPI34018 ACYPI087914 ACYPI087611 ACYPI070720 ACYPI062334 ACYPI060431 ACYPI008887 ACYPI002569 ACYPI001366 ACYPI000235 api-mir-3019-5p api-mir-1000-5p { diminution } { PCD } Concept 22 « PCD » ACYPI37227 ACYPI34018 ACYPI28767 ACYPI25229 ACYPI087914 ACYPI087611 ACYPI085231 ACYPI081660 ACYPI080456 ACYPI070720 ACYPI069860 ACYPI062334 ACYPI060431 ACYPI010204 ACYPI008887 ACYPI007104 ACYPI005771 ACYPI005338 ACYPI004350 ACYPI004280 ACYPI004202 ACYPI003090 ACYPI002569 ACYPI001366 ACYPI000235 api-mir-3019-5p api-mir-1000-5p { diminution } { PCD } Concept 23 « augmentation » « PCD » ACYPI41809 ACYPI34018 ACYPI26655 ACYPI087914 ACYPI087715 ACYPI087611 ACYPI086601 ACYPI085765 ACYPI084893 ACYPI080522 ACYPI070720 ACYPI062334 ACYPI060566 ACYPI060431 ACYPI008916 ACYPI008887 ACYPI007230 ACYPI003380 ACYPI002569 ACYPI001366 ACYPI000235 api-mir-1000-5p { diminution } { PCD } « avance » Concept 25 « PCD » ACYPI085231 ACYPI010204 ACYPI004202 api-mir-3019-5p api-mir-1000-5p { diminution } { PCD } « avance » Concept 10 « PCD » ACYPI56665 ACYPI085231 ACYPI010204 ACYPI004202 api-mir-1000-5p { diminution } { PCD } Concept 27 « augmentation » « PCD » ACYPI008887 api-mir-3019-5p api-mir-1000-5p { diminution } api-mir-87-3p { PCD } Concept 28 « PCD » ACYPI069860 ACYPI008887 api-mir-3019-5p api-mir-1000-5p { diminution } api-mir-87-3p { PCD } Concept 20 « diminution » « PCD » ACYPI004280 api-mir-3019-5p api-mir-1000-5p api-mir-novel146-5p { PCD } Concept 18 « diminution » « PCD » ACYPI25229 ACYPI080456 ACYPI069860 ACYPI007104 ACYPI005771 ACYPI005338 ACYPI004350 ACYPI004280 ACYPI003090 api-mir-3019-5p api-mir-1000-5p { diminution } { PCD } Concept 30 « PCD » ACYPI004280 ACYPI000235 api-mir-3019-5p api-mir-1000-5p api-mir-novel146-5p { PCD } Concept 9 « PCD » ... 50 ... api-mir-1000-5p { diminution } { PCD } Concept 29 « augmentation » « PCD » ACYPI000235 api-mir-3019-5p api-mir-263a-5p api-mir-1000-5p api-mir-novel146-5p { PCD } Concept 446 « augmentation » « PCD » ACYPI30699 ACYPI083191 ACYPI082709 ACYPI080059 ACYPI068902 ACYPI060366 ACYPI009636 ACYPI000235 api-mir-3019-5p api-mir-novel146-5p { PCD } Concept 488 « augmentation » « PCD » ACYPI006911 ACYPI000235 api-mir-3019-5p api-mir-263a-5p { diminution } { PCD } Concept 344 « PCD » ACYPI36720 ACYPI25229 ACYPI088463 ACYPI087927 ACYPI084962 ACYPI067785 ACYPI009908 ACYPI009167 ACYPI007104 ACYPI006040 ACYPI006028 ACYPI005365 ACYPI004733 ACYPI002827 ACYPI000186 api-mir-1-3p api-mir-3019-5p { PCD } Concept 346 « augmentation » « PCD » ACYPI087927 ACYPI009908 ACYPI009167 ACYPI006028 ACYPI004733 api-mir-1-3p api-mir-3019-5p { PCD } Concept 336 « augmentation » « PCD » ACYPI26074 ACYPI23312 ACYPI087927 ACYPI082899 ACYPI072792 ACYPI063298 ACYPI009908 ACYPI009167 ACYPI006028 ACYPI004733 api-mir-1-3p { defaut } { PCD } Concept 521 « augmentation » « PCD » « système neuroendocrine » ACYPI009908 api-mir-1-3p api-mir-3019-5p { PCD } Concept 324 « apparition pic négatif » « PCD » { diminution } api-mir-87-3p ACYPI49595 { PCD } Concept 349 « avance » « PCD » ACYPI088463 ACYPI084962 ACYPI006040 api-mir-1-3p api-mir-3019-5p { PCD } Concept 360 « PCD » « defaut » ACYPI002827 api-mir-1-3p api-mir-3019-5p { PCD } Concept 547 « augmentation » « PCD » « système neuroendocrine » { diminution } api-mir-87-3p ACYPI38693 { PCD } Concept 443 « diminution » « PCD » ACYPI47138 ACYPI45625 ACYPI38409 ACYPI29828 ACYPI24144 ACYPI20218 ACYPI085221 ACYPI083590 ACYPI083520 ACYPI083112 ACYPI082917 ACYPI081643 ACYPI080717 ACYPI068490 ACYPI067418 ACYPI061023 ACYPI007970 ACYPI005191 ACYPI004280 ACYPI003261 ACYPI001347 api-mir-novel146-5p { augmentation } { PCD } Concept 428 « PCD » ... 43 ... api-mir-novel146-5p { augmentation } { PCD } Concept 442 « augmentation » « PCD » ACYPI54794 ACYPI52537 ACYPI50304 ACYPI42006 ACYPI31730 ACYPI30699 ACYPI29946 ACYPI083191 ACYPI082709 ACYPI080059 ACYPI068902 ACYPI068498 ACYPI063619 ACYPI060366 ACYPI009636 ACYPI009245 ACYPI006010 ACYPI002177 ACYPI000235 api-mir-novel146-5p { augmentation } { PCD } Concept 445 « PCD » ACYPI47138 ACYPI45625 ACYPI30699 ACYPI29828 ACYPI24144 ACYPI084962 ACYPI083590 ACYPI083520 ACYPI083191 ACYPI082709 ACYPI080717 ACYPI080059 ACYPI068902 ACYPI067418 ACYPI060366 ACYPI009636 ACYPI004280 ACYPI003261 ACYPI001347 ACYPI000235 api-mir-3019-5p api-mir-novel146-5p { PCD } Concept 382 « disparition pic négatif » « PCD » ACYPI009484 api-mir-novel146-5p { augmentation } { PCD } Concept 384 « disparition pic négatif » « PCD » ACYPI003493 api-mir-263a-5p { diminution } { PCD } Concept 243 « disparition pic positif » « PCD » { diminution } api-mir-87-3p ACYPI55968 { PCD } Concept 221 « augmentation » « PCD » « cycle cellulaire » « système neuroendocrine » ACYPI009245 api-mir-novel146-5p { augmentation } { PCD } Concept 13 « disparition pic négatif » « PCD » ACYPI006918 api-mir-1000-5p { diminution } { PCD } Concept 12 « retard » « PCD » ACYPI28767 api-mir-3019-5p api-mir-1000-5p { diminution } { PCD } Concept 15 « apparition pic négatif » « PCD » ACYPI081660 ACYPI004131 api-mir-1000-5p { diminution } { PCD } Concept 14 « PCD » « defaut » ACYPI37227 api-mir-3019-5p api-mir-1000-5p { diminution } { PCD } Concept 17 « diminution » « PCD » ACYPI40652 ACYPI36864 ACYPI32969 ACYPI25229 ACYPI081110 ACYPI080985 ACYPI080456 ACYPI069860 ACYPI067597 ACYPI066634 ACYPI062513 ACYPI060454 ACYPI007104 ACYPI006950 ACYPI005806 ACYPI005771 ACYPI005338 ACYPI004350 ACYPI004280 ACYPI003090 api-mir-1000-5p { diminution } { PCD } Concept 16 « apparition pic négatif » « PCD » ACYPI081660 api-mir-3019-5p api-mir-1000-5p { diminution } { PCD } Concept 19 « diminution » « PCD » ACYPI25229 ACYPI007104 api-mir-1000-5p api-mir-1-3p api-mir-3019-5p { PCD } Concept 379 « PCD » « defaut » ACYPI085955 api-mir-novel146-5p { augmentation } { PCD } Concept 352 « augmentation » « PCD » api-mir-87-3p api-mir-1-3p ACYPI26074 { PCD } ❋✐❣✳ ✺✳✶✺ ✕ ❚r♦✐s✐è♠❡ ❝♦♠♣♦s❛♥t❡ ❝♦♥♥❡①❡ ♦ù ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts ✐♥❝❧✉❡♥t ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞❡s ❆❘◆♠ q✉✐ ♣♦ssè❞❡♥t ✓ P❈❉ ✔✳❆♣♣❧✐❝❛t✐♦♥ ❛✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ✶✹✶ ❋✐❣✳ ✺✳✶✻ ✕ ❩♦♦♠ s✉r ❧❛ ♣❛rt✐❡ ❞❡ ❧❛ tr♦✐s✐è♠❡ ❝♦♠♣♦s❛♥t❡ ❝♦♥♥❡①❡ ♦ù ❧✬❡♥s❡♠❜❧❡ ❞❡s ❝♦♥❝❡♣ts ✐♥❝❧✉❡♥t ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞❡s ❆❘◆♠ q✉✐ ♣♦ssè❞❡♥t ✓ P❈❉ ✔ q✉✐ ❝♦♥t✐❡♥t ❧❡s ❝♦♥❝❡♣t ✷✵ ❡t ✷✾✳✶✹✷ ➱t✉❞❡ ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♣❛r ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ✺✳✸ ❘és✉♠é ❡t ❝♦♥❝❧✉s✐♦♥ ✿ ét✉❞❡ ❞❡ ♠♦❞✉❧❡s ❞✬✐♥t❡r❛❝t✐♦♥ ❞❡ ♠✐❝r♦❆❘◆✴❆❘◆♠ ▲♦rs ❞❡s ❝❤❛♣✐tr❡s ♣ré❝é❞❡♥ts✱ ✉♥ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ❡♥tr❡ ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❧❡s ❆❘◆♠ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ❛ été ♦❜t❡♥✉ ♣✉✐s ré❞✉✐t à ❧❛ q✉❡st✐♦♥ ❜✐♦❧♦❣✐q✉❡ ❞✬✐♥térêt ✿ ❧❛ ❞✐s❝r✐♠✐♥❛t✐♦♥ ❞❡ ❞❡✉① ❡♠❜r②♦❣❡♥ès❡s✱ s❡①✉é❡ ❡t ❛s❡①✉é❡✱ ♣❛r ❞❡s ré❣✉❧❛✲ t✐♦♥s ❞✐✛ér❡♥t❡s ❞❡s ❆❘◆♠ ♣❛r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✳ ▲❡ rés❡❛✉ ét❛♥t tr♦♣ ✐♠♣♦rt❛♥t ♣♦✉r ♣♦✉✈♦✐r êtr❡ ét✉❞✐é ♠❛♥✉❡❧❧❡♠❡♥t✱ ✉♥❡ ♠ét❤♦❞❡ ❞❡ ❢♦✉✐❧❧❡ ❞❡ ❞♦♥♥é❡s à ❧✬❛✐❞❡ ❞❡ ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❛ été ❞é✈❡❧♦♣♣é❡✳ ❈❡tt❡ ♠ét❤♦❞❡ ❛ r❡♥❞✉ ♣♦ss✐❜❧❡ ❧✬❛❥♦✉t ❛✉ ❝♦♥t❡①t❡ ❢♦r♠❡❧ r❡♣rés❡♥t❛♥t ❧❡s ✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠✱ ❞❡s ❛ttr✐❜✉ts ❜✐♦❧♦✲ ❣✐q✉❡s ❝♦♥❝❡r♥❛♥t ❝❡s ❞❡✉① ❡♥s❡♠❜❧❡s ❞✬♦❜❥❡ts✳ ▲✬❛❥♦✉t ❞✬❛ttr✐❜✉ts ❜✐♦❧♦❣✐q✉❡s ♣❡r♠❡t ❞✬✐❞❡♥t✐✜❡r ❞❡s ♠♦❞✉❧❡s ♦ù ❧✬❡♥s❡♠❜❧❡ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♦✉ ❞❡s ❆❘◆♠ ♣❛rt❛❣❡♥t t♦✉s ✉♥ ♦✉ ♣❧✉s✐❡✉rs ❛ttr✐❜✉ts✱ ❝❡ q✉✐ ❛✐❞❡ à ❧✬✐♥t❡r♣rét❛t✐♦♥ ❞❡ ❝❡s ♠♦❞✉❧❡s✳ ▲✬é♥✉♠ér❛t✐♦♥ ❞❡s ❝♦♥❝❡♣ts ♣♦ssé❞❛♥t ❛✉ ♠♦✐♥s ✉♥❡ ✐♥t❡r❛❝t✐♦♥ ✐ss✉s ❞✉ ♥♦✉✈❡❛✉ ❝♦♥t❡①t❡ ❛ ♣❡r♠✐s ❧✬❡①tr❛❝t✐♦♥ ❞❡ ✺✺✺ ❝♦♥❝❡♣ts ❞♦♥t ✻✺ ♠♦❞✉❧❡s s♦♥t ❝❛r❛❝tér✐sés ♣❛r ❞❡s ❛ttr✐❜✉ts s✉r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ✹✼✸ s♦♥t ❝❛r❛❝tér✐sés ♣❛r ❞❡s ❛ttr✐❜✉ts s✉r ❧❡s ❆❘◆♠✳ ❉✐✛ér❡♥ts ❝r✐tèr❡s ♦♥t été ❞é✜♥✐s ♣♦✉r ❢♦✉✐❧❧❡r ❞❡ ❞✐✛ér❡♥t❡s ❢❛ç♦♥s à ❧✬✐♥tér✐❡✉r ❞✉ tr❡✐❧❧✐s ❢♦r♠é ♣❛r ❝❡s ❝♦♥❝❡♣ts ✿ ✕ ▲❡s ♠♦❞✉❧❡s ♦ù ♣❧✉s✐❡✉rs ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❆❘◆♠ ✐♥t❡r✈✐❡♥♥❡♥t ❀ ✕ ▲❡s ♠♦❞✉❧❡s ♦ù ❧❡s ✐♥t❡r❛❝t✐♦♥s ❝♦rr❡s♣♦♥❞❡♥t à ❞❡s rè❣❧❡s ❝♦❤ér❡♥t❡s ❀ ✕ ▲❡s ♠♦❞✉❧❡s ❛✈❡❝ ❞❡s ❢♦♥❝t✐♦♥s ❜✐♦❧♦❣✐q✉❡s ❞é✜♥✐❡s ♠❛♥✉❡❧❧❡♠❡♥t ❀ ✕ ▲❡s ♠♦❞✉❧❡s ♦ù ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t✴♦✉ ❧❡s ❆❘◆♠ s♦♥t ré❣✉❧és ❧♦rs ❞✉ ♣❛ss❛❣❡ ❞❡ ❧✬❡♠❜r②♦♥ ❞✬✉♥ ét❛t ✢❡①✐❜❧❡ ✈❡rs ✉♥ ét❛t ✐♥✢❡①✐❜❧❡ ✭✓ P❈❉ ✔✮✳ P♦✉r ❧✬❡♥s❡♠❜❧❡ ❞❡ ❝❡s r❡❝❤❡r❝❤❡s✱ ❞✐✛ér❡♥ts ♠♦❞✉❧❡s ♦♥t ♣✉ êtr❡ ✐❞❡♥t✐✜és✳ ❈❡rt❛✐♥s ❝❛s ♣❛rt✐❝✉❧✐❡rs s❡♠❜❧❡♥t ♣❧✉s ✐♥tér❡ss❛♥ts q✉❡ ❞✬❛✉tr❡s✱ ❝♦♠♠❡ ♣❛r ❡①❡♠♣❧❡ ❧✬✉♥ ❞❡s s♦✉s✲❣r❛♣❤❡s s✉r ❧✬❛ttr✐❜✉t ✓ ♦✈♦❣❡♥ès❡ ✔✳ ➚ ♣❛rt✐r ❞❡ ❝❡ s♦✉s✲❣r❛♣❤❡✱ ♥♦✉s ♣♦✉✈♦♥s ♦❜s❡r✈❡r q✉❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❆❘◆♠ ❝✐❜❧és ♣❛r ❧❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣ q✉✐ ♣♦ssè❞❡♥t ❧✬❛ttr✐❜✉t ✓ ♦✈♦❣é♥ès❡ ✔ ♣rés❡♥t❡♥t ❛✉ss✐ s♦✐t ❧❡s ❛ttr✐❜✉ts ✓ ❝②❝❧❡ ❝❡❧❧✉❧❛✐r❡ ✔ ❡t ✓ ré❣✉❧❛t✐♦♥ tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ✔ s♦✐t ❧✬❛ttr✐❜✉t ✓ é♣✐❣é♥ét✐q✉❡ ✔✳ ❈❡tt❡ ♦❜s❡r✈❛t✐♦♥ ♣♦✉rr❛✐t s♦✉t❡♥✐r ❧❡ ❢❛✐t q✉❡ ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣ ré❣✉❧❡♥t s♣é❝✐✜q✉❡♠❡♥t ❞❡s ❆❘◆♠ q✉✐ s♦♥t ✐♠♣❧✐q✉és ❞❛♥s ❧❛ ré❣✉❧❛t✐♦♥ tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ❡t ❧❡ ❝②❝❧❡ ❝❡❧❧✉❧❛✐r❡ ❧♦rs ❞❡ ❧✬♦✈♦❣❡♥ès❡✳❈❤❛♣✐tr❡ ✻ ❉✐s❝✉ss✐♦♥ ❡t ♣❡rs♣❡❝t✐✈❡s ✶✹✸✶✹✹ ❉✐s❝✉ss✐♦♥ ❡t ♣❡rs♣❡❝t✐✈❡s ✻✳✶ ❉✐s❝✉ss✐♦♥ ❣é♥ér❛❧❡ ▲❡s rés❡❛✉① ❞❡ ❣è♥❡s s♦♥t ✉t✐❧✐sés ♣♦✉r ❝♦♠♣r❡♥❞r❡ ❡t ✐♥t❡r♣rét❡r ❧❡s r❡❧❛t✐♦♥s q✉✐ ♣❡✉✈❡♥t ❡①✐st❡r ❡♥tr❡ ❧❡s ❞✐✛ér❡♥ts ❛❝t❡✉rs ❞✉ ❢♦♥❝t✐♦♥♥❡♠❡♥t ❞✉ ✈✐✈❛♥t✳ ■❧s ♣❡r♠❡tt❡♥t ❞❡ ✈✐s✉❛❧✐s❡r✱ ❞✬✐♥t❡r♣rét❡r✱ ❞❡ ♣r♦♣♦s❡r ❞❡ ♥♦✉✈❡❧❧❡s ❤②♣♦t❤ès❡s ❡t ❞✬❛✐❞❡r à ❧❛ ❝♦♠✲ ♣ré❤❡♥s✐♦♥ ❞❡ ♣r♦❝❡ss✉s ❝♦♠♣❧❡①❡s ❝❛r ✐♠♣❧✐q✉❛♥t ❞❡ ♥♦♠❜r❡✉① é❧é♠❡♥ts ❡t✴♦✉ ❞❡ ♥♦♠❜r❡✉s❡s ✐♥t❡r❛❝t✐♦♥s✳ ▼♦❞é❧✐s❡r ❧❡s ♣❤é♥♦♠è♥❡s ❞✬✐♥t❡r❛❝t✐♦♥s ❡♥ ❜✐♦❧♦❣✐❡ ❞❛♥s ❧❡ ❝❛❞r❡ ❞❡ ❧❛ t❤é♦r✐❡ ❞❡s ❣r❛♣❤❡s ♣❡r♠❡t ❞✬✉t✐❧✐s❡r ❧❡ ✈❛st❡ ❛❝q✉✐s ❞❡s ♠❛t❤é♠❛t✐q✉❡s ❡t ❞❡ ❧✬✐♥❢♦r♠❛t✐q✉❡ ❞❛♥s ❝❡ ❞♦♠❛✐♥❡✳ ❖♥ ♣❡✉t ❛✉ss✐ ét✉❞✐❡r ❞❛♥s ✉♥ ❡♥✈✐r♦♥♥❡♠❡♥t ❛❜str❛✐t ✉♥✐✜é ❧❛ ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡ ♣❤é♥♦♠è♥❡s ❜✐♦❧♦❣✐q✉❡s t❡❧s q✉❡ ❧❛ ré❣✉❧❛t✐♦♥ tr❛♥s✲ ❝r✐♣t✐♦♥♥❡❧❧❡ ♦✉ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡✱ ❧❡s ✐♥t❡r❛❝t✐♦♥s ♣r♦té✐♥❡s✲♣r♦té✐♥❡s ♦✉ ❡♥❝♦r❡ ❧❡s ré❛❝t✐♦♥s ♠ét❛❜♦❧✐q✉❡s✳ ◆♦✉s ❧✬❛✈♦♥s ✉t✐❧✐sé ♣♦✉r ♥♦tr❡ ♣❛rt ♣♦✉r ♣r♦❣r❡ss❡r ❞❛♥s ❧✬ét✉❞❡ ❞✬✉♥ ♠é❝❛♥✐s♠❡ ❜✐♦❧♦❣✐q✉❡ ❡♥❝♦r❡ ♣❡✉ ❝♦♠♣r✐s✱ ❧❡ ♣♦❧②♣❤é♥✐s♠❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❝❤❡③ ❧❡ ♣✉❝❡r♦♥✳ P❛r♠✐ ❧❡s ♣r♦❝❡ss✉s ❞✬❛❞❛♣t❛t✐♦♥ ❞✬✉♥ ♦r❣❛♥✐s♠❡ à s♦♥ ❡♥✈✐r♦♥♥❡♠❡♥t✱ ❧❡ ♣♦❧②♣❤é✲ ♥✐s♠❡✱ q✉✐ ❡st ✉♥ ❝❛s ♣❛rt✐❝✉❧✐❡r ❞❡ ❧❛ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡✱ ♣r❡♥❞ ✉♥❡ ♣❧❛❝❡ ♣❛rt✐✲ ❝✉❧✐èr❡✳ ■❧ s❡ ❞é✜♥✐t ❝♦♠♠❡ ét❛♥t ❧❛ ❝❛♣❛❝✐té ❞✬✉♥ ♦r❣❛♥✐s♠❡ à ré♣♦♥❞r❡ à ❞❡s ❢❛❝t❡✉rs ❡①tér✐❡✉rs ✈❛r✐és ♣❛r ❞❡s ♣❤é♥♦t②♣❡s s♦✉✈❡♥t très ❞✐✛ér❡♥❝✐és ❧❡s ✉♥s ❞❡s ❛✉tr❡s ❛✜♥ ❞❡ ❢❛❝✐❧✐t❡r ✉♥❡ ❛❞❛♣t❛t✐♦♥ ❛✉ ❝❤❛♥❣❡♠❡♥t ❞❡ ❝❡s ❢❛❝t❡✉rs✳ P❧✉s✐❡✉rs ❡s♣è❝❡s ♣rés❡♥t❡♥t ❞❡s ❝❛r❛❝tèr❡s ❞✐ts ✓ ♣❧❛st✐q✉❡s ✔ ❝❡ q✉✐ ✐♠♣❧✐q✉❡ ♣♦✉r ❝❡s ♦r❣❛♥✐s♠❡s ❞❡s ❞é✈❡❧♦♣♣❡♠❡♥ts ❡t ❞❡s ❡♠❜r②♦❣❡♥ès❡s ❞✐✛ér❡♥t❡s ❛❜♦✉t✐ss❛♥t à ❞❡s ♣❤é♥♦t②♣❡s ❛❧t❡r♥❛t✐❢s✳ ❈❡s ♠♦❞❡s ❞❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❛ss♦❝✐és à ❝❤❛q✉❡ ♣❤é♥♦t②♣❡ ✐♠♣❧✐q✉❡♥t q✉❡ ❞❡s ré❣✉❧❛t✐♦♥s ❣é♥✐q✉❡s s✬❛❝t✐✈❡♥t ❧♦rs ❞✉ ❞é✈❡❧♦♣♣❡♠❡♥t ❞❡s ✐♥❞✐✈✐❞✉s✳ ❈✬❡st ❞❛♥s ❝❡ ❝♦♥t❡①t❡ q✉❡ ❝❡tt❡ t❤ès❡ ♣r❡♥❞ s❛ ♣❧❛❝❡ ✿ ❧✬ét✉❞❡ ❞✬✉♥ rés❡❛✉ ❜✐♦✲ ❧♦❣✐q✉❡ ❛♣♣❧✐q✉é à ❧✬✐❞❡♥t✐✜❝❛t✐♦♥ ❞❡ ré❣✉❧❛t✐♦♥s ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡s ❞❡s ❆❘◆♠ ♣❛r ❧❡s ♠✐❝r♦❆❘◆ ❧♦rs ❞✉ ♣♦❧②♣❤é♥✐s♠❡ ❞✉ ♠♦❞❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❝❤❡③ ❧❡s ❡♠❜r②♦♥s ❞✬❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠✱ ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✳ ❈✬❡st ❞❛♥s ❝❡ ❜✉t q✉❡ ❞✐✛ér❡♥ts ♦❜❥❡❝t✐❢s ♦♥t été ♣r♦♣♦sés ✿ ✕ ❈ré❛t✐♦♥ ❞✬✉♥ rés❡❛✉ ✿ ♠✐s❡ ❡♥ r❡❧❛t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞❡s ❆❘◆♠ ❝❤❡③ ❆✳ ♣✐s✉♠ ❀ ✕ ❘é❞✉❝t✐♦♥ ❞✉ rés❡❛✉ à ❧❛ q✉❡st✐♦♥ ❜✐♦❧♦❣✐q✉❡ ✿ ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞❡s ❆❘◆♠ ❞✉ rés❡❛✉ ❛②❛♥t ❞❡s ♣r♦✜❧s ❞✬❡①♣r❡ss✐♦♥ ❞✐✛ér❡♥ts s❡❧♦♥ ❧❡ t②♣❡ ❞✬❡♠❜r②♦❣❡♥ès❡ ❀ ✕ ❈❛r❛❝tér✐s❛t✐♦♥ ❞✉ rés❡❛✉ ✿ ✐❞❡♥t✐✜❝❛t✐♦♥ ❞✬✐♥t❡r❛❝t✐♦♥s ♦✉ ❞❡ ♠♦❞✉❧❡s ❞✬✐♥t❡r❛❝✲ t✐♦♥s ✐♠♣❧✐q✉és ❞❛♥s ❧❡ ❝❛r❛❝tèr❡ ♣❧❛st✐q✉❡ ❞✉ ♠♦❞❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥✳ ❉✉ ♣♦✐♥t ❞❡ ✈✉❡ ♠ét❤♦❞♦❧♦❣✐q✉❡✱ ❧❡ ❝÷✉r ❞❡ ♥♦tr❡ ❝♦♥tr✐❜✉t✐♦♥ r❡♣♦s❡ s✉r ❧✬✉t✐❧✐s❛t✐♦♥ ❞❡ ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ✭❆❈❋✮ ♣♦✉r ❞é❣❛❣❡r ❞❡s str✉❝t✉r❡s ❝♦❤ér❡♥t❡s ❞❛♥s ❧❡s ❞♦♥♥é❡s✳ ❈❡s ❞é✈❡❧♦♣♣❡♠❡♥ts ❝♦♥❝❡r♥❡♥t ♣❧✉s ♣❛rt✐❝✉❧✐èr❡♠❡♥t ❧❡ ❝❛s ❞❡s ❣r❛♣❤❡s ❜✐♣❛rt✐s✱ q✉✐ r❡✢èt❡♥t ❧❡ ❝❛r❛❝tèr❡ ❜✐♣♦❧❛✐r❡ ❞❡s ✐♥t❡r❛❝t✐♦♥s✳ ❉❛♥s ❝❡tt❡ ❞✐s❝✉ss✐♦♥ ❣é♥ér❛❧❡✱ ♥♦✉s r❡♣r❡♥♦♥s ❝❡s ❞✐✛ér❡♥ts ♦❜❥❡❝t✐❢s✳ ✻✳✶✳✶ ❈ré❛t✐♦♥ ❞✉ rés❡❛✉ ❆✜♥ ❞✬✐❞❡♥t✐✜❡r ❞❡s ré❣✉❧❛t✐♦♥s ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡s ✐♠♣❧✐q✉é❡s ❞❛♥s ❧❡ ♣r♦❝❡ss✉s ❞✬✐♥térêt✱ ✐❧ ❢❛✉t ❞✬❛❜♦r❞ ❞é❝r✐r❡ ❝❡s ✐♥t❡r❛❝t✐♦♥s ♣❛♥❣é♥♦♠✐q✉❡s ❡t ❞♦♥❝ ❝❡rt❛✐♥s ❞❡s ❛❝t❡✉rs ❞❡ ❝❡s ✐♥t❡r❛❝t✐♦♥s ✿ ❧❡s ❆❘◆♠ ❡t ❧❡s ♠✐❝r♦❆❘◆✳❉✐s❝✉ss✐♦♥ ❣é♥ér❛❧❡ ✶✹✺ ❈❛t❛❧♦❣✉❡s ❞❡s ❛❝t❡✉rs ❞✉ rés❡❛✉ ✿ ❧❡s ❆❘◆♠ ❡t ❧❡s ♠✐❝r♦❆❘◆ ▲✬❛♥♥♦t❛t✐♦♥ ❞✉ ❣é♥♦♠❡ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❡♥ ✷✵✶✵ ♣❛r ■❆❈● ❬✶✺❪ ❡t s❛ ♠✐s❡ à ❥♦✉r ✭❞✐s♣♦♥✐❜❧❡ s✉r ❆♣❤✐❞❇❛s❡ ❬✼✽❪✮ ♦♥t ♣❡r♠✐s ❧✬✐❞❡♥t✐✜❝❛t✐♦♥ ❞❡ ✸✻✳✾✼✸ ❣è♥❡s q✉✐ tr❛♥s❝r✐✈❡♥t ✸✻✳✾✾✵ ❆❘◆♠✳ ❈✬❡st ❝❡ ❝❛t❛❧♦❣✉❡ q✉✐ ❛ été ✉t✐❧✐sé ❞❛♥s ❝❡tt❡ t❤ès❡✳ ❈♦♠♣❛ré à ❞✬❛✉tr❡s ❡s♣è❝❡s ❞✬✐♥s❡❝t❡s✱ ❧❡ ♥♦♠❜r❡ ❞❡ tr❛♥s❝r✐ts ❝❤❡③ ❆✳ ♣✐s✉♠ ❡st ✐♠♣♦rt❛♥t ✿ ✐❧ s✬❡①♣❧✐q✉❡ ♥♦t❛♠♠❡♥t ♣❛r ✉♥ ❣r❛♥❞ ♥♦♠❜r❡ ❞❡ ❞✉♣❧✐❝❛t✐♦♥s ❡t ❞✬❡①♣❛♥s✐♦♥s ❞❡ ❢❛♠✐❧❧❡s ❞❡ ❣è♥❡s ❬✶✼✶❪✳ ◆♦t♦♥s q✉❡ ❧❡s ❣è♥❡s ❝♦❞❛♥t ❧❡s ♣r♦té✐♥❡s ❞❡ ❧❛ ♠❛❝❤✐♥❡r✐❡ ❞❡ ❜✐♦s②♥t❤ès❡ ❞❡s ♠✐❝r♦❆❘◆ s♦♥t ❡✉①✲♠ê♠❡s ❞✉♣❧✐q✉és ❬✼✾❪✳ ▲❛ ♠ê♠❡ ❛♥♥é❡✱ ❧❡ ♣r❡♠✐❡r ❝❛t❛❧♦❣✉❡ ❞❡s ♠✐❝r♦❆❘◆✱ ❝♦♠♣r❡♥❛♥t ✶✼✾ ♣ré❝✉rs❡✉rs ❡t ✶✹✾ ♠❛t✉r❡s✱ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❛ été ♣✉❜❧✐é ♣❛r ▲❡❣❡❛✐ ❡t ❛❧✳ ❬✽✶❪✳ ❈❡ ❝❛t❛❧♦❣✉❡ ❛ été ♠✐s à ❥♦✉r ❧♦rs ❞❡ ❝❡tt❡ t❤ès❡ à ❧✬❛✐❞❡ ❞❡ ❞♦♥♥é❡s ❞❡ séq✉❡♥ç❛❣❡ ❤❛✉t✲❞é❜✐t ❡t ❛ ♣❡r♠✐s ❞✬✐❞❡♥t✐✜❡r ✸✷✾ séq✉❡♥❝❡s ✉♥✐q✉❡s ❞❡ ♣ré✲♠✐❝r♦❆❘◆ q✉✐ s❡ ré♣❛rt✐ss❡♥t s✉r ✹✵✶ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❝♦❞❛♥t ♣♦✉r ✺✼✸ séq✉❡♥❝❡s ✉♥✐q✉❡s ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✳ ▲❡ ♥♦♠❜r❡ ❞❡ ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❡t ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♣❧❛❝❡ ❆✳ ♣✐s✉♠ ❝♦♠♠❡ ✉♥❡ ❞❡s ❡s♣è❝❡s ❛②❛♥t ❧❡ ♣❧✉s ❞❡ ♠✐❝r♦❆❘◆ ♣❛r♠✐ s♦♥ ♣❤②❧✉♠✱ ❧❡s ❍❡①❛♣♦❞❡s✳ ❯♥❡ ❞❡s r❛✐s♦♥s ♣♦ss✐❜❧❡s à ❝❡ ♥♦♠❜r❡ ✐♠♣♦rt❛♥t ❞❡ ♠✐❝r♦❆❘◆ ❡st q✉❡✱ ❝♦♠♠❡ ♣♦✉r ❧❡s ❣è♥❡s ❝♦❞❛♥t ❞❡s ♣r♦té✐♥❡s✱ ❞❡ ♥♦♠❜r❡✉s❡s ❞✉♣❧✐❝❛t✐♦♥s ♦♥t ❡✉ ❧✐❡✉✳ ❊♥ ❡✛❡t✱ ❧✬❛♥❛❧②s❡ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❛ ♣❡r♠✐s ❞❡ ♠❡ttr❡ ❡♥ é✈✐❞❡♥❝❡ ❞❡s ❞✉♣❧✐❝❛t✐♦♥s ✿ ✸✵ ✪ ✭✶✶✻✮ ❞❡s ✹✵✶ ❣è♥❡s s♦♥t ❞✉♣❧✐q✉és ❡t r❡♣rés❡♥t❡♥t ✹✹ séq✉❡♥❝❡s ❞❡ ♣ré✲♠✐❝r♦❆❘◆✳ ❈❡ ♥♦♠❜r❡ é❧❡✈é ❞❡ ❞✉♣❧✐❝❛t✐♦♥s ❡st ❧✬✉♥❡ ❞❡s ❤②♣♦t❤ès❡s ❞❡ ❧❛ ♣rés❡♥❝❡ ❞❡ ❝❧✉st❡rs ❞❡ ♠✐❝r♦❆❘◆ ❞❡ ✓ ❣r❛♥❞❡ t❛✐❧❧❡ ✔ ❡♥ ❝♦♠♣❛r❛✐s♦♥ à ❉r♦s♦♣❤✐❧❛ ♠❡❧❛♥♦❣❛st❡r ❛✐♥s✐ q✉❡ ❧❡ ♥♦♠❜r❡ é❧❡✈é ❞❡ ❣è♥❡s ❞❛♥s ❞❡s ❢❛♠✐❧❧❡s ❞❡ ♠✐❝r♦❆❘◆ ❝❤❡③ ❆✳ ♣✐s✉♠ ❝♦♠♣❛ré à ❉✳ ♠❡❧❛♥♦❣❛st❡r ✳ ▲❡s séq✉❡♥❝❡s ✉t✐❧✐sé❡s ♣♦✉r ♣ré❞✐r❡ ❧❡s ♠✐❝r♦❆❘◆ ♦♥t été ♦❜t❡♥✉❡s s✉r ❞❡s ❡♠❜r②♦♥s ❡♥ ❝♦✉rs ❞❡ ❞é✈❡❧♦♣♣❡♠❡♥t✱ ❝❡ q✉✐ ✐♥❞✐q✉❡ q✉✬✐❧ ❡st ♣♦ss✐❜❧❡ q✉❡ ❞❡ ♥♦✉✈❡❛✉① ♠✐❝r♦❆❘◆ s♦✐❡♥t ❞ét❡❝tés ❧♦rs ❞❡ ❢✉t✉rs séq✉❡♥ç❛❣❡s ❞✬❛✉tr❡s t✐ss✉s ❡t ❝♦♥❞✐t✐♦♥s✳ ❉❡ ♣❧✉s✱ ❧❡s ❝r✐tèr❡s q✉✐ ♦♥t été ✉t✐❧✐sés ✐❝✐ ♣♦✉r ❞é✜♥✐r ❧❛ s✐♠✐❧❛r✐té ❡♥tr❡ ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s♦♥t ♣❧✉s str✐❝ts q✉❡ ❝❡✉① ✉t✐❧✐sés ♣❛r ♠✐❘❇❛s❡✳ ❈❡tt❡ ❞✐✛ér❡♥❝❡ ❞❛♥s ❧❛ ❞é✜♥✐t✐♦♥ ❞❡ ❧❛ s✐♠✐❧❛r✐té ❡st à ♣r❡♥❞r❡ ❡♥ ❝♦♠♣t❡ ❧♦rs ❞❡ ❧✬♦❜s❡r✈❛t✐♦♥ ❞❡s rés✉❧t❛ts ❝♦♥❝❡r♥❛♥t ❧❡s ❢❛♠✐❧❧❡s ❞❡ ♠✐❝r♦❆❘◆ ❡t ❧❛ ❝♦♠♣❛r❛✐s♦♥ ❡♥tr❡ ❆✳ ♣✐s✉♠ ❡t ❉✳ ♠❡❧❛♥♦❣❛st❡r ✳ ❈❡♣❡♥❞❛♥t✱ ❞❡s ❡rr❡✉rs ❞❛♥s ❧❛ ♣ré❞✐❝t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ♥❡ s♦♥t ♣❛s à ❡①❝❧✉r❡ ❡t ❞❡s ❝♦♥✜r♠❛t✐♦♥s ✉❧tér✐❡✉r❡s✱ ♣❛r ❡①❡♠♣❧❡ ♣❛r ❘❚✲P❈❘✱ s❡r❛✐❡♥t ❡♥✈✐s❛❣❡❛❜❧❡s✳ ▲❡ rés❡❛✉ ▲✬❛♥♥♦t❛t✐♦♥ ❞❡s ❆❘◆♠ ❡t ❞❡s ♠✐❝r♦❆❘◆ ♣❡r♠❡t ❧❛ ♣ré❞✐❝t✐♦♥ ♣❛♥❣é♥♦♠✐q✉❡ ❞❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s✉r ❧❡s ✸✬❯❚❘ ❞❡s ❆❘◆♠✳ ▲❡s ❝❛t❛❧♦❣✉❡s ❞❡s ✽✵✷ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞❡s ✸✻✳✾✾✵ ❆❘◆♠ ♦♥t ♣❡r♠✐s ❞❡ ♣ré❞✐r❡✱ à ❧✬❛✐❞❡ ❞❡ ❚❛r❣❡t❙✲ ❝❛♥ ✈✺ ❬✺✶❪✱ ❧❡ ♣r❡♠✐❡r rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❆✳ ♣✐s✉♠ ❛✈❡❝ ✿ ✽✵✷ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ✸✶✳✾✻✹ ❆❘◆♠ ❡t ✶✳✶✻✷✳✺✻✶ s✐t❡s ❞❡ ✜①❛t✐♦♥ ❝❡ q✉✐ r❡♣rés❡♥t❡ ✾✻✶✳✾✶✺ ❝♦✉♣❧❡s ♠✐❝r♦❆❘◆✴❆❘◆♠✳ ❯♥❡ ❝♦♠♣❛r❛✐s♦♥ ❛ été ♠❡♥é❡ ❛✈❡❝ ❧❡ rés❡❛✉ ♦❜✲ t❡♥✉ ❝❤❡③ ❉✳ ♠❡❧❛♥♦❣❛st❡r ✳ ■❧ ❛♣♣❛r❛ît q✉❡ ❧❡s rés❡❛✉① ❞✐✛èr❡♥t s✉r ❧❡s ♥♦♠❜r❡s ♠♦②❡♥s ❞✬✐♥t❡r❛❝t✐♦♥s ♣❛r ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ♣❛r ❆❘◆♠✳ ◆♦✉s é♠❡tt♦♥s ❧✬❤②♣♦t❤ès❡ q✉❡ ❧❡s ♥♦♠❜r❡✉s❡s ❞✉♣❧✐❝❛t✐♦♥s ❝❤❡③ ❆✳ ♣✐s✉♠ s❡r❛✐❡♥t à ❧✬♦r✐❣✐♥❡ ❞❡ ❝❡tt❡ ❞✐✛ér❡♥❝❡✳ P♦✉r ❝❡❧❛✱ ✐❧ ❢❛✉❞r❛✐t ♦❜s❡r✈❡r s✐ ❞❡s ❣è♥❡s ✐ss✉s ❞✬✉♥❡ ❞✉♣❧✐❝❛t✐♦♥ ❝❤❡③ ❆✳ ♣✐s✉♠ s♦♥t ❝✐❜❧és ♣❛r ❧❡s ♠ê♠❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✳ ❊♥ ❝♦♥❝❧✉s✐♦♥✱ ❧❡ ♥♦♠❜r❡ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❝❤❡③ ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✶✹✻ ❉✐s❝✉ss✐♦♥ ❡t ♣❡rs♣❡❝t✐✈❡s ❡st très ✐♠♣♦rt❛♥t✳ ❉❡ ❝❡s ♣ré❞✐❝t✐♦♥s ❜✐♦✲✐♥❢♦r♠❛t✐q✉❡s✱ ✐❧ ❢❛✉t ❡①tr❛✐r❡ ❞❡s ❝♦♥♥❛✐s✲ s❛♥❝❡s ♣❡rt✐♥❡♥t❡s ♣♦✉r ❧❛ q✉❡st✐♦♥ ❜✐♦❧♦❣✐q✉❡ ♣♦sé❡✳ ✻✳✶✳✷ ❘é❞✉❝t✐♦♥ ❞✉ rés❡❛✉ à ❧❛ q✉❡st✐♦♥ ❜✐♦❧♦❣✐q✉❡ ❆✜♥ ❞❡ ♥❡ ❣❛r❞❡r q✉❡ ❧❡ rés❡❛✉ ♣❡r♠❡tt❛♥t ❞✬♦❜s❡r✈❡r ❧❡s ❞✐✛ér❡♥❝❡s ❡♥tr❡ ❧❡s ❡♠✲ ❜r②♦❣❡♥ès❡s s❡①✉é❡s ❡t ❛s❡①✉és✱ ✐❧ ❢❛✉t ❧❡ ré❞✉✐r❡ ❛✉① ✐♥t❡r❛❝t✐♦♥s ❞✬✐♥térêt✳ ❈❡s ✐♥t❡r❛❝✲ t✐♦♥s ❞✬✐♥térêt s♦♥t ❞é✜♥✐❡s ❝♦♠♠❡ ét❛♥t ❝❡❧❧❡s ❛②❛♥t ❞❡s ❢♦r♠❡s ❝✐♥ét✐q✉❡s ❞✬❡①♣r❡ss✐♦♥ ❞✐✛ér❡♥t❡s ❡♥tr❡ ❧❡s ❞❡✉① ❡♠❜r②♦❣❡♥ès❡s✳ ❉✐s❝rét✐s❛t✐♦♥ ❞❡s ❝✐♥ét✐q✉❡s ◆♦✉s ❛✈♦♥s ❞✐s❝rét✐sé ❧❡s ❝✐♥ét✐q✉❡s ❞✬❡①♣r❡ss✐♦♥ ♣♦✉r ❝❤❛❝✉♥❡ ❞❡s ❡♠❜r②♦❣❡♥ès❡s ♣r✐s❡s sé♣❛ré♠❡♥t à ❧❛ ❢♦✐s ♣♦✉r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ♣♦✉r ❧❡s ❆❘◆♠✳ ❈❡tt❡ ❞✐s✲ ❝rét✐s❛t✐♦♥ ❛ ♣❡r♠✐s ❞✬❛ss♦❝✐❡r ♣♦✉r ❝❤❛q✉❡ é❧é♠❡♥t ✉♥ ♣r♦✜❧ ❞❡ ✈❛❧❡✉rs ❞✐s❝rèt❡s ♣♦✉r ❝❤❛q✉❡ ❡♠❜r②♦❣❡♥ès❡ ❀ s✐ ♣♦✉r ✉♥ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ♦✉ ✉♥ ❆❘◆♠ ❧❡s ❞❡✉① ♣r♦✜❧s s♦♥t ❞✐✛ér❡♥ts✱ ❛❧♦rs ❝❡❧❛ s✐❣♥✐✜❡ q✉❡ s❛ ❝✐♥ét✐q✉❡ ❞✬❡①♣r❡ss✐♦♥ ❡st ❞✐✛ér❡♥t❡ ❡♥tr❡ ❧❡s ❞❡✉① ❡♠❜r②♦❣❡♥ès❡s✳ ▲✬❛✈❛♥t❛❣❡ ❞❡ ❝❡tt❡ ♠♦❞é❧✐s❛t✐♦♥ ❞❡s ❝✐♥ét✐q✉❡s ❡st q✉✬❡❧❧❡ ♣❡r♠❡t ❞❡ ❞é✜♥✐r ❞❡ ❢❛ç♦♥ ❝❧❛✐r❡ ❧❡ t②♣❡ ❞✬é✈♦❧✉t✐♦♥ ✭❡t ♥♦♥ ❞❡s ♣♦✐♥ts t❡♠♣♦r❡❧s ♣r✐s ✐♥❞é♣❡♥✲ ❞❛♠♠❡♥t✮✱ ❞❡ ❧❡s ❝♦♠♣❛r❡r s✉r ✉♥❡ ♠ê♠❡ ❜❛s❡ ❡t ❞❡ ❧❡s ❝❧❛ss❡r ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❝❡s ❝♦♠♣❛r❛✐s♦♥s✳ ◆é❛♥♠♦✐♥s✱ ✉♥❡ ♣❡rt❡ ❞✬✐♥❢♦r♠❛t✐♦♥ ❛❝❝♦♠♣❛❣♥❡ ❧❛ ❞✐s❝rét✐s❛t✐♦♥✳ P❛r ❡①❡♠♣❧❡✱ ❧❛ ♥♦t✐♦♥ ❞❡ ♥✐✈❡❛✉ ❞✬❡①♣r❡ss✐♦♥ ❢❛✐❜❧❡✴❢♦rt❡ ❡st ♣❡r❞✉❡✳ ■❧ s❡ ♣❡✉t ❛✉ss✐ q✉❡ ❧❡s ♥✐✈❡❛✉① ❞✬❡①♣r❡ss✐♦♥ ❞❡s ❞❡✉① ❝✐♥ét✐q✉❡s s❡ ❝r♦✐s❡♥t s❛♥s q✉❡ ❧❛ ♠ét❤♦❞❡ ♥❡ ♣✉✐ss❡ ❧❡ ❞ét❡❝t❡r✳ ❈❡s ♣❛r❛♠ètr❡s ♣♦✉rr♦♥t ❝❡♣❡♥❞❛♥t êtr❡ ❛❥♦✉tés ❛ ♣♦st❡r✐♦r✐ ❝♦♠♠❡ ❛ttr✐❜✉ts ❧♦rs ❞❡ ❧❛ ❝❛r❛❝tér✐s❛t✐♦♥ ❞✉ rés❡❛✉ ✭✈♦✐r ♣❧✉s ❧♦✐♥✮✳ ◆♦✉s ❛✈♦♥s ❞é✜♥✐ ✉♥ ❡♥s❡♠❜❧❡ ❞❡ rè❣❧❡s ❢♦✉r♥✐ss❛♥t ✉♥❡ t②♣♦❧♦❣✐❡ ❞❡s ❞✐✛ér❡♥❝❡s ♦❜s❡r✈é❡s ❡♥tr❡ ♣r♦✜❧s✳ ▲✬❛✈❛♥t❛❣❡ ❞❡ ❝❡s rè❣❧❡s ❡st q✉✬❡❧❧❡s ♣❡r♠❡tt❡♥t ❞❡ ❢♦r♠❛❧✐s❡r ❡t ❞❡ r❡❣r♦✉♣❡r ❞❡s ❞✐✛ér❡♥❝❡s s❡♠❜❧❛❜❧❡s✳ ❊❧❧❡s ♣❡r♠❡tt❡♥t ❞❡ ❝❧❛ss❡r ❧❡s ❝✐♥ét✐q✉❡s ❡♥ ❢♦♥❝t✐♦♥ ❞❡ ❧❡✉r t②♣❡ ❞✬é✈♦❧✉t✐♦♥✱ ♠♦♥♦t♦♥❡✱ tr❛♥s✐t♦✐r❡ ♦✉ ❞é❝❛❧❛❣❡ t❡♠♣♦r❡❧✳ P❛r ❝♦♥tr❡✱ ❧❛ ❣é♥ér❛❧✐s❛t✐♦♥ ❞❡ ❝❡s ❞✐✛ér❡♥❝❡s ❞❡ ♣r♦✜❧s ✐♥❞✉✐t ✉♥❡ ♣❡rt❡ ❞✬✐♥❢♦r♠❛t✐♦♥ s✉r ❧❡s t❡♠♣s ♦ù ❝❡s ❞✐✛ér❡♥❝❡s ♦♥t ❧✐❡✉✳ ❈❡s ✐♥❢♦r♠❛t✐♦♥s ♣❡✉✈❡♥t é❣❛❧❡♠❡♥t êtr❡ ❛❥♦✉té❡s ❛ ♣♦st❡r✐♦r✐ ❝♦♠♠❡ ❞❡s ❛ttr✐❜✉ts✱ ❝❡ q✉❡ ♥♦✉s ❛✈♦♥s ❢❛✐t ♣♦✉r ❧❛ tr❛♥s✐t✐♦♥ ❞❡ ❚✵ ✈❡rs ❚✶✳ ❆♥♥♦t❛t✐♦♥ ❞❡s é❧é♠❡♥ts ré❣✉❧és ❙✉r ❧❛ t♦t❛❧✐té ❞❡s ❆❘◆♠✱ ❧❡ ♣♦✉r❝❡♥t❛❣❡ ❞✬❆❘◆♠ ♦r♣❤❡❧✐♥s s✬é❧è✈❡ à ✼✸ ✪ ❡t s✉r ❧❡s ❆❘◆♠ ❛✈❡❝ ❞❡s ❞✐✛ér❡♥❝❡s ❞❡ ❝✐♥ét✐q✉❡s ❞✬❡①♣r❡ss✐♦♥ ❝❡ ♥♦♠❜r❡ ♣❛ss❡ à ✻✼ ✪✳ ❉❡✉① ❤②♣♦t❤ès❡s ♣❡✉✈❡♥t êtr❡ ❢❛✐t❡s s✉r ❧❡ ❣r❛♥❞ ♥♦♠❜r❡ ❞❡ ❢♦♥❝t✐♦♥s ✐♥❝♦♥♥✉❡s ❞❡s ❣è♥❡s ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ✿ ✉♥❡ ❛♥♥♦t❛t✐♦♥ ✐♠♣❛r❢❛✐t❡✱ ❡t ❞❡s ❢♦♥❝t✐♦♥s s♣é❝✐✜q✉❡s ❛✉① ♣✉❝❡r♦♥s✳ ❈❡tt❡ ❝♦♠♣❧❡①✐té s✬❡①♣❧✐q✉❡ ❛✐sé♠❡♥t s✐ ❧✬♦♥ t✐❡♥t ❝♦♠♣t❡ ❞✉ ❢❛✐t q✉❡ ❧❡s ❞✐✛ér❡♥t❡s ❡s♣è❝❡s ❞✬✐♥s❡❝t❡s ♣♦✉r ❧❡sq✉❡❧❧❡s ❞❡s ❣é♥♦♠❡s s♦♥t ❞✐s♣♦♥✐❜❧❡s ♦♥t ❞✐✈❡r❣é ✐❧ ② ❛ ♣rès ❞❡ ✸✵✵ ♠✐❧❧✐♦♥s ❞✬❛♥♥é❡s✳ ❯♥❡ ♦❜s❡r✈❛t✐♦♥ s✐♠✐❧❛✐r❡ ❛ été ❝♦♥st❛té❡ ♣♦✉r ❧❡ ❣é♥♦♠❡ ❞❡ ❧❛ ❞❛♣❤♥✐❡✱ ✉♥ ❛rt❤r♦♣♦❞❡ q✉✐ ❛❧t❡r♥❡ é❣❛❧❡♠❡♥t ❡♥tr❡ ❞❡✉① ♠♦❞❡s ❞❡ r❡♣r♦❞✉❝t✐♦♥✳ ❈❡ ❣é♥♦♠❡ ♣♦ssè❞❡ ✉♥ ♥♦♠❜r❡ ✐♠♣♦rt❛♥t ❞❡ ❣è♥❡s ♦r♣❤❡❧✐♥s ✿ ❧❛ ♣❧✉♣❛rt ❞❡ ❝❡s ❣è♥❡s ♦r♣❤❡❧✐♥s ♦♥t ❞❡s ❡①♣r❡ss✐♦♥s s♣é❝✐✜q✉❡s ❞❛♥s ❞❡s ❝♦♥❞✐t✐♦♥s ❞❡ ♣♦❧❧✉t✐♦♥ ❡♥✈✐r♦♥♥❡♠❡♥t❛❧❡ ❬✶✼✷❪✳ ■❧ ❡st ❞♦♥❝ ♣♦ss✐❜❧❡ q✉❡ ❝❤❡③ ❧❡ ♣✉❝❡r♦♥✱ ❧❡s ❣è♥❡s ♦r♣❤❡❧✐♥s❉✐s❝✉ss✐♦♥ ❣é♥ér❛❧❡ ✶✹✼ ❝♦rr❡s♣♦♥❞❡♥t à ❞❡s ❢♦♥❝t✐♦♥s ré❣✉❧é❡s ♣❛r ❧❡s ❝❤❛♥❣❡♠❡♥ts ❞❡s ❡♥✈✐r♦♥♥❡♠❡♥ts ❧♦❝❛✉①✱ ❝♦♠♠❡ ✐❝✐ ❧❛ ♣❤♦t♦♣ér✐♦❞❡ ✭❞✐s❝✉té ♣❛r ❙✐♠♦♥ ❡t ❛❧✳ ❬✶✼✸❪✮✳ P♦✉r ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ♥❡✉❢ ❞❡s ✶✺ ♠✐❝r♦❆❘◆ ♦♥t ❞é❥à été ✐❞❡♥t✐✜és ❞❛♥s ❞✬❛✉tr❡s ❡s♣è❝❡s ❞♦♥t s❡♣t q✉✐ ♣♦ssè❞❡♥t ❛✉ ♠♦✐♥s ✉♥❡ ❛♥♥♦t❛t✐♦♥ ❝♦♥♥✉❡✳ ▲❡ ♣♦✉r❝❡♥✲ t❛❣❡ ❞❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❛②❛♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t❡s ✭✷✱✻ ✪✮ ❡st ❢❛✐❜❧❡ ❝♦♠♣❛ré ❛✉① ❆❘◆♠ ✭✶✸✱✺ ✪✮✳ ❯♥❡ ❞❡s r❛✐s♦♥s ♣♦ss✐❜❧❡s ❞❡ ❝❡ ❢❛✐❜❧❡ ♣♦✉r❝❡♥t❛❣❡ ❡st ❧❛ ♠♦✐♥s ❜♦♥♥❡ ❛❞éq✉❛t✐♦♥ ❞✉ t❡st st❛t✐st✐q✉❡ ✉t✐❧✐sé q✉✐ s✬❛♣♣✉✐❡ s✉r ❧❡s ♠ét❤♦❞❡s ❞✬❛♥❛❧②s❡ ❞✐✛ér❡♥t✐❡❧❧❡ ❞❡ ❧❛ s✉✐t❡ ❞❡ ❧♦❣✐❝✐❡❧❧❡s ❡❞❣❡❘ ❬✶✷✹✱ ✶✷✺✱ ✶✷✻✱ ✶✷✼❪✳ ❈❡s ♠ét❤♦❞❡s ♦♥t été ❞é✈❡❧♦♣♣é❡s s♣é❝✐✜q✉❡♠❡♥t ♣♦✉r ❧✬❛♥❛❧②s❡ ❞✐✛ér❡♥t✐❡❧❧❡ ❞❡ ❧✬❡①♣r❡ss✐♦♥ ❞❡s ❆❘◆♠✳ ❖r ✐❝✐✱ ♥♦t❛♠♠❡♥t ❞❛♥s ✉♥ s♦✉❝✐ ❞❡ ❝♦❤ér❡♥❝❡✱ ❧❡ ♠ê♠❡ ♣r♦t♦❝♦❧❡ ❡st ✉t✐❧✐sé ♣♦✉r ❧❡s ❆❘◆♠ ❡t ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✳ ❖♥ ♣❡✉t s❡ ❞❡♠❛♥❞❡r s✐ ❧❛ tr❛♥s♣♦s✐t✐♦♥ ❞❡ ❝❡s ♠ét❤♦❞❡s ❛✉① ♠✐❝r♦❆❘◆✱ séq✉❡♥❝❡s ❞❡ ♣❡t✐t❡s t❛✐❧❧❡s✱ ❡t ❛✈❡❝ ❞❡s ♦❝❝✉rr❡♥❝❡s très ❞✐✛ér❡♥t❡s ❞❡ ❝❡❧❧❡s ❞❡s ❆❘◆♠ ❡st ❡✣❝❛❝❡✳ ◆♦t♦♥s é❣❛❧❡♠❡♥t q✉❡ ♥♦✉s ❛✈♦♥s r❡♠❛rq✉é q✉✬❡♥ ré❛❧✐s❛♥t ✉♥ r❡❣r♦✉♣❡♠❡♥t ❤✐ér❛r❝❤✐q✉❡ ❞❡s ❞♦♥♥é❡s ❞✬❡①♣r❡ss✐♦♥ ❞❡s ✷✶ é❝❤❛♥t✐❧❧♦♥s ❞❡ ♠✐❝r♦❆❘◆ ✭♥♦♥ ♠♦♥tré✮✱ ❧❡s r❡❣r♦✉♣❡♠❡♥ts ♥❡ s✉✐t ♣❛s s②sté♠❛t✐q✉❡♠❡♥t ❧❡s tr❛✐t❡♠❡♥ts✳ ■❧ ❡st ❞♦♥❝ ♣r♦❜❛❜❧❡ q✉✬✉♥❡ ✈❛r✐❛❜✐❧✐té ❢♦rt❡ ❞❛♥s ♥♦s ❞♦♥♥é❡s ❡①♣❧✐q✉❡ ❡♥ ♣❛rt✐❡ ❧❡ ❢❛✐❜❧❡ ♥♦♠❜r❡ ❞❡ ♠✐❝r♦❆❘◆ ♦❜s❡r✈és✳ ▲❛ ❝❛✉s❡ ❞❡ ❝❡s ✈❛r✐❛t✐♦♥s ♥✬❡st ♣❛s ✐❞❡♥t✐✜é❡ ✿ s♦✐t ✉♥❡ ✈❛r✐❛❜✐❧✐té ❞❛♥s ❧❛ ❝♦♥str✉❝t✐♦♥ ❞❡s ❜❛♥q✉❡s ❞❡ ♣❡t✐ts ❆❘◆ ❬✶✼✹❪✱ s♦✐t ✉♥❡ ✈❛r✐❛t✐♦♥ ❢❛✐❜❧❡ ❞✉ ♥✐✈❡❛✉ ❞❡ ré❣✉❧❛t✐♦♥ ✭❞❡ ❧✬♦r❞r❡ ❞❡ ✶✳✺✮ ❞❡s ♠✐❝r♦❆❘◆ ♦❜s❡r✈és ❞❛♥s ❧❛ ♣❧✉♣❛rt ❞❡s ♠♦❞è❧❡s ❜✐♦❧♦❣✐q✉❡s✳ ❘és❡❛✉ ré❞✉✐t ❯♥❡ ❢♦✐s ❧❡s é❧é♠❡♥ts ❞✐✛ér❡♥t✐❡❧❧❡♠❡♥t ré❣✉❧és ✐❞❡♥t✐✜és✱ ✐❧ ❡st ❛❧♦rs ♣♦ss✐❜❧❡ ❞❡ ré❞✉✐r❡ ❧❡ rés❡❛✉ ♣♦✉r ❡♥ ❡①tr❛✐r❡ ❧❡ ❝÷✉r✱ ❝✬❡st✲à✲❞✐r❡ ❧❡ rés❡❛✉ ❢♦r♠é ♣❛r ❧❡s ✐♥t❡r❛❝t✐♦♥s ✐♠♣❧✐q✉❛♥t ✉♥✐q✉❡♠❡♥t ❝❡s é❧é♠❡♥ts ré❣✉❧és✳ ▲❡ rés❡❛✉ ❞❡s é❧é♠❡♥ts ré❣✉❧és ✐♠♣❧✐q✉❡ ✶✺ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ✶✳✽✶✵ ❆❘◆♠ ❡t ✷✳✼✾✺ s✐t❡s ❞❡ ✜①❛t✐♦♥ ♣♦✉r ✉♥ ♥♦♠❜r❡ ❞❡ ❝♦✉♣❧❡s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❞❡ ✷✳✷✺✵✳ ❙✉r ❝❡ rés❡❛✉✱ ✉♥ ❢❛✐t ♠❛rq✉❛♥t ❡st ❧❡ ♥♦♠❜r❡ très é❧❡✈é ❞❡ ❝✐❜❧❡s ❞❡ ❛♣✐✲♠✐r✲✸✵✶✾✲ ✺♣ ✿ ✶✳✸✵✵ ❆❘◆♠ s♦♥t ❝✐❜❧és ♣❛r ❝❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❞♦♥t ✾✼✻ q✉✐ ♥❡ ❧❡ s♦♥t q✉❡ ♣❛r ❧✉✐✳ ▲❛ ❢♦♥❝t✐♦♥ ❞✬❛♣✐✲♠✐r✲✸✵✶✾✲✺♣ ❡st ✐♥❝♦♥♥✉❡ ♣✉✐sq✉❡ ❝❡ ♠✐❝r♦❆❘◆ ♥✬❡st ♣❛s ❞é❝r✐t ❝❤❡③ ❞✬❛✉tr❡s ❡s♣è❝❡s✳ ❖♥ ♥❡ ♣❡✉t ♣❛s ❡①❝❧✉r❡ ✉♥❡ ❡rr❡✉r ❞❡ ♣ré❞✐❝t✐♦♥✳ ◆é❛♥♠♦✐♥s✱ ♥♦✉s ♣♦✉✈♦♥s ❛✉ss✐ ♣♦s❡r ❧✬❤②♣♦t❤ès❡ q✉❡ ❝❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ r❡♥tr❡ ❡♥ ❝♦♠♣ét✐t✐♦♥ ❛✈❡❝ ❞✬❛✉tr❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ✿ s♦♥ rô❧❡ s❡r❛✐t ❞✬❡♠♣ê❝❤❡r✱ ♣❛r ❝♦♠♣ét✐t✐♦♥ s✉r ❧❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❞❡s ✸✬❯❚❘✱ ❧❛ ✜①❛t✐♦♥ ❞✬❛✉tr❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s s✉r ❧❡✉rs ❆❘◆♠ ❝✐❜❧❡s✳ ❈❡tt❡ ❝♦♠♣ét✐t✐♦♥ ❛✉r❛✐t ❧✐❡✉ s✐ ❞❡✉① s✐t❡s ❞❡ ✜①❛t✐♦♥s s♦♥t très ♣r♦❝❤❡s ✿ ❧❛ ✜①❛t✐♦♥ ❞✬✉♥ ♠✐❝r♦❆❘◆ s✉r ❧✬✉♥ ❞❡s s✐t❡s ❡♠♣ê❝❤❡r❛✐t ❧❛ ✜①❛t✐♦♥ ❞❡ ❧✬❛✉tr❡ ♣❛r ❡♥❝♦♠❜r❡♠❡♥t stér✐q✉❡ ❞✉ ❝♦♠♣❧❡①❡ ♠✐❘■❙❈✳ ❈❡tt❡ ❤②♣♦t❤ès❡ ♣♦✉rr❛✐t êtr❡ t❡sté❡ ❡♥ ♦❜s❡r✈❛♥t ❧❛ ❞✐st❛♥❝❡ ❡♥tr❡ ❧❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ❞✬❛♣✐✲♠✐r✲✸✵✶✾✲✺♣ ❡t ❧❡s ❛✉tr❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❝✐❜❧❛♥t ❧❡s ♠ê♠❡s ❆❘◆♠✳ ❊♥✜♥✱ ❝❡tt❡ ❤②♣♦t❤ès❡ r❡♣r❡♥❞ ❡♥ ♣❛rt✐❡ ❧❛ rô❧❡ ❞✬é♣♦♥❣❡ q✉❡ ♣♦✉rr❛✐❡♥t ❛✈♦✐r ❧❡s ♠✐❝r♦❆❘◆ ❞❛♥s ❝❡rt❛✐♥❡s ❝♦♥❞✐t✐♦♥s✳ ✻✳✶✳✸ ❈❛r❛❝tér✐s❛t✐♦♥ ❞✉ rés❡❛✉ ❯♥❡ ❢♦✐s ❧❡ rés❡❛✉ ❞❡s é❧é♠❡♥ts ré❣✉❧és ♦❜t❡♥✉✱ ✉♥❡ ❛♥❛❧②s❡ ❡st ♥é❝❡ss❛✐r❡ ♣♦✉r ❡①✲ tr❛✐r❡ ❞❡ ❧❛ ❝♦♥♥❛✐ss❛♥❝❡ ❞❡ ❝❡ rés❡❛✉✳ ◆♦✉s ❛✈♦♥s ❝❤♦✐s✐ ♣♦✉r ❝❡❧❛ ❞✬✉t✐❧✐s❡r ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ✭❆❈❋✮✳ ◆♦tr❡ ❛♥❛❧②s❡ ❝♦♠❜✐♥❡ ❧✬❆❈❋ ❡t ❧✬❛❥♦✉t ❞✬❛ttr✐❜✉ts ❜✐♦❧♦❣✐q✉❡s✶✹✽ ❉✐s❝✉ss✐♦♥ ❡t ♣❡rs♣❡❝t✐✈❡s ♣♦✉r ❞ét❡❝t❡r ❞❡s ♠♦❞✉❧❡s ❞✬✐♥t❡r❛❝t✐♦♥s ♦ù ❧✬❡♥s❡♠❜❧❡ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♦✉ ❞❡s ❆❘◆♠ ♣❛rt❛❣❡♥t ❞❡s ❛ttr✐❜✉ts ❜✐♦❧♦❣✐q✉❡s ✐❞❡♥t✐q✉❡s✳ ◆♦✉s ❡♥ ❛✈♦♥s ❡①tr❛✐t ✉♥ ❝❡rt❛✐♥ ♥♦♠❜r❡ ❞✬✐♥t❡r♣rét❛t✐♦♥s ✈✐s❡♥t à ❡①tr❛✐r❡ ❞❡ ❧❛ ❝♦♥♥❛✐ss❛♥❝❡ ❞❡ ❝❡ rés❡❛✉ ♣♦✉r ♣r♦♣♦s❡r ❞❡s ❆❘◆♠ ❡t✴♦✉ ❞❡s ♠✐❝r♦❆❘◆ ❛②❛♥t ❞❡s ♣♦s✐t✐♦♥s ♦✉ ❛ttr✐❜✉ts s♣é❝✐❛✉① ❞❛♥s ❧❡ ré✲ s❡❛✉✱ ❡t ♣♦✉✈❛♥t r❡♣rés❡♥t❡r ❞❡ ❢✉t✉rs ❝❛♥❞✐❞❛ts à ❝❛r❛❝tér✐s❡r ❢♦♥❝t✐♦♥♥❡❧❧❡♠❡♥t✳ ◆♦✉s r❡♣r❡♥♦♥s ✐❝✐ ❧❡s ♣r✐♥❝✐♣❛❧❡s ♦❜s❡r✈❛t✐♦♥s✳ ▲❡s ♠♦❞✉❧❡s ✸✻✴✸✼ ✭❋✐❣✉r❡ ✺✳✹✮ ❝♦♥t✐❡♥♥❡♥t ❧❡s ❞❡✉① ♠✐❝r♦❆❘◆ ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣ ❡t ❛♣✐✲♠✐r✲✷✻✸❛✲✺♣ t♦✉s ❞❡✉① ❛♥♥♦tés ❝♦♠♠❡ ét❛♥t ❡①♣r✐♠és ❞❛♥s ❧❛ têt❡ ✿ s♦✐t ❝❤❡③ ❆♣✐s ♠❡❧❧✐❢❡r❛✱ ❧✬❛❜❡✐❧❧❡✱ ♣♦✉r ❛♠❡✲♠✐r✲✶✵✵✵ ❬✶✸✼❪ s♦✐t ❝❤❡③ ❇♦♠❜②① ♠♦r✐✱ ❜♦♠❜②① ❞✉ ♠ûr✐❡r✱ ♣♦✉r ❜♠♦✲♠✐❘✲✷✻✸❜✳ ❉❛♥s ❝❡s ♠ê♠❡s ♠♦❞✉❧❡s✱ ❝❡s ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❝❤❡③ ❆✳ ♣✐s✉♠ ❝✐❜❧❡♥t ❆❈❨P■✵✵✺✺✶✹✱ ❆❘◆♠ ❛♥♥♦té ❝♦♠♠❡ ét❛♥t ✐♠♣❧✐q✉é ❞❛♥s ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞✉ s②stè♠❡ ♥❡r✈❡✉① ♣ér✐♣❤ér✐q✉❡✳ ❖r✱ ❞❡✉① ❛✉tr❡s ❆❘◆♠ s♦♥t ♣rés❡♥ts ❞❛♥s ❝❡ ♠♦❞✉❧❡ ❞♦♥t ❆❈❨P■✵✵✷✼✻✸ q✉✐ ♥✬❛ ♣❛s ❞✬❛♥♥♦t❛t✐♦♥✳ ❈❡ r❡❣r♦✉♣❡♠❡♥t ❞❡ ❞❡✉① ♠✐❝r♦❆❘◆ ❡t ❞✬✉♥ ❆❘◆♠ ❛♥♥♦tés ❛✉t♦✉r ❞❡ ❢♦♥❝t✐♦♥s ♥❡✉r♦♥❛❧❡s ♣❡r♠❡t ❞❡ ♣♦s❡r ❧✬❤②♣♦t❤ès❡ q✉❡ ❆❈❨P■✵✵✷✼✻✸ ♣♦✉rr❛✐t êtr❡ ❛✉ss✐ ❡♥ ❧✐❡♥ ❛✈❡❝ ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ♥❡✉r♦♥❛❧ ♦✉ ❧❡ s②stè♠❡ ❡♥❞♦❝r✐♥❡✳ ❉❡ ♠ê♠❡✱ ❛♣✐✲♠✐r✲✶✹✲✸♣ ❡t ❛♣✐✲♠✐r✲✷✻✸❛✲✺♣ s♦♥t ❛✉ s❡✐♥ ❞✉ ♠ê♠❡ ♠♦❞✉❧❡ ✹✺✻ ✭❋✐❣✉r❡ ✺✳✺✮ ❝✐❜❧❛♥t ❞❡✉① ❆❘◆♠✱ ❆❈❨P■✵✵✹✵✵✾ ❡t ❆❈❨P■✵✵✽✽✷✼✱ ❝❡ ❞❡r♥✐❡r ét❛♥t ❛♥♥♦té ❝♦♠♠❡ ✓ ❢♦r❦❤❡❛❞ ❜♦① ♣r♦t❡✐♥ ♦✲❧✐❦❡ ✔ ♣♦t❡♥t✐❡❧❧❡♠❡♥t ✐♠♣❧✐q✉é ❞❛♥s ❧✬❛♣♦♣t♦s❡ ❬✶✻✸❪✳ ❈❡s ❞❡✉① ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ♦♥t ❛✉ss✐ été ♠♦♥trés ❝♦♠♠❡ ✐♠♣❧✐q✉és ❞❛♥s ❧✬❛♣♦♣✲ t♦s❡ ❞❛♥s ❞❡s ❧✐❣♥é❡s ❝❡❧❧✉❧❛✐r❡s ❞❡ ❧é♣✐❞♦♣tèr❡s✱ ♣♦✉r ♠✐r✲✶✹ ❬✶✹✶❪ ❡t ❝❤❡③ ❉✳ ♠❡❧❛♥♦❣❛s✲ t❡r ♣♦✉r ❞♠❡✲♠✐r✲✷✻✸❛✴❜ ❬✶✸✹❪✳ ◆♦✉s ♣♦✉✈♦♥s ❞♦♥❝ ♣♦s❡r ❧✬❤②♣♦t❤ès❡ q✉❡ ❆❈❨P■✵✵✹✵✵✾ s❡r❛✐t ❧✉✐ ❛✉ss✐ ✐♠♣❧✐q✉é ❞❛♥s ❧✬❛♣♦♣t♦s❡✳ ▲❡ s♦✉s✲❣r❛♣❤❡ ❞❡ ❧❛ ❋✐❣✉r❡ ✺✳✾ ❝♦♥❝❡r♥❡ ❧❛ ❢♦♥❝t✐♦♥ ✓ ♦✈♦❣❡♥ès❡ ✔✳ ▲❡ ♠♦❞✉❧❡ ✼✼ ❡st ❝♦♥st✐t✉é ❞❡ ✽ ❆❘◆♠ q✉✐ t♦✉s ♣❛rt❛❣❡♥t ❧❡s ❢♦♥❝t✐♦♥s ✓ ❝②❝❧❡ ❝❡❧❧✉❧❛✐r❡ ✔ ❡t ✓ ré✲ ❣✉❧❛t✐♦♥ tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ✔✳ ◗✉❛tr❡ ❞✬❡♥tr❡ ❡✉① ✭❝♦♠♣♦s❛♥t ❧❡ ♠♦❞✉❧❡ ✽✵✮ ♣♦ssè❞❡♥t ❡♥ ♣❧✉s ❧✬❛♥♥♦t❛t✐♦♥ ✓ ♦✈♦❣❡♥ès❡ ✔✳ ◆♦✉s ♣r♦♣♦s♦♥s q✉❡ ❧❡s ✽ ❆❘◆♠ ❞✉ ❝♦♥❝❡♣t ✼✼ s♦✐❡♥t ❡♥ ♣❛rt✐❡ ✐♠♣❧✐q✉és ❞❛♥s ❞❡s ❢♦♥❝t✐♦♥s ❞✬♦✈♦❣❡♥ès❡✱ ❤②♣♦t❤ès❡ à t❡st❡r ♣❛r ❞❡s ❝❛r❛❝tér✐s❛t✐♦♥s ♣❧✉s ✜♥❡s ❞❡ ❧✬❡①♣r❡ss✐♦♥ ❡t ❧❛ ❢♦♥❝t✐♦♥ ❞❡ ❝❡s tr❛♥s❝r✐ts✳ ❯♥ r❛✐s♦♥✲ ♥❡♠❡♥t s✐♠✐❧❛✐r❡ ♣❡✉t êtr❡ ❛♣♣❧✐q✉é à ❞✬❛✉tr❡s ❝♦♥❝❡♣ts ❞✉ s♦✉s✲❣r❛♣❤❡✱ ✷✸ ❡t ✾✸ s✉r ❞❡s ❢♦♥❝t✐♦♥s é♣✐❣é♥ét✐q✉❡s✳ ❈❡s ❡①❡♠♣❧❡s ♠♦♥tr❡♥t ❧✬❡①♣❧♦✐t❛t✐♦♥ ♣♦ss✐❜❧❡ ❞✬✉♥ rés❡❛✉ ♣♦✉r ♣r♦♣♦s❡r ❞❡ ♥♦✉✈❡❧❧❡s ❤②♣♦t❤ès❡s ❞❡ ❢♦♥❝t✐♦♥s ✭✓ ❝♦✉♣❛❜❧❡ ♣❛r ❛ss♦❝✐❛t✐♦♥ ✔ ✔✮✱ ❤②♣♦t❤ès❡s q✉✬✐❧ ❢❛✉t ❜✐❡♥ sûr t❡st❡r ♣❛r ❞❡s ❡①♣ér✐❡♥❝❡s✳ ▲❡s ❆❘◆♠ ❆❈❨P■✵✵✽✵✼✺✱ ❆❈❨P■✵✵✼✾✽✹ ❡t ❆❈❨P■✵✽✵✺✷✷ ♣rés❡♥ts✱ ❡♥tr❡ ❛✉tr❡s✱ r❡s♣❡❝t✐✈❡♠❡♥t ❞❛♥s ❧❡s ❝♦♥❝❡♣ts ✶✵✽✱ ✶✶✻ ❡t ✽ ♣❡✉✈❡♥t ❝♦♥st✐t✉❡r ❞❡s ❝❛♥❞✐❞❛ts ✐♥tér❡ss❛♥ts ♣♦✉r ❧❛ ❝❛r❛❝tér✐s❛t✐♦♥ ❞❡s ❞❡✉① ❡♠❜r②♦❣❡♥ès❡s✳ ❊♥ ❡✛❡t✱ ❝❡s tr♦✐s ❆❘◆♠ s❡ r❡tr♦✉✈❡♥t ❡♥s❡♠❜❧❡ ❛✉ s❡✐♥ ❞✉ ♠ê♠❡ ❝♦♥❝❡♣t ✽✶ ❡t ♣❛rt❛❣❡♥t ❧❡s ❛ttr✐❜✉ts ✓ ♦✈♦❣é✲ ♥ès❡ ✔✱ ✓ ❝②❝❧❡ ❝❡❧❧✉❧❛✐r❡ ✔✱ ✓ ré❣✉❧❛t✐♦♥ tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ✔ ❡t ✓ ❛✉❣♠❡♥t❛t✐♦♥ ✔✳ ■❧s s♦♥t r❡s♣❡❝t✐✈❡♠❡♥t ❛♥♥♦tés ❝♦♠♠❡ ✓ ③✐♥❝ ✜♥❣❡r ♣r♦t❡✐♥ ✶ ✔✱ ✓ ♣r♦t❡✐♥ ♠♦t❤❡rs ❛❣❛✐♥st ❞❡✲ ❝❛♣❡♥t❛♣❧❡❣✐❝ ✔ ✭▼❆❉✮ ❡t ✓ ❤✐st♦♥❡✲❧②s✐♥❡ ♥✲♠❡t❤②❧tr❛♥s❢❡r❛s❡ ❡❣❣❧❡ss✲❧✐❦❡ ✔ ✭❍▲▼❊✮✳ ❈❡s ❣è♥❡s s♦♥t t♦✉s tr♦✐s ♣♦t❡♥t✐❡❧❧❡♠❡♥t ✐♠♣❧✐q✉és ❞❛♥s ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞❡ ❧✬❡♠❜r②♦♥✳ ❆❈❨P■✵✵✽✵✼✺ ❡st ♥♦t❛♠♠❡♥t ❛♥♥♦té ❝♦♠♠❡ ✐♠♣❧✐q✉é ❞❛♥s ❧❡ ❞é✈❡❧♦♣♣❡♠❡♥t ❞❡s ❣♦✲ ♥❛❞❡s✱ ❆❈❨P■✵✵✼✾✽✹✴▼❆❉ ❡st ✉♥❡ ♣r♦té✐♥❡ q✉✐ ré♣r✐♠❡ ❧✬❡①♣r❡ss✐♦♥ ❞✉ ❣è♥❡ ❞❡❝❛♣❡♥✲ t❛♣❧❡❣✐❝ ✭❣è♥❡ ❞✉ ❞é✈❡❧♦♣♣❡♠❡♥t✮ ❝❤❡③ ❉✳ ♠❡❧❛♥♦❣❛st❡r ❬✶✼✺❪ ❡t ❆❈❨P■✵✽✵✺✷✷✴❍▲▼❊ q✉✐ tr✐♠ét❤②❧❡ ▲②s✲✾ s✉r ❧✬❤✐st♦♥❡ ❍✸ ❞❛♥s ❧❡s ♦✈❛✐r❡s ❞✉r❛♥t ❧✬♦✈♦❣é♥ès❡ ❝❤❡③ ❉✳ ♠❡❧❛✲ ♥♦❣❛st❡r ❬✶✼✻❪✳❉✐s❝✉ss✐♦♥ ❣é♥ér❛❧❡ ✶✹✾ ❆✉ ✈✉ ❞❡s ❞✐✛ér❡♥t❡s ❛♥❛❧②s❡s ❢❛✐t❡s✱ ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣ s❡♠❜❧❡ êtr❡ ✉♥ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ✐♥tér❡ss❛♥t ♣♦✉r ❞❡ ❢✉t✉r❡s ❡①♣ér✐♠❡♥t❛t✐♦♥s ❜✐♦❧♦❣✐q✉❡s ❞❡ ♣❛r s♦♥ ✐♠♣❧✐❝❛t✐♦♥ ❞❛♥s ❞❡ ♥♦♠❜r❡✉① s♦✉s✲❣r❛♣❤❡s ❡t ♠♦❞✉❧❡s ❝♦♥s✐❞érés ✐❝✐ ❝♦♠♠❡ ✐♥tér❡ss❛♥ts✱ ♠ê♠❡ s✐ ✐❧ ❛ ✉♥ ♥♦♠❜r❡ ✐♠♣♦rt❛♥t ❞❡ ❝✐❜❧❡s ✭✶✾✼✮✳ ❖♥ ❧❡ r❡tr♦✉✈❡ ❞❛♥s ♣❧✉s✐❡✉rs ❝♦♥❝❡♣ts ❡t s♦✉s✲❣r❛♣❤❡s ❞♦♥t ❝❡❧✉✐ ❧✐é à ✓ ♦✈♦❣❡♥ès❡ ✔ ❡t ❝❡❧✉✐ ❛ss♦❝✐é à ❧❛ tr❛♥s✐t✐♦♥ ❞✬✉♥ ❡♠❜r②♦♥ ❞✬✉♥ ét❛t ✢❡①✐❜❧❡ ✈❡rs ét❛t ✐♥✢❡①✐❜❧❡ ✭✓ P❈❉ ✔✮✳ ❈✬❡st ✉♥ ♠✐❝r♦❆❘◆ à ❢♦♥❝t✐♦♥ ✐♥❝♦♥✲ ♥✉❡✳ ◆♦✉s s✉❣❣ér♦♥s ❡♥ ♥♦✉s ❜❛s❛♥t s✉r ❝❡s ♦❜s❡r✈❛t✐♦♥s✱ q✉❡ ❝❡ ♠✐❝r♦❆❘◆ ♣♦✉rr❛✐t r❡♣rés❡♥t❡r ✉♥ ❝❛♥❞✐❞❛t ✐♠♣♦rt❛♥t à t❡st❡r ❢♦♥❝t✐♦♥♥❡❧❧❡♠❡♥t✳ ❯♥❡ ❞❡s ❞✐✣❝✉❧tés r❡♥❝♦♥tré❡s ♣♦✉r ❧❛ ❝❛r❛❝tér✐s❛t✐♦♥ ❞✉ rés❡❛✉ ❡st q✉❡ ✽ ♠✐❝r♦❆❘◆ ❡t ✻✼ ✪ ❞❡s ❆❘◆♠ ♥✬♦♥t ♣❛s ❞✬❛♥♥♦t❛t✐♦♥s✳ ▲✬❡①tr❛❝t✐♦♥ ❞❡ ♣r♦❝❡ss✉s ❜✐♦❧♦❣✐q✉❡s ✐♠✲ ♣❧✐q✉és ❞❛♥s ❧❡ ❝❛r❛❝tèr❡ ét✉❞✐é ❞é♣❡♥❞ ♣r✐♥❝✐♣❛❧❡♠❡♥t ❞❡s ❛♥♥♦t❛t✐♦♥s ♣ré✲❡①✐st❛♥t❡s✱ q✉❡ ❝❡ s♦✐t ♣♦✉r ❧❡s ❢♦♥❝t✐♦♥s ❞❡s ❆❘◆♠ ✉t✐❧✐sé❡s ❞❛♥s ❧❛ ❝ré❛t✐♦♥ ❞❡s ♠♦❞✉❧❡s ♦✉ ♣♦✉r ❧❡s ❛♥♥♦t❛t✐♦♥s ❞❡s ♠✐❝r♦❆❘◆ ✉t✐❧✐sé❡s ❞❛♥s ❧✬✐♥t❡r♣rét❛t✐♦♥ ❞❡s rés✉❧t❛ts✳ P♦✉r ❛❧❧❡r ♣❧✉s ❧♦✐♥✱ ✐❧ ❢❛✉t ❛❥♦✉t❡r ❞❡ ❧✬✐♥❢♦r♠❛t✐♦♥ ✐♥t❡r♣rét❛❜❧❡ ❡♥ t❡r♠❡s ❞❡ ré❣✉❧❛✲ t✐♦♥✳ P♦✉r s❡ ❢❛✐r❡✱ ♦♥ ♣♦✉rr❛✐t ét❡♥❞r❡ ❧✬❛♥❛❧②s❡ ❡♥ ✐♥tr♦❞✉✐s❛♥t ❞❡s ❛ttr✐❜✉ts ❜✐♦❧♦❣✐q✉❡s q✉✐ ♥✬♦♥t ♣❛s été ✉t✐❧✐sés ❞❛♥s ♥♦tr❡ ét✉❞❡ ✿ ✕ ▲❡ ♥✐✈❡❛✉ ❞✬❡①♣r❡ss✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❞❡s ❆❘◆♠✱ ❝❛r ❧❛ ❞✐s❝rét✐s❛t✐♦♥ ✓ ❣♦♠♠❡ ✔ ❝❡t ❛s♣❡❝t q✉❛♥t✐t❛t✐❢✳ ❈❡t ❛ttr✐❜✉t ♣❡r♠❡ttr❛✐t ❞❡ ré✈é❧❡r ❞❛♥s ❧❡s rés❡❛✉① ❧❡s é❧é♠❡♥ts ♣rés❡♥t❛♥t ❧❡s ♣❧✉s ❢♦rts ♥✐✈❡❛✉① ❞❡ ré❣✉❧❛t✐♦♥ ❀ ✕ ▲❡ ♥♦♠❜r❡ ❞❡ s✐t❡s ❞❡ ✜①❛t✐♦♥ ♣♦✉r ✉♥ ❝♦✉♣❧❡ ♠✐❝r♦❆❘◆✴❆❘◆♠✳ P❧✉s ❧❡ ♥♦♠❜r❡ ❞❡ s✐t❡s ❞❡ ✜①❛t✐♦♥ ❡st é❧❡✈é✱ ♣❧✉s ❧❛ ré♣r❡ss✐♦♥ ❡st ♣♦t❡♥t✐❡❧❧❡♠❡♥t ❢♦rt❡ ❡t ♠ér✐t❡ ❞❡ s✬② ✐♥tér❡ss❡r ❀ ✕ ▲❛ ❝♦✲❧♦❝❛❧✐s❛t✐♦♥ ❣é♥♦♠✐q✉❡ ❞❡s ❣è♥❡s ❞❡ ♠✐❝r♦❆❘◆ ❡t ❞❡s ❣è♥❡s ❞✬❆❘◆♠✳ P♦✉r ❧❡s ♠✐❝r♦❆❘◆ ✐♥tr❛❣é♥✐q✉❡s✱ ❧❡✉r ❡①♣r❡ss✐♦♥ ❞é♣❡♥❞ ❞❡ ❝❡❧❧❡ ❞❡s ❆❘◆♠ ❤ôt❡s✱ ❡t ♦♥ s❵❛tt❡♥❞ à ✉♥❡ ❝♦✲ré❣✉❧❛t✐♦♥ ❡♥tr❡ ♠✐❝r♦❆❘◆ ❡t ❆❘◆♠ q✉✐ ❞❡✈r❛✐t êtr❡ ✈✐s✐❜❧❡ s✉r ❧❡ rés❡❛✉ ❀ ✕ ▲❛ ❝♦♦♣ér❛t✐♦♥ ♦✉ ❧❛ ❝♦♠♣ét✐t✐♦♥ ❡♥tr❡ ❞❡✉① s✐t❡s ❞❡ ✜①❛t✐♦♥✳ ▲✬❡✛❡t ❞❡ ❧❛ ré♣r❡s✲ s✐♦♥ ❡st ♣❧✉s ✐♠♣♦rt❛♥t s✐ ❞❡✉① s✐t❡s s♦♥t à ❧❛ ❜♦♥♥❡ ❞✐st❛♥❝❡✳ ❉✉ ♣♦✐♥t ❞❡ ✈✉❡ sé♠❛♥t✐q✉❡✱ ❧❡s tr♦✐s ❞❡r♥✐❡rs ❛ttr✐❜✉ts ❝❛r❛❝tér✐s❡♥t ♥♦♥ ♣❛s ❧❡s ♠✐✲ ❝r♦❆❘◆ ♦✉ ❧❡s ❆❘◆♠ ♠❛✐s s❡ r❛♣♣♦rt❡♥t ❛✉① ✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠✳ ❆✜♥ ❞❡ ❧❡s ✐♥té❣r❡r✱ ✐❧ ❢❛✉❞r❛✐t ✉t✐❧✐s❡r ✉♥❡ ♠ét❤♦❞❡ ♣❡r♠❡tt❛♥t ❞❡ ♣r❡♥❞r❡ ❡♥ ❝♦♠♣t❡ ❞❡s ❛ttr✐❜✉ts s✉r ❧❡s r❡❧❛t✐♦♥s✳ ❯♥❡ ❞❡s ♠ét❤♦❞❡s q✉✐ ❛ été ✐❞❡♥t✐✜é❡ ♣❡♥❞❛♥t ❧❛ t❤ès❡ ❡st ✉♥❡ ❡①t❡♥s✐♦♥ ❞❡ ❧✬❆❈❋ ✿ ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts r❡❧❛t✐♦♥♥❡❧s ✭❆❈❘✮ ❬✶✼✼❪✳ ▲✬❆❈❘ ♣❡r♠❡t ❞✬❛♥❛❧②s❡r ❞❡s r❡❧❛t✐♦♥s ❡♥tr❡ ♦❜❥❡ts ❡✉① ♠ê♠❡s ❝❛r❛❝tér✐sés ♣❛r ❞❡s ❛ttr✐❜✉ts✳ ❊❧❧❡ ✉t✐❧✐s❡ ♣❧✉s✐❡✉rs ❝♦♥t❡①t❡s ❢♦r♠❡❧s ❞é❝r✐✈❛♥t ♣❧✉s✐❡✉rs ❡♥s❡♠❜❧❡s ❞✬♦❜❥❡ts ♣❛r ❞❡s ❛ttr✐❜✉ts✱ ♣❛r ❡①❡♠♣❧❡ ✐❝✐ ❧❡s ♠✐❝r♦❆❘◆ ♠❛t✉r❡s✱ ❧❡s ❆❘◆♠ ❡t ❧❡s ✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠✱ ❡t ❞❡s ❝♦♥t❡①t❡s r❡❧❛t✐♦♥♥❡❧s q✉✐ ❞é❝r✐✈❡♥t ❞❡s r❡❧❛t✐♦♥s ❡♥tr❡ ❧❡s ♦❜❥❡ts✱ ♣❛r ❡①❡♠♣❧❡ ✐❝✐ ✉♥❡ ✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ ❢❛✐t ✐♥t❡r✈❡♥✐r ✉♥ ❆❘◆♠ ♣❛rt✐❝✉❧✐❡r✳ ◆♦✉s ❛✈♦♥s ❡ss❛②é ❞✐✛ér❡♥t❡s r❡♣rés❡♥t❛t✐♦♥s ❞❡ ♥♦s ❞♦♥♥é❡s ❡♥ ❆❈❘ ♠❛✐s ✐❧ s✬❡st ♠♦♥tré ❞✐✣❝✐❧❡ ❞❡ ♣♦✉✈♦✐r ❣❛r❞❡r ❧❛ ♥♦t✐♦♥ ❞❡ ♠♦❞✉❧❡s ❞✬✐♥t❡r❛❝t✐♦♥ ❞é✈❡❧♦♣♣é ♣❛r ♥♦tr❡ ❛♥❛❧②s❡ ❡♥ ❆❈❋ ❡♥ ✉t✐❧✐s❛♥t ❧✬❆❈❘✳ ◆é❛♥♠♦✐♥s✱ ❛rr✐✈❡r à ❣❛r❞❡r ❝❡tt❡ ♥♦t✐♦♥ ❞❡ ♠♦❞✉❧❡ ♣❡r♠❡ttr❛ ❞❡ ♣♦✉ss❡r ♣❧✉s ❧♦✐♥ ❧✬❛♥❛❧②s❡ ❞✉ rés❡❛✉✳ ▲❛ str❛té❣✐❡ ❡♠♣❧♦②é❡ ❞❛♥s ❝❡ tr❛✈❛✐❧ ❡st ❜❛sé❡ s✉r ✉♥❡ ♣r♦❞✉❝t✐♦♥ ❡①❤❛✉st✐✈❡ ❞❡s ♠♦❞✉❧❡s✱ s❛♥s sé❧❡❝t✐♦♥ ❡t é❧✐♠✐♥❛t✐♦♥ ❛ ♣r✐♦r✐ ❞❡ ♣❛r❛♠ètr❡s ♦✉ ❞✬é❧é♠❡♥ts ✭♦♥ ❢♦♥❝✲ t✐♦♥♥❡ ♣❧✉tôt ♣❛r ❛❥♦✉t ❞✬❛ttr✐❜✉ts✮✳ ❊❧❧❡ ♥é❝❡ss✐t❡ ❞♦♥❝ ❧❛ ♣rés❡♥❝❡ ❞✬✉♥ ❡①♣❡rt ♣♦✉r ✐❞❡♥t✐✜❡r ♣❛r♠✐ ❧❡s ❞✐✛ér❡♥ts ♠♦❞✉❧❡s ❝❡✉① q✉✐ ❧✉✐ s❡♠❜❧❡♥t ♣❛rt✐❝✉❧✐èr❡♠❡♥t ❧✐és ❛✉✶✺✵ ❉✐s❝✉ss✐♦♥ ❡t ♣❡rs♣❡❝t✐✈❡s ♣r♦❝❡ss✉s ét✉❞✐é✳ P❛r ❝♦♥tr❡✱ ❧✬❛✈❛♥t❛❣❡ ❞✬✉♥❡ t❡❧❧❡ str❛té❣✐❡ ❡st ❧✬❡①❤❛✉st✐✈✐té ❞❡ ❧✬✐♥✲ ❢♦r♠❛t✐♦♥ r❡♥❞✉❡ ❞✐s♣♦♥✐❜❧❡ ♣❛r ❧❛ ♠ét❤♦❞❡✳ ✻✳✶✳✹ ▲✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❞❛♥s ❧❡ ❝♦♥t❡①t❡ ❞✬✉♥ ❣r❛♣❤❡ ❜✐✲ ♣❛rt✐ ❊♥ ♣❧✉s ❞❡ ❧✬✉t✐❧✐s❛t✐♦♥ ❞❡ ❧✬❆❈❋ ♣♦✉r ❛♥❛❧②s❡r ❡t ❛❥♦✉t❡r ❞❡ ❧✬✐♥❢♦r♠❛t✐♦♥ ❜✐♦❧♦❣✐q✉❡ ❛✉ rés❡❛✉✱ ❧✬❆❈❋ ❛ été ✉t✐❧✐sé❡ ♣♦✉r ré♣❛r❡r ❞❡s ❝♦♥t❡①t❡s ❢♦r♠❡❧s ❜r✉✐tés ❛✐♥s✐ q✉❡ ♣♦✉r ✈✐s✉❛❧✐s❡r ❞❡s ❣r❛♣❤❡s ❜✐♣❛rt✐s ♣❛r ❞❡s ❜✐❝❧✐q✉❡s✳ ▲❛ ré♣❛r❛t✐♦♥ s❡ ❜❛s❡ s✉r ❧✬❤②♣♦t❤ès❡ ❞✬✉♥ r❡❣r♦✉♣❡♠❡♥t ✐♥✐t✐❛❧ ❡♥ ♠♦❞✉❧❡s ❞✉ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠✳ ▲❡s ❞✐✛ér❡♥ts t❡sts ré❛❧✐sés s✉r ❧❡s ❝♦♥t❡①t❡s ❢♦r♠❡❧s ❜r✉✐tés ♠ér✐t❡r❛✐❡♥t ❞✬êtr❡ ❡✛é❝t✉és à ♣❧✉s ❣r❛♥❞❡ é❝❤❡❧❧❡ s✉r ❞❡s ❝♦♥t❡①t❡s ❞❡ t❛✐❧❧❡s ♣❧✉s é❧❡✈é❡s✳ ▲❡s rés✉❧t❛ts ♦❜t❡♥✉s s✉r ❧❡s s✐♠✉❧❛t✐♦♥s ❞❡s ❣r❛♣❤❡s ❞✬✐♥t❡r❛❝t✐♦♥s ♠✐❝r♦❆❘◆✴❆❘◆♠ s♦♥t ♠♦✐♥s ❜♦♥s q✉❡ ❝❡✉① q✉✐ ♦♥t été ♦❜t❡♥✉s s✉r ❧❡s ❝♦♥t❡①t❡s ❜r✉✐tés✳ ❈❡s ♠❛✉✈❛✐s rés✉❧t❛ts ♣❡✉✈❡♥t ✈❡♥✐r ❞❡ ❞✐✛é✲ r❡♥ts ❢❛❝t❡✉rs ❝♦♠♠❡ ♥♦t❛♠♠❡♥t ✉♥❡ ❡①tr❛❝t✐♦♥ ❞❡s ♣❛r❛♠ètr❡s ❞✉ rés❡❛✉ ❜✐♦❧♦❣✐q✉❡ tr♦♣ ❣r♦ss✐èr❡ q✉✐ ♥✬❛ ♣❛s ♣❡r♠✐s ❞❡ ♣r❡♥❞r❡ ❡♥ ❝♦♠♣t❡ ❧❛ ✈r❛✐❡ t♦♣♦❧♦❣✐❡ s♦✉s✲❥❛❝❡♥t❡ ❞✉ rés❡❛✉✳ ▲❛ ❞❡✉①✐è♠❡ ♠ét❤♦❞❡ ❞é✈❡❧♦♣♣é❡ ❡st ✉♥❡ ♠ét❤♦❞❡ ❞❡ ✈✐s✉❛❧✐s❛t✐♦♥ ❞❡ ❣r❛♣❤❡s ❜✐✲ ♣❛rt✐s✳ ❈❡tt❡ ♠ét❤♦❞❡ s❡ ♣❧❛❝❡ ❞❛♥s ❧❡ ❝♦♥t❡①t❡ ❞❡ ❧❛ ❝♦✉✈❡rt✉r❡ ♦♣t✐♠❛❧❡ ❞✬✉♥ ❣r❛♣❤❡ ❜✐♣❛rt✐ ♣❛r s❡s ❜✐❝❧✐q✉❡s ❛✜♥ ❞❡ ♠✐♥✐♠✐s❡r ❧❡ ♥♦♠❜r❡ ❞✬❛rêt❡s r❡♣rés❡♥té❡s✳ ❉❛♥s ❧❡ ❝❛❞r❡ ❞❡ ❧✬❆❈❋ ♥♦✉s ❛✈♦♥s ♣r♦♣♦sé ✉♥❡ ♠ét❤♦❞❡✱ ✐♥s♣✐ré❡ ❞❡ ❝❡❧❧❡ ❞é✈❡❧♦♣♣é❡ ♣❛r ❘♦②❡r ❡t ❛❧✳ ❬✶✺✹❪ ✭P♦✇❡r ●r❛♣❤✮✱ ♣❡r♠❡tt❛♥t ❞❡ ✈✐s✉❛❧✐s❡r ✉♥ ❣r❛♣❤❡ ❜✐♣❛rt✐ ❡♥ s✬❛✐❞❛♥t ❞❡ s❡s ❝♦♥❝❡♣ts ❡t s♦✉s✲❝♦♥❝❡♣ts✳ ▲❛ ♠ét❤♦❞❡ ♥❡ ♣❡r♠❡t ♣❛s ❡♥❝♦r❡ ❞✬❛✈♦✐r ✉♥❡ ré❞✉❝t✐♦♥ ❞❡s ❛rêt❡s ❛✉ss✐ ❢♦rt❡ q✉❡ ❧❛ ♠ét❤♦❞❡ ❞♦♥t ❡❧❧❡ s✬✐♥s♣✐r❡✳ ◆é❛♥♠♦✐♥s✱ ❧❡ ré❡❧ ✐♥térêt ❞❡ ❝❡tt❡ ♠ét❤♦❞❡ rés✐❞❡ ❞❛♥s ❧❛ s♣é❝✐✜❝❛t✐♦♥ ❞❡ ❧❛ ✈✐s✉❛❧✐s❛t✐♦♥ s♦✉❤❛✐té❡✳ ❊♥ ❡✛❡t✱ ❡❧❧❡ ♣❡r♠❡t ❞❡ r❡❣r♦✉♣❡r ❧❡s ♥÷✉❞s ❞✉ ❣r❛♣❤❡ s❡❧♦♥ ❞✐✛ér❡♥ts ❝r✐tèr❡s✱ ❝♦♥tr❛✐r❡♠❡♥t à ❧❛ ♠ét❤♦❞❡ P♦✇❡r ●r❛♣❤ q✉✐ ♥✬♦♣t✐♠✐s❡ q✉❡ ❧❡ r❡❝♦✉✈r❡♠❡♥t ❞❡s ❛rêt❡s✳ ●râ❝❡ à ♥♦tr❡ ♠ét❤♦❞❡✱ ❧❛ ❞é✜♥✐t✐♦♥ ❞❡ ❞✐✛ér❡♥t❡s ♦♣t✐♠✐s❛t✐♦♥s ♣❡r♠❡t ❞❡ ❣é♥ér❡r ❞✐✛ér❡♥t❡s ✈✐s✉❛❧✐s❛t✐♦♥s q✉✐ ré♣♦♥❞❡♥t à ❞❡s q✉❡st✐♦♥s ❜✐♦❧♦❣✐q✉❡s ❞✐✛ér❡♥t❡s✳ ❊♥ ❝♦♥❝❧✉s✐♦♥✱ ❝❡tt❡ t❤ès❡ s✬❛♣♣❧✐q✉❡ à ❛♥❛❧②s❡r ❧✬✉♥ ❞❡s ♠♦❞❡s ❞❡ ré❣✉❧❛t✐♦♥ ♣♦t❡♥✲ t✐❡❧❧❡♠❡♥t ✐♠♣❧✐q✉é ❞❛♥s ❧❡ ♣♦❧②♣❤é♥✐s♠❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❞✉ ♣✉❝❡r♦♥ ✿ ❧✬✐♥❤✐❜✐t✐♦♥ ❞❡ ❧❛ tr❛❞✉❝t✐♦♥ ❡t ❧❛ ❞é❣r❛❞❛t✐♦♥ ❞❡s ❆❘◆♠ ✐♥❞✉✐t❡ ♣❛r ❧❡s ♠✐❝r♦❆❘◆✳ ❈❡tt❡ ♣r❡♠✐èr❡ ❛♥❛❧②s❡ ❛ ♣❡r♠✐s ❞❡ ❞é✈❡❧♦♣♣❡r ❧❡s ❜❛s❡s ❞✬✉♥❡ ♠♦❞é❧✐s❛t✐♦♥ ❞❡s rés✉❧t❛ts ♣♦✉✈❛♥t êtr❡ ♦❜t❡♥✉s à ❧✬❛✐❞❡ ❞✉ ♣r♦t♦❝♦❧❡ ❜✐♦❧♦❣✐q✉❡ ❡①♣ér✐♠❡♥t❛❧ s✉r ❧❡q✉❡❧ s❡ ❜❛s❡ ❝❡ tr❛✈❛✐❧✳ ❯♥❡ ♠ét❤♦❞❡ ❞❡ ❢♦✉✐❧❧❡ ❞❡ ❞♦♥♥é❡s ❞✬✐♥t❡r❛❝t✐♦♥s à ❧✬❛✐❞❡ ❞✬❛ttr✐❜✉ts ❜✐♦❧♦❣✐q✉❡s ❛ été ✐♥✲ tr♦❞✉✐t❡ ♣❡r♠❡tt❛♥t ❞✬❛✐❞❡r à ❧❛ ❝❛r❛❝tér✐s❛t✐♦♥ ❞✬✐♥t❡r❛❝t✐♦♥s ❝❧és ❞❛♥s ❧❡ ♣r♦❝❡ss✉s ét✉❞✐é✳❈♦♥❝❧✉s✐♦♥ ❡t P❡rs♣❡❝t✐✈❡s ✶✺✶ ✻✳✷ ❈♦♥❝❧✉s✐♦♥ ❡t P❡rs♣❡❝t✐✈❡s ✻✳✷✳✶ ❈♦♥❝❧✉s✐♦♥ ❉❛♥s ❝❡tt❡ t❤ès❡✱ ♥♦✉s ❛✈♦♥s ❝réé ❧❡ ♣r❡♠✐❡r rés❡❛✉ ♣❛♥❣é♥♦♠✐q✉❡ r❡♣rés❡♥t❛♥t ❧❡ ♣♦t❡♥t✐❡❧ ❞❡ ❧✬✐♥❤✐❜✐t✐♦♥ ❞❡ ❧❛ tr❛❞✉❝t✐♦♥ ❞❡s ❆❘◆♠ ♣❛r ❧❡s ♠✐❝r♦❆❘◆ ❝❤❡③ ❆❝②rt❤♦s✐✲ ♣❤♦♥ ♣✐s✉♠✳ ❈❡ rés❡❛✉ ❛ été ré❞✉✐t à ✷✳✷✺✵ ✐♥t❡r❛❝t✐♦♥s ❡♥tr❡ ✶✺ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ✶✳✽✶✵ ❆❘◆♠ ❛②❛♥t ❞❡s ❝✐♥ét✐q✉❡s ❞✐✛ér❡♥t❡s ❡♥tr❡ ❞❡✉① ❡♠❜r②♦❣❡♥ès❡s✱ ✉♥❡ s❡①✉é❡ ❡t ✉♥❡ ❛s❡①✉é❡✳ ▲✬❛♣♣❧✐❝❛t✐♦♥ ❞❡ ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s à ❝❡ rés❡❛✉ ❞✬✐♥t❡r❛❝t✐♦♥s ❛ ♣❡r♠✐s ❧✬✐❞❡♥t✐✜❝❛t✐♦♥ ❞❡ ❞✐✛ér❡♥t❡s ❢♦♥❝t✐♦♥s ♣♦t❡♥t✐❡❧❧❡♠❡♥t ✐♠♣♦rt❛♥t❡s ❞❛♥s ❧❛ ❞✐s✲ ❝r✐♠✐♥❛t✐♦♥ ❞❡ ❝❡s ❡♠❜r②♦❣❡♥ès❡s ❝♦♠♠❡ ❧✬♦✈♦❣❡♥ès❡✱ ❧❛ ré❣✉❧❛t✐♦♥ tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ♦✉ ❡♥❝♦r❡ ❧❡ s②stè♠❡ ♥❡✉r♦❡♥❞♦❝r✐♥❡✳ ▲✬♦❜t❡♥t✐♦♥ ❞❡ ♠♦❞✉❧❡s ❞✬✐♥t❡r❛❝t✐♦♥s r❡s♣❡❝t❛♥t ❝❡rt❛✐♥❡s ❝♦♥tr❛✐♥t❡s ❛ ❛✉ss✐ ♣❡r♠✐s ❞✬✐❞❡♥t✐✜❡r ❞❡s ❝✐❜❧❡s ♣❧✉s ♣ré❝✐s❡s✱ ❝♦♠♠❡ ❧❡ ♠✐✲ ❝r♦❆❘◆ ♠❛t✉r❡ ❛♣✐✲♠✐r✲✶✵✵✵✲✺♣ q✉✐ s❡♠❜❧❡ ré❣✉❧❡r ❞❡ ♥♦♠❜r❡✉① ♠♦❞✉❧❡s ❞✬✐♥térêt✳ ❈❡ tr❛✈❛✐❧ ♣❡r♠❡t ❞♦♥❝ ❞❡ s✬❛♣♣r♦♣r✐❡r ❧❡s ❛♣♣r♦❝❤❡s ❞❡ ❜✐♦❧♦❣✐❡ ❞❡s s②stè♠❡s ♣♦✉r ✐♥❢ér❡r ❞❡s ❢♦♥❝t✐♦♥s ❜✐♦❧♦❣✐q✉❡s ♣♦t❡♥t✐❡❧❧❡♠❡♥t ✐♠♣❧✐q✉é❡s ❞❛♥s ❧❛ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡ ❞✉ ♠♦❞❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❝❤❡③ ✉♥ ✐♥s❡❝t❡✳ ■❧ ♣❡r♠❡t ❞❡ ❞é❣❛❣❡r ❞❡ ♥♦✉✈❡❧❧❡s ♣❡rs♣❡❝t✐✈❡s q✉✐ s♦♥t ❞é✈❡❧♦♣♣é❡s ❝✐✲❞❡ss♦✉s✳ ✻✳✷✳✷ P❡rs♣❡❝t✐✈❡s ❉é✈❡❧♦♣♣❡r ❧❡s ♠ét❤♦❞❡s ❧✐é❡s à ❧✬✉t✐❧✐s❛t✐♦♥ ❞❡ ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts ❢♦r♠❡❧s ◆♦✉s ❛✈♦♥s ❡✛❡❝t✉é tr♦✐s tr❛✈❛✉① s✉r ❧✬✉t✐❧✐s❛t✐♦♥ ❞❡ ❧✬❆❈❋ ❞❛♥s ❧❡ ❝❛❞r❡ ❞✬❛♥❛❧②s❡s s✉r ❞❡s rés❡❛✉① ❜✐♣❛rt✐s ✿ ❧❛ ré♣❛r❛t✐♦♥ ❀ ❧❛ ✈✐s✉❛❧✐s❛t✐♦♥ ❀ ❧✬❛♥❛❧②s❡✳ ❈❡s tr♦✐s tr❛✈❛✉① ♠ér✐t❡r❛✐❡♥t ❞❡s ❞é✈❡❧♦♣♣❡♠❡♥ts ♣❧✉s ♣♦✉ssés✳ P♦✉r ❧❛ ré♣❛r❛t✐♦♥✱ ❧❡ tr❛✈❛✐❧ ❡✛❡❝t✉é ✐❝✐ ❛ ♣❡r♠✐s ✉♥❡ ♣r❡♠✐èr❡ ❢♦r♠❛❧✐s❛t✐♦♥ ❞❡ ❧✬✐♥✢✉❡♥❝❡ ❞✉ ❜r✉✐t ❛✉ s❡✐♥ ❞✬✉♥ tr❡✐❧❧✐s ❞❡ ❝♦♥❝❡♣ts ❛✐♥s✐ q✉❡ ❧✬✉t✐❧✐s❛t✐♦♥ ❞❡s ❝♦♥❝❡♣ts✳ ◆é❛♥♠♦✐♥s✱ ✉♥❡ ❢♦r♠❛❧✐s❛t✐♦♥ ❞✉ rés✉❧t❛t ❞❡ ❧❛ s✉♣♣r❡ss✐♦♥ ❡t ❞❡ ❧✬❛❥♦✉t ❞✬✐♥t❡r❛❝t✐♦♥s s✉r ❧❡ tr❡✐❧❧✐s ❞❡ ❝♦♥❝❡♣ts ❞❡✈r❛✐t ♣❡r♠❡ttr❡ ❞✬❛♠é❧✐♦r❡r ❧❡ ♣r♦❝❡ss✉s ❞❡ ré♣❛r❛t✐♦♥✳ ❈❡ ♣r♦❝❡ss✉s ❛♣♣❧✐q✉é ❛✉① ♣ré❞✐❝t✐♦♥s ❞✬✐♥t❡r❛❝✲ t✐♦♥s ♥❡ ♣❡♥❞ ♣❛s ❡♥ ❝♦♠♣t❡ ❧❛ ✈❛❧❡✉r ❞❡ s❝♦r❡ ❞❡ ❧✬✐♥t❡r❛❝t✐♦♥ ♣ré❞✐t❡✳ ❯♥❡ ♠♦❞✐✜❝❛t✐♦♥ ❞❡ ❝❡ ♣r♦❝❡ss✉s ♣♦✉r ♣r❡♥❞r❡ ❡♥ ❝♦♠♣t❡ ❝❡ s❝♦r❡✱ ❝♦♠♠❡ ❧❛ ♠✐♥✐♠✐s❛t✐♦♥ ❞❡s s❝♦r❡s ❞❡s ✐♥t❡r❛❝t✐♦♥s ❛❥♦✉té❡s ❡t ❧❛ ♠❛①✐♠✐s❛t✐♦♥ ❞❡ ❝❡❧❧❡s s✉♣♣r✐♠é❡s✱ ♣♦✉rr❛✐t ❛♠é❧✐♦r❡r ❧❡s rés✉❧t❛ts✳ ▲❛ ✈✐s✉❛❧✐s❛t✐♦♥ ♥❡ ❝♦✉✈r❡ ♣❛s ❡♥❝♦r❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❛rêt❡s✳ ▲à ❡♥❝♦r❡✱ ✉♥❡ ét✉❞❡ ♣❧✉s ♣♦✉ssé❡ ❞❡s r❡❧❛t✐♦♥s ❡①✐st❛♥ts ❡♥tr❡ ❧❡s ❡♥s❡♠❜❧❡s ❞❡s ❝♦♥❝❡♣ts ❡t s♦✉s✲❝♦♥❝❡♣ts ♣❡r♠❡ttr❛✐t ❞❡ ré❞✉✐r❡ ❡♥❝♦r❡ ♣❧✉s ❧❡ rés❡❛✉✳ ◆♦✉s ❛✈♦♥s ♣✉ ✈♦✐r q✉❡ ❧❡s ✈✐s✉❛❧✐s❛t✐♦♥s ❣é♥éré❡s ♣♦✉✈❛✐❡♥t ré♣♦♥❞r❡ à ❞✐✛ér❡♥ts ❝r✐tèr❡s ❞✬♦♣t✐♠✐s❛t✐♦♥✳ ❈❡t ❛s♣❡❝t ♣♦✉rr❛✐t êtr❡ ✉t✐❧✐sé ❞❛♥s ❧❡ ❝❛❞r❡ ❞❡ ❧✬❛♥❛❧②s❡ ❞✬✉♥ rés❡❛✉ ♣❛r ❛❥♦✉t ❞✬✐♥❢♦r♠❛t✐♦♥ ✿ ❧❛ ♠ét❤♦❞❡ ❞❡ ✈✐s✉❛❧✐s❛t✐♦♥ ♦♣t✐♠✐s❡r❛✐t ❧❡ r❡❣r♦✉♣❡♠❡♥t ❞❡s ✐♥t❡r❛❝t✐♦♥s ❡♥ ❢♦♥❝t✐♦♥ ❞❡s ❝♦♥❝❡♣ts ♦❜t❡♥✉s ♣❛r ❛❥♦✉t ❞✬✐♥❢♦r♠❛t✐♦♥✳ ➱t❡♥❞r❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ❛ttr✐❜✉ts ✉t✐❧✐sés ❆✜♥ ❞✬❡✛❡❝t✉❡r ✉♥❡ r❡❝❤❡r❝❤❡ ❡t ✉♥❡ ✐❞❡♥t✐✜❝❛t✐♦♥ ♣❧✉s ♣ré❝✐s❡s ❞❡s ♠♦❞✉❧❡s ✐♠✲ ♣❧✐q✉és ❞❛♥s ❧❡ ♣♦❧②♣❤é♥✐s♠❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥✱ ✐❧ ❢❛✉t ❛❥♦✉t❡r ❞❡ ♥♦✉✈❡❛✉① ❛ttr✐❜✉ts ❝❛r❛❝tér✐s❛♥t ❧❡s ✐♥t❡r❛❝t✐♦♥s ❡❧❧❡s✲♠ê♠❡s✱ ❝♦♠♠❡ ❧❡ ♥♦♠❜r❡ ❞❡ s✐t❡s ❞❡ ✜①❛t✐♦♥ ♦✉ ❡♥✲ ❝♦r❡ ❧❛ ❞✐st❛♥❝❡ ❡♥tr❡ ❞❡✉① s✐t❡s ❞❡ ✜①❛t✐♦♥✳ ❆✜♥ ❞✬❛❥♦✉t❡r ❝❡s ❛ttr✐❜✉ts à ❧✬❛♥❛❧②s❡✱✶✺✷ ❉✐s❝✉ss✐♦♥ ❡t ♣❡rs♣❡❝t✐✈❡s ❧✬❛♥❛❧②s❡ ❞❡ ❝♦♥❝❡♣ts r❡❧❛t✐♦♥♥❡❧s ✭❆❈❘✮ ❛ été ✐❞❡♥t✐✜é❡ ❝♦♠♠❡ ét❛♥t ✉♥❡ ♠ét❤♦❞❡ ❛❞❛♣té❡✳ ❆♣rès ❞✐✛ér❡♥ts ❡ss❛✐s ♣♦✉r ♠♦❞é❧✐s❡r ❧❛ ♣r♦❜❧é♠❛t✐q✉❡ ❞✬✐♥térêt à ❧✬❛✐❞❡ ❞❡ ❧✬❆❈❘✱ ✐❧ ❡st ❛♣♣❛r✉ q✉❡ ❧❛ ❝♦♥s❡r✈❛t✐♦♥ ❞❡s ♠♦❞✉❧❡s ✐♥✐t✐❛✉①✱ ❝✬❡st✲à✲❞✐r❡ ❞❡s ❝♦♥❝❡♣ts ❢♦r♠❡❧s ❧✐❛♥t ♠✐❝r♦❆❘◆ ❡t ❆❘◆♠✱ ét❛✐t ❞é❧✐❝❛t❡ à ♣r❡♥❞r❡ ❡♥ ❝♦♠♣t❡✳ ❉❡ ❢✉t✉rs tr❛✲ ✈❛✉① ❞❡✈r❛✐❡♥t ♣❡r♠❡ttr❡ ❧❛ ♠♦❞é❧✐s❛t✐♦♥ ♣❛r ❧✬❆❈❘ ❛✣♥ ❞✬❛♣♣r♦❢♦♥❞✐r ❧✬❛♥❛❧②s❡ ❞❡s ✐♥t❡r❛❝t✐♦♥s✳ ❘❡♥❞r❡ ❛❝❝❡ss✐❜❧❡ ❧❡s ❞✐✛ér❡♥ts rés✉❧t❛ts ▲✬❡♥s❡♠❜❧❡ ❞❡s rés✉❧t❛ts ♣rés❡♥ts ✐❝✐ ♥❡ s♦♥t ♣❛s ❡♥❝♦r❡ ♣❧❡✐♥❡♠❡♥t ❞✐s♣♦♥✐❜❧❡s à ❧❛ ❝♦♠♠✉♥❛✉té ❜✐♦❧♦❣✐q✉❡✳ ❯♥ tr❛✈❛✐❧ ❞✬✐♥❣é♥✐❡r✐❡ ❡st ❡♥❝♦r❡ ♥é❝❡ss❛✐r❡ ❛✜♥ ❞❡ ❢♦✉r♥✐r à ❧✬❡♥s❡♠❜❧❡ ❞❡s ♣❡rs♦♥♥❡s tr❛✈❛✐❧❧❛♥t s✉r ❝❡ ❝❛r❛❝tèr❡ ❝❤❡③ ❧❡ ♣✉❝❡r♦♥ ✉♥ ❛❝❝ès s✐♠♣❧❡ ❛✉① ❞♦♥♥é❡s ❡t ❛✉① rés✉❧t❛ts ❞❡s ❞✐✛ér❡♥t❡s ét❛♣❡s ❡✛❡❝t✉é❡s✳ P♦✉r ❝❡❧❛✱ ✉♥ ♦✉t✐❧ ❜✐♦✲ ✐♥❢♦r♠❛t✐q✉❡ ❞❡✈r❛ êtr❡ ❞é✈❡❧♦♣♣é ♣♦✉r ♣♦✉✈♦✐r ❛✣❝❤❡r ❡t ♥❛✈✐❣✉❡r ❛✉ s❡✐♥ ❞✉ tr❡✐❧❧✐s ❞❡ ❝♦♥❝❡♣ts✳ ❉❡s r❡q✉êt❡s ♣♦✉rr♦♥t êtr❡ ❡✛❡❝t✉é❡s s✉r ❝❡ tr❡✐❧❧✐s ♣♦✉r ❡①tr❛✐r❡ ❛✉t♦♠❛t✐q✉❡✲ ♠❡♥t ❞❡s s♦✉s✲❣r❛♣❤❡s ❞❡ ❧❛ ♠ê♠❡ ❢❛ç♦♥ q✉❡ ❝❡✉① ♦❜t❡♥✉s ✐❝✐✳ ❉❡ ♣❧✉s✱ ❝❡t ♦✉t✐❧ ❞❡✈r❛ ♣❡r♠❡ttr❡ ❞✬❛❝❝é❞❡r ❢❛❝✐❧❡♠❡♥t ❛✉① ❞✐✛ér❡♥t❡s ❞♦♥♥é❡s ❞✐s♣♦♥✐❜❧❡s ❝♦♠♠❡ ❧❡s ✈❛❧❡✉rs ❞✬❡①♣r❡ss✐♦♥s✱ ❧❡s rè❣❧❡s ♦✉ ❡♥❝♦r❡ ❧❡s ❛♥♥♦t❛t✐♦♥s ❞✐r❡❝t❡♠❡♥t à ♣❛rt✐r ❞✉ tr❡✐❧❧✐s✳ ❆♥❛❧②s❡ ❢♦♥❝t✐♦♥♥❡❧❧❡ ❈♦♠♠❡ ✐❧ ❛ été ❞✐t ❞❛♥s ❧❛ ❞✐s❝✉ss✐♦♥ ❣é♥ér❛❧❡✱ ❧❛ ❢♦✉✐❧❧❡ ❞❡ ❞♦♥♥é❡s à ❧✬❛✐❞❡ ❞❡ ❧✬❆❈❋ ❣é♥èr❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ♠♦❞✉❧❡s r❡s♣❡❝t❛♥t ❧❡s ❝♦♥❞✐t✐♦♥s ✜①é❡s ♣❛r ❧✬❛♥❛❧②st❡✳ ❆✜♥ ❞✬✐❞❡♥t✐✜❡r ♣❧✉s ♣ré❝✐sé♠❡♥t ❧❡s ♠✐❝r♦❆❘◆ ❡t ❆❘◆♠ ✐♠♣❧✐q✉és ❞❛♥s ❧❛ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s✱ ❧✬❡①♣❧♦r❛t✐♦♥ ❢❛❝✐❧✐té❡ ♣♦✉r ✉♥ ❡①♣❡rt ❞❡ ❧✬❡♥s❡♠❜❧❡ ❞❡s ♠♦❞✉❧❡s ❣é♥érés ❡st ♥é❝❡ss❛✐r❡✳ ❆♣rès ❝❡tt❡ ♣❤❛s❡✱ ✉♥❡ ❝❛r❛❝tér✐s❛t✐♦♥ ✐♥ ✈✐✈♦ ❞❡s é❧é♠❡♥ts ✐❞❡♥t✐✜és ❞♦✐t êtr❡ ♠❡♥é❡ ♣♦✉r ✈❛❧✐❞❡r ♦✉ ♥♦♥ ❧❡ ❝❛r❛❝tèr❡ ❢♦♥❝t✐♦♥✲ ♥❡❧ ❞❡ ❝❡s é❧é♠❡♥ts✳ ▲✬❛♥❛❧②s❡ ❢♦♥❝t✐♦♥♥❡❧❧❡ ♣❡✉t êtr❡ ❢❛✐t❡ ♣❛r ❆❘◆ ✐♥t❡r❢ér❡♥t ✭❆❘◆✐✮ ♣♦✉r ❧❡s ❆❘◆♠✳ ❖♥ ♣❡✉t é❣❛❧❡♠❡♥t ♣r♦❝é❞❡r ♣❛r ✐♥❤✐❜✐t✐♦♥ ❞❡s ♠✐❝r♦❆❘◆✱ s♦✐t ❡♥ ✉t✐❧✐s❛♥t ✉♥ ❛♥t❛❣♦♠✐r✱ ✉♥ ♦❧✐❣♦♥✉❝❧é♦t✐❞❡ ❛♥t✐✲s❡♥s ❛✉ ♠✐❝r♦❆❘◆ ♠❛t✉r❡✱ s♦✐t ❡♥ ✉t✐✲ ❧✐s❛♥t ✉♥❡ é♣♦♥❣❡ à ♠✐❝r♦❆❘◆✱ ❝✬❡st✲à✲❞✐r❡ ✉♥❡ séq✉❡♥❝❡ tr❛♥s❢❡❝té❡ ❞❛♥s ❧✬♦r❣❛♥✐s♠❡ ♣♦ssé❞❛♥t ❞❡s s✐t❡s ❞❡ ✜①❛t✐♦♥ ♣♦✉r ✉♥ ♠✐❝r♦❆❘◆ ♠❛t✉r❡ ❞✬✐♥térêt✳ ❯♥❡ ❞❡s ❞✐✣❝✉❧tés ♠❛❥❡✉r ❞❡ ❝❡s ❡①♣ér✐♠❡♥t❛t✐♦♥s ❡st q✉❡ ❧✬❡♥s❡♠❜❧❡ ❞❡ ❝❡s ♠ét❤♦❞❡s ❣é♥ét✐q✉❡s ❞♦✐✈❡♥t êtr❡ ♠✐s❡s ❛✉ ♣♦✐♥t ♣♦✉r ♣♦✉✈♦✐r ♣❛ss❡r ❧❛ ❜❛rr✐èr❡ ❡♠❜r②♦♥♥❛✐r❡ ❛✜♥ ❞✬❛✈♦✐r ✉♥ ❡✛❡t s✉r ❧✬❡♠❜r②♦♥ ❧♦rs ❞❡ ❧✬✐♥❥❡❝t✐♦♥ ❝❤❡③ ❧❛ ♠èr❡✳ ▲✬❆❘◆✐ ❢♦♥❝t✐♦♥♥❡ ❝❤❡③ ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ♠❛✐s ❞❛♥s ❝❡rt❛✐♥❡s ❝♦♥❞✐t✐♦♥s ✭❡ss❡♥✲ t✐❡❧❧❡♠❡♥t ♣♦✉r ❞❡s ❣è♥❡s ❡①♣r✐♠és ❞❛♥s ❧❡ t✉❜❡ ❞✐❣❡st✐❢ ♦✉ ❧❡s ❣❧❛♥❞❡s s❛❧✐✈❛✐r❡s✮✳ ❉❡s ♥♦✉✈❡❧❧❡s t❡❝❤♥✐q✉❡s ❞❡ tr❛♥s❣é♥ès❡ s♦♥t ❡♥ ❝♦✉rs ❞❡ t❡st ✭❚❆▲❊◆✱ ❈❘■❙P❘✮ ♠❛✐s r❡st❡♥t ❞✐✣❝✐❧❡s à ♠❡ttr❡ ❡♥ ÷✉✈r❡✳ ▲❛ r❡❝❤❡r❝❤❡ ❞❡ ♠✉t❛♥ts ❡st ❡♥✈✐s❛❣❡❛❜❧❡ ❬✻❪✳ ❈❡✲ ♣❡♥❞❛♥t✱ ❡♥ ❛❜s❡♥❝❡ ❛✉❥♦✉r❞✬❤✉✐ ❞❡ ♠ét❤♦❞❡s ❞✬❛♥❛❧②s❡ ❢♦♥❝t✐♦♥♥❡❧❧❡ r♦✉t✐♥✐èr❡s✱ ❞❡s ❝❛r❛❝tér✐s❛t✐♦♥s ♣❧✉s ♣ré❝✐s❡s ❞❡ ❧✬❡①♣r❡ss✐♦♥ ❞❡s ♠✐❝r♦❆❘◆ ❡t ❞❡s ❆❘◆♠ ❝❛♥❞✐❞❛ts ♣❡✉✈❡♥t êtr❡ ré❛❧✐sé❡s ✭q✲❘❚✲P❈❘✱ ❤②❜r✐❞❛t✐♦♥ ✐♥ s✐t✉✮✳ ❉❡ ♣❧✉s✱ ✐❧ ❡st ♣♦ss✐❜❧❡ ❞❡ ❝♦♠✲ ♣❛r❡r ❝❡s ❡①♣r❡ss✐♦♥s ❡♥tr❡ ❞✐✛ér❡♥t❡s ❧✐❣♥é❡s ❞❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s q✉✐ ✈❛r✐❡♥t s❡❧♦♥ ❧❡✉r ré♣♦♥s❡ à ❧❛ ♣❤♦t♦♣ér✐♦❞❡ ✿ ❝❡rt❛✐♥❡s s♦♥t ✐♥❝❛♣❛❜❧❡s ❞❡ ❝❤❛♥❣❡r ❞❡ ♠♦❞❡ ❞❡ r❡♣r♦❞✉❝✲ t✐♦♥ ❡♥ ❝♦♥❞✐t✐♦♥ ❞❡ ♣❤♦t♦♣ér✐♦❞❡ ❝♦✉rt❡✳ ❈❡s ❧✐❣♥é❡s r❡♣rés❡♥t❡♥t ✉♥ ♠❛tér✐❡❧ ❣é♥ét✐q✉❡ ❞❡ ❝❤♦✐① ♣♦✉r ❛✣♥❡r ❧❡s ❝♦♥♥❛✐ss❛♥❝❡s s✉r ❧❡ ❢♦♥❝t✐♦♥♥❡♠❡♥ts ❞❡s ❣è♥❡s ❞❡ ❝❛♥❞✐❞❛ts ❞✉ rés❡❛✉✳❈♦♥❝❧✉s✐♦♥ ❡t P❡rs♣❡❝t✐✈❡s ✶✺✸ ➱t✉❞❡ ❞❡ ♥♦✉✈❡❧❧❡s s♦✉r❝❡s ❞❡ ré❣✉❧❛t✐♦♥s ❉❡ ♥♦♠❜r❡✉① t②♣❡s ❞❡ ré❣✉❧❛t✐♦♥ ❡①✐st❡♥t ❛✉ s❡✐♥ ❞✉ ✈✐✈❛♥t ❡t ❧❛ ré❣✉❧❛t✐♦♥ ♣♦st✲ tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ❞❡s ❆❘◆♠ ♣❛r ❧❡s ♠✐❝r♦❆❘◆ ♥✬❡st q✉✬✉♥❡ ré❣✉❧❛t✐♦♥ ♣❛r♠✐ ❞✬❛✉tr❡s✳ ❈❡tt❡ ét✉❞❡ ♥❡ ♣r❡♥❞ ♣❛s ❡♥ ❝♦♠♣t❡ ❞✬❛✉tr❡s t②♣❡s ❞❡ ré❣✉❧❛t✐♦♥s ❝♦♠♠❡ ❧❡s ré❣✉❧❛✲ t✐♦♥s é♣✐❣é♥ét✐q✉❡s ♦✉ tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡s ♣♦✉r ♥❡ ❝✐t❡r q✉✬❡❧❧❡s✳ ■❧ ❛ été ♠♦♥tré q✉❡ ❧✬❡♥s❡♠❜❧❡ ❞❡ ❝❡s é❧é♠❡♥ts ♣♦✉✈❛✐❡♥t ✐♥t❡r❛❣✐r ❡♥tr❡ ❡✉① ❝♦♠♠❡ ❧❡s ❜♦✉❝❧❡s ❞❡ ré❣✉❧❛✲ t✐♦♥s ♠✐❝r♦❆❘◆✱ ❢❛❝t❡✉rs ❞❡ tr❛♥s❝r✐♣t✐♦♥ ❡t ❆❘◆♠ ❬✶✻✼❪✱ ❧✬❡✛❡t t❛♠♣♦♥ ❞❡s ❆❘◆♠ ❡t ❞❡s ❧♦♥❣s ❆❘◆ ♥♦♥ ❝♦❞❛♥t s✉r ❧❡s ♠✐❝r♦❆❘◆ ❬✹✸✱ ✹✹✱ ✹✺✱ ✹✻❪ ♦✉ ❡♥❝♦r❡ ❧❛ ré❣✉❧❛t✐♦♥ ❞❡s ❆❘◆♠ ♣❛r ❧❡s ❧♦♥❣s ❆❘◆ ♥♦♥ ❝♦❞❛♥t ❬✶✼✽✱ ✶✼✾✱ ✶✽✵❪✳ ❆✉ s❡✐♥ ❞❡ ❧✬éq✉✐♣❡ ➱❝♦❧♦❣✐❡ ❡t ●é♥ét✐q✉❡ ❞❡s ■♥s❡❝t❡s à ❧✬■●❊PP✱ ❧❡s ❧❆❘◆♥❝ ❡t ❧❡s ❆❘◆♣✐ ♦♥t été ✐❞❡♥t✐✜és à ❧✬❛✐❞❡ ❞❡s ❥❡✉① ❞❡ ❞♦♥♥é❡s s✉r ❧❡ séq✉❡♥ç❛❣❡ ❞❡s ❧♦♥❣s ❡t ♣❡t✐ts ❆❘◆ ♣rés❡♥tés ❞❛♥s ❝❡tt❡ t❤ès❡✳ ❊♥ ♣❧✉s ❞❡ ❝❡s ❞♦♥♥é❡s ❞é❥à ❞✐s♣♦♥✐❜❧❡s✱ ❞❡s ❞♦♥♥é❡s é♣✐❣é♥ét✐q✉❡s s✉r ❧❡s ❝❤❛♥❣❡♠❡♥ts ❞❛♥s ❧✬❛❝❝❡ss✐❜✐❧✐té ❞❡ ❧❛ ❝❤r♦♠❛t✐♥❡ s♦♥t ❡♥ ❝♦✉rs ❞✬❛❝q✉✐s✐t✐♦♥ s✉r ❧❡ ♠ê♠❡ ♣r♦t♦❝♦❧❡ q✉✐ ❡st ❞é❝r✐t ✐❝✐✳ ▲✬❡①t❡♥s✐♦♥ ❞✉ rés❡❛✉ à ❧❛ ❞✐✈❡rs✐té ❞❡s ❞✐✛ér❡♥ts ♣❤é♥♦♠è♥❡s ❞❡ ré✲ ❣✉❧❛t✐♦♥s ❝♦♥♥✉s ♣❡r♠❡ttr❛ ❞♦♥❝ ❞❡ ♣♦✉ss❡r ♣❧✉s ❧♦✐♥ ❧❛ ❝♦♠♣ré❤❡♥s✐♦♥ ❞✉ ❝❤❛♥❣❡♠❡♥t ❞❡ ♠♦❞❡ ❞❡ r❡♣r♦❞✉❝t✐♦♥ ❝❤❡③ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ❬✻❪✳ ❯t✐❧✐s❛t✐♦♥ ❞✉ rés❡❛✉ ♣❛♥❣é♥♦♠✐q✉❡ ▲❡ rés❡❛✉ ✐♥✐t✐❛❧ ❞✬✐♥t❡r❛❝t✐♦♥ ❡♥tr❡ ♠✐❝r♦❆❘◆ ♠❛t✉r❡s ❡t ❆❘◆♠ q✉❡ ♥♦✉s ❛✈♦♥s ❝♦♥str✉✐t ❡st ✉♥ rés❡❛✉ ♣❛♥❣é♥♦♠✐q✉❡✳ ■❧ ♣❡✉t ❞♦♥❝ êtr❡ ❛♣♣❧✐q✉é à ❞✬❛✉tr❡s tr❛✐ts ❞❡ ✈✐❡ ❞✬✐♥térêt ❝❤❡③ ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❝♦♠♠❡ ♣❛r ❡①❡♠♣❧❡ ❧❛ ♣❧❛st✐❝✐té ♣❤é♥♦t②♣✐q✉❡ ❞❡ ❞✐s♣❡rs✐♦♥ ✭♣✉❝❡r♦♥s ❛✐❧és ♦✉ ♥♦♥✮ ♦✉ ❡♥❝♦r❡ ❧✬❛❞❛♣t❛t✐♦♥ à ❧❛ ♣❧❛♥t❡ ❤ôt❡✳ ❈❡ rés❡❛✉ ♣❡r♠❡ttr❛ à ❧✬❡♥s❡♠❜❧❡ ❞❡ ❧❛ ❝♦♠♠✉♥❛✉té tr❛✈❛✐❧❧❛♥t s✉r ❧❡ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ✭■❆●❈✮ ❞❡ ♣♦✉✈♦✐r ❛♥❛❧②s❡r ❡t ✐♥t❡r♣rét❡r ❞❡s ❞♦♥♥é❡s ❞✬❡①♣r❡ss✐♦♥ ❞❡ ♠✐❝r♦❆❘◆ ❡t ❞✬❆❘◆♠ ❞❛♥s ❧❡ ❝❛❞r❡ ❞❡ ❧❛ ré❣✉❧❛t✐♦♥ ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡ ❞❡s ❣è♥❡s✳✶✺✹ ❉✐s❝✉ss✐♦♥ ❡t ♣❡rs♣❡❝t✐✈❡s❇✐❜❧✐♦❣r❛♣❤✐❡ ❬✶❪ ❑✇❛♥❣✲■❧ ●♦❤✱ ▼✐❝❤❛❡❧ ❊ ❈✉s✐❝❦✱ ❉❛✈✐❞ ❱❛❧❧❡✱ ❇❛rt♦♥ ❈❤✐❧❞s✱ ▼❛r❝ ❱✐❞❛❧✱ ❛♥❞ ❆❧❜❡rt✲▲ás③❧ó ❇❛r❛❜ás✐✳ ❚❤❡ ❤✉♠❛♥ ❞✐s❡❛s❡ ♥❡t✇♦r❦✳ Pr♦❝❡❡❞✐♥❣s ♦❢ t❤❡ ◆❛t✐♦♥❛❧ ❆❝❛❞❡♠② ♦❢ ❙❝✐❡♥❝❡s ♦❢ t❤❡ ❯♥✐t❡❞ ❙t❛t❡s ♦❢ ❆♠❡r✐❝❛✱ ✶✵✹✭✷✶✮ ✿✽✻✽✺✕✾✵✱ ▼❛② ✷✵✵✼✳ ❬✷❪ ❋r❛♥ç♦✐s ❏❛❝♦❜✱ ❉ P❡rr✐♥✱ ❈ ❙❛♥❝❤❡③✱ ❛♥❞ ❏❛❝q✉❡s ▼♦♥♦❞✳ ▲✬♦♣ér♦♥ ✿ ❣r♦✉♣❡ ❞❡ ❣è♥❡s à ❡①♣r❡s✐♦♥ ❝♦♦r❞♦♥♥é❡ ♣❛r ✉♥ ♦♣ér❛t❡✉r ✳ ❈♦♠♣t❡s ❘❡♥❞✉s ❆❝❛❞❡♠✐❡ ❞❡s ❙❝✐❡♥❝❡s P❛r✐s✱ ✷✺✵ ✿✶✼✷✼✕✶✼✷✾ ❙❚ ✕ ▲✬♦♣ér♦♥ ✿ ❣r♦✉♣❡ ❞❡ ❣è♥❡s à ❡①♣r❡s✱ ✶✾✻✵✳ ❬✸❪ ❚r✉♠❛♥ P ❨♦✉♥❣✱ ▼❛✉r❡❡♥ ▲ ❙t❛♥t♦♥✱ ❛♥❞ ❈❛r♦❧✐♥❡ ❊ ❈❤r✐st✐❛♥✳ ❊✛❡❝ts ♦❢ ♥❛t✉r❛❧ ❛♥❞ s✐♠✉❧❛t❡❞ ❤❡r❜✐✈♦r② ♦♥ s♣✐♥❡ ❧❡♥❣t❤s ♦❢ ❆❝❛❝✐❛ ❞r❡♣❛♥♦❧♦❜✐✉♠ ✐♥ ❑❡♥②❛✳ ❖✐❦♦s✱ ✶✵✶ ✿✶✼✶✕✶✼✾✱ ✷✵✵✸✳ ❬✹❪ ❊ ●r❡❡♥❡✳ ❆ ❞✐❡t✲✐♥❞✉❝❡❞ ❞❡✈❡❧♦♣♠❡♥t❛❧ ♣♦❧②♠♦r♣❤✐s♠ ✐♥ ❛ ❝❛t❡r♣✐❧❧❛r✳ ❙❝✐❡♥❝❡ ✭◆❡✇ ❨♦r❦✱ ◆✳❨✳✮✱ ✷✹✸✭✹✽✾✶✮ ✿✻✹✸✕✻✱ ❋❡❜r✉❛r② ✶✾✽✾✳ ❬✺❪ ❏♦❤♥ ❉ ❍❛t❧❡✳ P❤②s✐♦❧♦❣② ✉♥❞❡r❧②✐♥❣ ♣❤❡♥♦t②♣✐❝ ♣❧❛st✐❝✐t② ❛♥❞ ♣♦❧②♣❤❡♥✐s♠s ✿ ✐♥tr♦❞✉❝t✐♦♥ t♦ t❤❡ s②♠♣♦s✐✉♠✳ ■♥t❡❣r❛t✐✈❡ ❛♥❞ ❝♦♠♣❛r❛t✐✈❡ ❜✐♦❧♦❣②✱ ✹✸✭✺✮ ✿✻✵✺✕✻✱ ◆♦✈❡♠❜❡r ✷✵✵✸✳ ❬✻❪ ❉❡♥✐s ❚❛❣✉✱ ❏♦❤♥ ❑ ❈♦❧❜♦✉r♥❡✱ ❛♥❞ ◆✐❝♦❧❛s ◆è❣r❡✳ ●❡♥♦♠✐❝ ❞❛t❛ ✐♥t❡❣r❛t✐♦♥ ❢♦r ❡❝♦❧♦❣✐❝❛❧ ❛♥❞ ❡✈♦❧✉t✐♦♥❛r② tr❛✐ts ✐♥ ♥♦♥✲♠♦❞❡❧ ♦r❣❛♥✐s♠s✳ ❇▼❈ ❣❡♥♦♠✐❝s✱ ✶✺✭✶✮ ✿✹✾✵✱ ❏❛♥✉❛r② ✷✵✶✹✳ ❬✼❪ ❘ ❈ ▲❡❡✱ ❘ ▲ ❋❡✐♥❜❛✉♠✱ ❛♥❞ ❱ ❆♠❜r♦s✳ ❚❤❡ ❈✳ ❡❧❡❣❛♥s ❤❡t❡r♦❝❤r♦♥✐❝ ❣❡♥❡ ❧✐♥✲✹ ❡♥❝♦❞❡s s♠❛❧❧ ❘◆❆s ✇✐t❤ ❛♥t✐s❡♥s❡ ❝♦♠♣❧❡♠❡♥t❛r✐t② t♦ ❧✐♥✲✶✹✳ ❈❡❧❧✱ ✼✺✭✺✮ ✿✽✹✸✕✺✹✱ ❉❡❝❡♠❜❡r ✶✾✾✸✳ ❬✽❪ ❇ ❲✐❣❤t♠❛♥✱ ■ ❍❛✱ ❛♥❞ ● ❘✉✈❦✉♥✳ P♦sttr❛♥s❝r✐♣t✐♦♥❛❧ r❡❣✉❧❛t✐♦♥ ♦❢ t❤❡ ❤❡t❡r♦✲ ❝❤r♦♥✐❝ ❣❡♥❡ ❧✐♥✲✶✹ ❜② ❧✐♥✲✹ ♠❡❞✐❛t❡s t❡♠♣♦r❛❧ ♣❛tt❡r♥ ❢♦r♠❛t✐♦♥ ✐♥ ❈✳ ❡❧❡❣❛♥s✳ ❈❡❧❧✱ ✼✺✭✺✮ ✿✽✺✺✕✻✷✱ ❉❡❝❡♠❜❡r ✶✾✾✸✳ ❬✾❪ ▼❛r✐❛ ■ ❆❧♠❡✐❞❛✱ ❘✉✐ ▼ ❘❡✐s✱ ❛♥❞ ●❡♦r❣❡ ❆ ❈❛❧✐♥✳ ▼✐❝r♦❘◆❆ ❤✐st♦r② ✿ ❞✐s❝♦✲ ✈❡r②✱ r❡❝❡♥t ❛♣♣❧✐❝❛t✐♦♥s✱ ❛♥❞ ♥❡①t ❢r♦♥t✐❡rs✳ ▼✉t❛t✐♦♥ r❡s❡❛r❝❤✱ ✼✶✼✭✶✲✷✮ ✿✶✕✽✱ ❉❡❝❡♠❜❡r ✷✵✶✶✳ ❬✶✵❪ ❇ ❏ ❘❡✐♥❤❛rt✱ ❋ ❏ ❙❧❛❝❦✱ ▼ ❇❛ss♦♥✱ ❆ ❊ P❛sq✉✐♥❡❧❧✐✱ ❏ ❈ ❇❡tt✐♥❣❡r✱ ❆ ❊ ❘♦✉❣✈✐❡✱ ❍ ❘ ❍♦r✈✐t③✱ ❛♥❞ ● ❘✉✈❦✉♥✳ ❚❤❡ ✷✶✲♥✉❝❧❡♦t✐❞❡ ❧❡t✲✼ ❘◆❆ r❡❣✉❧❛t❡s ❞❡✈❡❧♦♣✲ ♠❡♥t❛❧ t✐♠✐♥❣ ✐♥ ❈❛❡♥♦r❤❛❜❞✐t✐s ❡❧❡❣❛♥s✳ ◆❛t✉r❡✱ ✹✵✸✭✻✼✼✷✮ ✿✾✵✶✕✻✱ ❋❡❜r✉❛r② ✷✵✵✵✳ ❬✶✶❪ ❆ ❊ P❛sq✉✐♥❡❧❧✐✱ ❇ ❏ ❘❡✐♥❤❛rt✱ ❋ ❙❧❛❝❦✱ ▼ ◗ ▼❛rt✐♥❞❛❧❡✱ ▼ ■ ❑✉r♦❞❛✱ ❇ ▼❛❧❧❡r✱ ❉ ❈ ❍❛②✇❛r❞✱ ❊ ❊ ❇❛❧❧✱ ❇ ❉❡❣♥❛♥✱ P ▼ü❧❧❡r✱ ❏ ❙♣r✐♥❣✱ ❆ ❙r✐♥✐✈❛s❛♥✱ ▼ ❋✐s❤♠❛♥✱ ❏ ❋✐♥♥❡rt②✱ ❏ ❈♦r❜♦✱ ▼ ▲❡✈✐♥❡✱ P ▲❡❛❤②✱ ❊ ❉❛✈✐❞s♦♥✱ ❛♥❞ ● ❘✉✈❦✉♥✳ ❈♦♥s❡r✈❛t✐♦♥ ♦❢ t❤❡ s❡q✉❡♥❝❡ ❛♥❞ t❡♠♣♦r❛❧ ❡①♣r❡ss✐♦♥ ♦❢ ❧❡t✲✼ ❤❡t❡r♦❝❤r♦♥✐❝ r❡❣✉❧❛t♦r② ❘◆❆✳ ◆❛t✉r❡✱ ✹✵✽✭✻✽✵✽✮ ✿✽✻✕✾✱ ◆♦✈❡♠❜❡r ✷✵✵✵✳ ✶✺✺✶✺✻ ❇✐❜❧✐♦❣r❛♣❤✐❡ ❬✶✷❪ ▼ ▲❛❣♦s✲◗✉✐♥t❛♥❛✱ ❘ ❘❛✉❤✉t✱ ❲ ▲❡♥❞❡❝❦❡❧✱ ❛♥❞ ❚ ❚✉s❝❤❧✳ ■❞❡♥t✐✜❝❛t✐♦♥ ♦❢ ♥♦✈❡❧ ❣❡♥❡s ❝♦❞✐♥❣ ❢♦r s♠❛❧❧ ❡①♣r❡ss❡❞ ❘◆❆s✳ ❙❝✐❡♥❝❡ ✭◆❡✇ ❨♦r❦✱ ◆✳❨✳✮✱ ✷✾✹ ✿✽✺✸✕✽✺✽✱ ✷✵✵✶✳ ❬✶✸❪ ◆ ❈ ▲❛✉✱ ▲ P ▲✐♠✱ ❊ ● ❲❡✐♥st❡✐♥✱ ❛♥❞ ❉ P ❇❛rt❡❧✳ ❆♥ ❛❜✉♥❞❛♥t ❝❧❛ss ♦❢ t✐♥② ❘◆❆s ✇✐t❤ ♣r♦❜❛❜❧❡ r❡❣✉❧❛t♦r② r♦❧❡s ✐♥ ❈❛❡♥♦r❤❛❜❞✐t✐s ❡❧❡❣❛♥s✳ ❙❝✐❡♥❝❡ ✭◆❡✇ ❨♦r❦✱ ◆✳❨✳✮✱ ✷✾✹ ✿✽✺✽✕✽✻✷✱ ✷✵✵✶✳ ❬✶✹❪ ❘ ❈ ▲❡❡ ❛♥❞ ❱ ❆♠❜r♦s✳ ❆♥ ❡①t❡♥s✐✈❡ ❝❧❛ss ♦❢ s♠❛❧❧ ❘◆❆s ✐♥ ❈❛❡♥♦r❤❛❜❞✐t✐s ❡❧❡❣❛♥s✳ ❙❝✐❡♥❝❡ ✭◆❡✇ ❨♦r❦✱ ◆✳❨✳✮✱ ✷✾✹ ✿✽✻✷✕✽✻✹✱ ✷✵✵✶✳ ❬✶✺❪ ❚❤❡ ■♥t❡r♥❛t✐♦♥❛❧ ❆♣❤✐❞ ●❡♥♦♠✐❝s ❈♦♥s♦rt✐✉♠✳ ●❡♥♦♠❡ s❡q✉❡♥❝❡ ♦❢ t❤❡ ♣❡❛ ❛♣❤✐❞ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠✳ P▲♦❙ ❜✐♦❧♦❣②✱ ✽✭✷✮ ✿❡✶✵✵✵✸✶✸✱ ❋❡❜r✉❛r② ✷✵✶✵✳ ❬✶✻❪ ❉❛✈✐❞ P ❇❛rt❡❧✳ ▼✐❝r♦❘◆❆s ✿ t❛r❣❡t r❡❝♦❣♥✐t✐♦♥ ❛♥❞ r❡❣✉❧❛t♦r② ❢✉♥❝t✐♦♥s✳ ❈❡❧❧✱ ✶✸✻✭✷✮ ✿✷✶✺✕✸✸✱ ❏❛♥✉❛r② ✷✵✵✾✳ ❬✶✼❪ ❑❡✐r❛ ▲✉❝❛s ❛♥❞ ❆❧❡①❛♥❞❡r ❙ ❘❛✐❦❤❡❧✳ ■♥s❡❝t ♠✐❝r♦❘◆❆s ✿ ❜✐♦❣❡♥❡s✐s✱ ❡①♣r❡s✲ s✐♦♥ ♣r♦✜❧✐♥❣ ❛♥❞ ❜✐♦❧♦❣✐❝❛❧ ❢✉♥❝t✐♦♥s✳ ■♥s❡❝t ❜✐♦❝❤❡♠✐str② ❛♥❞ ♠♦❧❡❝✉❧❛r ❜✐♦❧♦❣②✱ ✹✸✭✶✮ ✿✷✹✕✸✽✱ ❏❛♥✉❛r② ✷✵✶✸✳ ❬✶✽❪ ◗✐♥❣❤✉❛ ❏✐❛♥❣✱ ❨❛❞♦♥❣ ❲❛♥❣✱ ❨❛♥❣②❛♥❣ ❍❛♦✱ ▲✐r❛♥ ❏✉❛♥✱ ▼✐♥❣①✐❛♥❣ ❚❡♥❣✱ ❳✐♥✲ ❥✉♥ ❩❤❛♥❣✱ ▼❡✐♠❡✐ ▲✐✱ ●✉♦❤✉❛ ❲❛♥❣✱ ❛♥❞ ❨✉♥❧♦♥❣ ▲✐✉✳ ♠✐❘✷❉✐s❡❛s❡ ✿ ❛ ♠❛♥✉❛❧❧② ❝✉r❛t❡❞ ❞❛t❛❜❛s❡ ❢♦r ♠✐❝r♦❘◆❆ ❞❡r❡❣✉❧❛t✐♦♥ ✐♥ ❤✉♠❛♥ ❞✐s❡❛s❡✳ ◆✉❝❧❡✐❝ ❛❝✐❞s r❡✲ s❡❛r❝❤✱ ✸✼✭❉❛t❛❜❛s❡ ✐ss✉❡✮ ✿❉✾✽✕✶✵✹✱ ❏❛♥✉❛r② ✷✵✵✾✳ ❬✶✾❪ ❙❛♠ ●r✐✣t❤s✲❏♦♥❡s✳ ❚❤❡ ♠✐❝r♦❘◆❆ ❘❡❣✐str②✳ ◆✉❝❧❡✐❝ ❛❝✐❞s r❡s❡❛r❝❤✱ ✸✷✭❉❛t❛❜❛s❡ ✐ss✉❡✮ ✿❉✶✵✾✕✶✶✱ ❏❛♥✉❛r② ✷✵✵✹✳ ❬✷✵❪ ❙❛♠ ●r✐✣t❤s✲❏♦♥❡s✱ ❘✉ss❡❧❧ ❏ ●r♦❝♦❝❦✱ ❙t✐❥♥ ✈❛♥ ❉♦♥❣❡♥✱ ❆❧❡① ❇❛t❡♠❛♥✱ ❛♥❞ ❆♥t♦♥ ❏ ❊♥r✐❣❤t✳ ♠✐❘❇❛s❡ ✿ ♠✐❝r♦❘◆❆ s❡q✉❡♥❝❡s✱ t❛r❣❡ts ❛♥❞ ❣❡♥❡ ♥♦♠❡♥❝❧❛t✉r❡✳ ◆✉❝❧❡✐❝ ❛❝✐❞s r❡s❡❛r❝❤✱ ✸✹✭❉❛t❛❜❛s❡ ✐ss✉❡✮ ✿❉✶✹✵✕✹✱ ❏❛♥✉❛r② ✷✵✵✻✳ ❬✷✶❪ ❙❛♠ ●r✐✣t❤s✲❏♦♥❡s✱ ❍❛r♣r❡❡t ❑❛✉r ❙❛✐♥✐✱ ❙t✐❥♥ ✈❛♥ ❉♦♥❣❡♥✱ ❛♥❞ ❆♥t♦♥ ❏ ❊♥r✐❣❤t✳ ♠✐❘❇❛s❡ ✿ t♦♦❧s ❢♦r ♠✐❝r♦❘◆❆ ❣❡♥♦♠✐❝s✳ ◆✉❝❧❡✐❝ ❛❝✐❞s r❡s❡❛r❝❤✱ ✸✻✭❉❛t❛❜❛s❡ ✐ss✉❡✮ ✿❉✶✺✹✕✽✱ ❏❛♥✉❛r② ✷✵✵✽✳ ❬✷✷❪ ❆♥❛ ❑♦③♦♠❛r❛ ❛♥❞ ❙❛♠ ●r✐✣t❤s✲❏♦♥❡s✳ ♠✐❘❇❛s❡ ✿ ✐♥t❡❣r❛t✐♥❣ ♠✐❝r♦❘◆❆ ❛♥✲ ♥♦t❛t✐♦♥ ❛♥❞ ❞❡❡♣✲s❡q✉❡♥❝✐♥❣ ❞❛t❛✳ ◆✉❝❧❡✐❝ ❛❝✐❞s r❡s❡❛r❝❤✱ ✸✾✭❉❛t❛❜❛s❡ ✐s✲ s✉❡✮ ✿❉✶✺✷✕✼✱ ❏❛♥✉❛r② ✷✵✶✶✳ ❬✷✸❪ ❆♥❛ ❑♦③♦♠❛r❛ ❛♥❞ ❙❛♠ ●r✐✣t❤s✲❏♦♥❡s✳ ♠✐r❜❛s❡ ✿ ❛♥♥♦t❛t✐♥❣ ❤✐❣❤ ❝♦♥✜❞❡♥❝❡ ♠✐❝r♦r♥❛s ✉s✐♥❣ ❞❡❡♣ s❡q✉❡♥❝✐♥❣ ❞❛t❛✳ ◆✉❝❧❡✐❝ ❆❝✐❞s ❘❡s❡❛r❝❤✱ ✹✷✭❉✶✮ ✿❉✻✽✕❉✼✸✱ ✷✵✶✹✳ ❬✷✹❪ ❈❧❛r✐ss❛ P ❈ ●♦♠❡s✱ ❏✐✲❍♦♦♥ ❈❤♦✱ ▲❡r♦② ❍♦♦❞✱ ❖❝tá✈✐♦ ▲ ❋r❛♥❝♦✱ ❘✐♥❛❧❞♦ ❲ P❡r❡✐r❛✱ ❛♥❞ ❑❛✐ ❲❛♥❣✳ ❆ ❘❡✈✐❡✇ ♦❢ ❈♦♠♣✉t❛t✐♦♥❛❧ ❚♦♦❧s ✐♥ ♠✐❝r♦❘◆❆ ❉✐s❝♦✈❡r②✳ ❋r♦♥t✐❡rs ✐♥ ❣❡♥❡t✐❝s✱ ✹ ✿✽✶✱ ❏❛♥✉❛r② ✷✵✶✸✳ ❬✷✺❪ ▼❛s❛❢✉♠✐ ◆♦③❛✇❛✱ ❙❛②❛❦❛ ▼✐✉r❛✱ ❛♥❞ ▼❛s❛t♦s❤✐ ◆❡✐✳ ❖r✐❣✐♥s ❛♥❞ ❡✈♦❧✉t✐♦♥ ♦❢ ♠✐❝r♦❘◆❆ ❣❡♥❡s ✐♥ ❉r♦s♦♣❤✐❧❛ s♣❡❝✐❡s✳ ●❡♥♦♠❡ ❜✐♦❧♦❣② ❛♥❞ ❡✈♦❧✉t✐♦♥✱ ✷ ✿✶✽✵✕✾✱ ❏❛♥✉❛r② ✷✵✶✵✳ ❬✷✻❪ ▼❛tt❤❡✇ ❆ ❙❛✉♥❞❡rs✱ ❍❛♥ ▲✐❛♥❣✱ ❛♥❞ ❲❡♥✲❍s✐✉♥❣ ▲✐✳ ❍✉♠❛♥ ♣♦❧②♠♦r♣❤✐s♠ ❛t ♠✐❝r♦❘◆❆s ❛♥❞ ♠✐❝r♦❘◆❆ t❛r❣❡t s✐t❡s✳ Pr♦❝❡❡❞✐♥❣s ♦❢ t❤❡ ◆❛t✐♦♥❛❧ ❆❝❛❞❡♠② ♦❢ ❙❝✐❡♥❝❡s ♦❢ t❤❡ ❯♥✐t❡❞ ❙t❛t❡s ♦❢ ❆♠❡r✐❝❛✱ ✶✵✹✭✾✮ ✿✸✸✵✵✕✺✱ ❋❡❜r✉❛r② ✷✵✵✼✳❇✐❜❧✐♦❣r❛♣❤✐❡ ✶✺✼ ❬✷✼❪ ❨♦♦♥t❛❡ ▲❡❡✱ ▼✐♥❥✉ ❑✐♠✱ ❏✐♥❥✉ ❍❛♥✱ ❑②✉✲❍②✉♥ ❨❡♦♠✱ ❙❛♥❣❤②✉❦ ▲❡❡✱ ❙✉♥❣ ❍❡❡ ❇❛❡❦✱ ❛♥❞ ❱ ◆❛rr② ❑✐♠✳ ▼✐❝r♦❘◆❆ ❣❡♥❡s ❛r❡ tr❛♥s❝r✐❜❡❞ ❜② ❘◆❆ ♣♦❧②♠❡r❛s❡ ■■✳ ❚❤❡ ❊▼❇❖ ❥♦✉r♥❛❧✱ ✷✸✭✷✵✮ ✿✹✵✺✶✕✻✵✱ ❖❝t♦❜❡r ✷✵✵✹✳ ❬✷✽❪ ❨✳ ▲❡❡✳ ▼✐❝r♦❘◆❆ ♠❛t✉r❛t✐♦♥ ✿ st❡♣✇✐s❡ ♣r♦❝❡ss✐♥❣ ❛♥❞ s✉❜❝❡❧❧✉❧❛r ❧♦❝❛❧✐③❛t✐♦♥✳ ❚❤❡ ❊▼❇❖ ❏♦✉r♥❛❧✱ ✷✶✭✶✼✮ ✿✹✻✻✸✕✹✻✼✵✱ ❙❡♣t❡♠❜❡r ✷✵✵✷✳ ❬✷✾❪ ❘✉✐ ❨✐✱ ❨✐ ◗✐♥✱ ■❛♥ ● ▼❛❝❛r❛✱ ❛♥❞ ❇r②❛♥ ❘ ❈✉❧❧❡♥✳ ❊①♣♦rt✐♥✲✺ ♠❡❞✐❛t❡s t❤❡ ♥✉❝❧❡❛r ❡①♣♦rt ♦❢ ♣r❡✲♠✐❝r♦❘◆❆s ❛♥❞ s❤♦rt ❤❛✐r♣✐♥ ❘◆❆s✳ ●❡♥❡s ✫ ❞❡✈❡❧♦♣♠❡♥t✱ ✶✼✭✷✹✮ ✿✸✵✶✶✕✻✱ ❉❡❝❡♠❜❡r ✷✵✵✸✳ ❬✸✵❪ ▼✐❝❤❡❧❡ ❚r❛❜✉❝❝❤✐✱ P❛♦❧❛ ❇r✐❛t❛✱ ▼❛r✐❛✢♦r ●❛r❝✐❛✲▼❛②♦r❛❧✱ ❆str✐❞ ❉ ❍❛❛s❡✱ ❲✐✲ t♦❧❞ ❋✐❧✐♣♦✇✐❝③✱ ❆♥❞r❡s ❘❛♠♦s✱ ❘♦❜❡rt♦ ●❤❡r③✐✱ ❛♥❞ ▼✐❝❤❛❡❧ ● ❘♦s❡♥❢❡❧❞✳ ❚❤❡ ❘◆❆✲❜✐♥❞✐♥❣ ♣r♦t❡✐♥ ❑❙❘P ♣r♦♠♦t❡s t❤❡ ❜✐♦❣❡♥❡s✐s ♦❢ ❛ s✉❜s❡t ♦❢ ♠✐❝r♦❘◆❆s✳ ◆❛t✉r❡✱ ✹✺✾✭✼✷✹✾✮ ✿✶✵✶✵✕✹✱ ❏✉♥❡ ✷✵✵✾✳ ❬✸✶❪ ❏✉❧✐❛ ❲✐♥t❡r✱ ❙t❡♣❤❛♥✐❡ ❏✉♥❣✱ ❙❛r✐♥❛ ❑❡❧❧❡r✱ ❘✐❝❤❛r❞ ■ ●r❡❣♦r②✱ ❛♥❞ ❙✈❡♥ ❉✐❡❞❡✲ r✐❝❤s✳ ▼❛♥② r♦❛❞s t♦ ♠❛t✉r✐t② ✿ ♠✐❝r♦❘◆❆ ❜✐♦❣❡♥❡s✐s ♣❛t❤✇❛②s ❛♥❞ t❤❡✐r r❡❣✉❧❛✲ t✐♦♥✳ ◆❛t✉r❡ ❝❡❧❧ ❜✐♦❧♦❣②✱ ✶✶✭✸✮ ✿✷✷✽✕✸✹✱ ▼❛r❝❤ ✷✵✵✾✳ ❬✸✷❪ ❆♥❣é❧✐q✉❡ ●✐r❛r❞✱ ❘❛✈✐ ❙❛❝❤✐❞❛♥❛♥❞❛♠✱ ●r❡❣♦r② ❏ ❍❛♥♥♦♥✱ ❛♥❞ ▼✐❝❤❡❧❧❡ ❆ ❈❛r✲ ♠❡❧❧✳ ❆ ❣❡r♠❧✐♥❡✲s♣❡❝✐✜❝ ❝❧❛ss ♦❢ s♠❛❧❧ ❘◆❆s ❜✐♥❞s ♠❛♠♠❛❧✐❛♥ P✐✇✐ ♣r♦t❡✐♥s✳ ◆❛t✉r❡✱ ✹✹✷✭✼✵✾✾✮ ✿✶✾✾✕✷✵✷✱ ❏✉❧② ✷✵✵✻✳ ❬✸✸❪ ❑❛ts✉t♦♠♦ ❖❦❛♠✉r❛✱ ◆❛ ▲✐✉✱ ❛♥❞ ❊r✐❝ ❈ ▲❛✐✳ ❉✐st✐♥❝t ♠❡❝❤❛♥✐s♠s ❢♦r ♠✐❝r♦❘◆❆ str❛♥❞ s❡❧❡❝t✐♦♥ ❜② ❉r♦s♦♣❤✐❧❛ ❆r❣♦♥❛✉t❡s✳ ▼♦❧❡❝✉❧❛r ❝❡❧❧✱ ✸✻✭✸✮ ✿✹✸✶✕✹✹✱ ◆♦✈❡♠✲ ❜❡r ✷✵✵✾✳ ❬✸✹❪ ❑❛ts✉t♦♠♦ ❖❦❛♠✉r❛✱ ▼✐❝❤❛❡❧ ❉ P❤✐❧❧✐♣s✱ ❉❛✈✐❞ ▼ ❚②❧❡r✱ ❍♦♥❣ ❉✉❛♥✱ ❨✉✲t✐♥❣ ❈❤♦✉✱ ❛♥❞ ❊r✐❝ ❈ ▲❛✐✳ ❚❤❡ r❡❣✉❧❛t♦r② ❛❝t✐✈✐t② ♦❢ ♠✐❝r♦❘◆❆✯ s♣❡❝✐❡s ❤❛s s✉❜st❛♥✲ t✐❛❧ ✐♥✢✉❡♥❝❡ ♦♥ ♠✐❝r♦❘◆❆ ❛♥❞ ✸✬ ❯❚❘ ❡✈♦❧✉t✐♦♥✳ ◆❛t✉r❡ str✉❝t✉r❛❧ ✫ ♠♦❧❡❝✉❧❛r ❜✐♦❧♦❣②✱ ✶✺✭✹✮ ✿✸✺✹✕✻✸✱ ❆♣r✐❧ ✷✵✵✽✳ ❬✸✺❪ ❏r✲❙❤✐✉❛♥ ❨❛♥❣✱ ▼✐❝❤❛❡❧ ❉ P❤✐❧❧✐♣s✱ ❉♦r♦♥ ❇❡t❡❧✱ P✐♥❣ ▼✉✱ ❆♥❞r❡❛ ❱❡♥t✉r❛✱ ❆❞❛♠ ❈ ❙✐❡♣❡❧✱ ❑❡✈✐♥ ❈ ❈❤❡♥✱ ❛♥❞ ❊r✐❝ ❈ ▲❛✐✳ ❲✐❞❡s♣r❡❛❞ r❡❣✉❧❛t♦r② ❛❝t✐✈✐t② ♦❢ ✈❡rt❡❜r❛t❡ ♠✐❝r♦❘◆❆✯ s♣❡❝✐❡s✳ ❘◆❆ ✭◆❡✇ ❨♦r❦✱ ◆✳❨✳✮✱ ✶✼✭✷✮ ✿✸✶✷✕✷✻✱ ❋❡❜r✉❛r② ✷✵✶✶✳ ❬✸✻❪ ❆♥t♦♥② ❘♦❞r✐❣✉❡③✱ ❙❛♠ ●r✐✣t❤s✲❏♦♥❡s✱ ❏❡♥♥✐❢❡r ▲ ❆s❤✉rst✱ ❛♥❞ ❆❧❧❛♥ ❇r❛❞❧❡②✳ ■❞❡♥t✐✜❝❛t✐♦♥ ♦❢ ♠❛♠♠❛❧✐❛♥ ♠✐❝r♦❘◆❆ ❤♦st ❣❡♥❡s ❛♥❞ tr❛♥s❝r✐♣t✐♦♥ ✉♥✐ts✳ ●❡✲ ♥♦♠❡ r❡s❡❛r❝❤✱ ✶✹✭✶✵❆✮ ✿✶✾✵✷✕✶✵✱ ❖❝t♦❜❡r ✷✵✵✹✳ ❬✸✼❪ ◆♦❛♠ ❙❤♦♠r♦♥ ❛♥❞ ❈❛r♠✐t ▲❡✈②✳ ▼✐❝r♦❘◆❆✲❜✐♦❣❡♥❡s✐s ❛♥❞ Pr❡✲♠❘◆❆ s♣❧✐❝✐♥❣ ❝r♦sst❛❧❦✳ ❏♦✉r♥❛❧ ♦❢ ❜✐♦♠❡❞✐❝✐♥❡ ✫ ❜✐♦t❡❝❤♥♦❧♦❣②✱ ✷✵✵✾ ✿✺✾✹✻✼✽✱ ❏❛♥✉❛r② ✷✵✵✾✳ ❬✸✽❪ ❍❡❧❡♥ ❏ ❈✉rt✐s✱ ❈❤r✐st♦♣❤❡r ❘ ❙✐❜❧❡②✱ ❛♥❞ ▼❛tt❤❡✇ ❏❆ ❲♦♦❞✳ ▼✐rtr♦♥s✱ ❛♥ ❡♠❡r✲ ❣✐♥❣ ❝❧❛ss ♦❢ ❛t②♣✐❝❛❧ ♠✐r♥❛✳ ❲✐❧❡② ■♥t❡r❞✐s❝✐♣❧✐♥❛r② ❘❡✈✐❡✇s ✿ ❘◆❆✱ ✸✭✺✮ ✿✻✶✼✕✻✸✷✱ ✷✵✶✷✳ ❬✸✾❪ ▼❛r✐❛♥t❤✐ ❑✐r✐❛❦✐❞♦✉✱ ●r❛❝❡ ❙ ❚❛♥✱ ❙t②❧✐❛♥✐ ▲❛♠♣r✐♥❛❦✐✱ ▼❛r✐❛♥❣❡❧s ❉❡ P❧❛♥❡❧❧✲ ❙❛❣✉❡r✱ P❡t❡r ❚ ◆❡❧s♦♥✱ ❛♥❞ ❩✐ss✐♠♦s ▼♦✉r❡❧❛t♦s✳ ❆♥ ♠❘◆❆ ♠✼● ❝❛♣ ❜✐♥❞✐♥❣✲ ❧✐❦❡ ♠♦t✐❢ ✇✐t❤✐♥ ❤✉♠❛♥ ❆❣♦✷ r❡♣r❡ss❡s tr❛♥s❧❛t✐♦♥✳ ❈❡❧❧✱ ✶✷✾✭✻✮ ✿✶✶✹✶✕✺✶✱ ❏✉♥❡ ✷✵✵✼✳ ❬✹✵❪ ■s❛❜❡❧❧❡ ❇❡❤♠✲❆♥s♠❛♥t✱ ❏❛♥ ❘❡❤✇✐♥❦❡❧✱ ❚♦❜✐❛s ❉♦❡r❦s✱ ❆❧❡①❛♥❞❡r ❙t❛r❦✱ P❡❡r ❇♦r❦✱ ❛♥❞ ❊❧✐s❛ ■③❛✉rr❛❧❞❡✳ ♠❘◆❆ ❞❡❣r❛❞❛t✐♦♥ ❜② ♠✐❘◆❆s ❛♥❞ ●❲✶✽✷ r❡q✉✐r❡s✶✺✽ ❇✐❜❧✐♦❣r❛♣❤✐❡ ❜♦t❤ ❈❈❘✹ ✿◆❖❚ ❞❡❛❞❡♥②❧❛s❡ ❛♥❞ ❉❈P✶ ✿❉❈P✷ ❞❡❝❛♣♣✐♥❣ ❝♦♠♣❧❡①❡s✳ ●❡♥❡s ✫ ❞❡✈❡❧♦♣♠❡♥t✱ ✷✵✭✶✹✮ ✿✶✽✽✺✕✾✽✱ ❏✉❧② ✷✵✵✻✳ ❬✹✶❪ ❙❡r❣❡❥ ❉❥✉r❛♥♦✈✐❝✱ ❆❧✐ ◆❛❤✈✐✱ ❛♥❞ ❘❛❝❤❡❧ ●r❡❡♥✳ ♠✐❘◆❆✲♠❡❞✐❛t❡❞ ❣❡♥❡ s✐❧❡♥❝✐♥❣ ❜② tr❛♥s❧❛t✐♦♥❛❧ r❡♣r❡ss✐♦♥ ❢♦❧❧♦✇❡❞ ❜② ♠❘◆❆ ❞❡❛❞❡♥②❧❛t✐♦♥ ❛♥❞ ❞❡❝❛②✳ ❙❝✐❡♥❝❡ ✭◆❡✇ ❨♦r❦✱ ◆✳❨✳✮✱ ✸✸✻✭✻✵✼✽✮ ✿✷✸✼✕✹✵✱ ❆♣r✐❧ ✷✵✶✷✳ ❬✹✷❪ På ❧ ❙❛❡tr♦♠✱ ❇r❡t ❙ ❊ ❍❡❛❧❡✱ ❖❧❛ ❙♥ø ✈❡✱ ▲❛rs ❆❛❣❛❛r❞✱ ❏❡ss✐❝❛ ❆❧❧✉✐♥✱ ❛♥❞ ❏♦❤♥ ❏ ❘♦ss✐✳ ❉✐st❛♥❝❡ ❝♦♥str❛✐♥ts ❜❡t✇❡❡♥ ♠✐❝r♦❘◆❆ t❛r❣❡t s✐t❡s ❞✐❝t❛t❡ ❡✣❝❛❝② ❛♥❞ ❝♦♦♣❡r❛t✐✈✐t②✳ ◆✉❝❧❡✐❝ ❛❝✐❞s r❡s❡❛r❝❤✱ ✸✺✭✼✮ ✿✷✸✸✸✕✹✷✱ ❏❛♥✉❛r② ✷✵✵✼✳ ❬✹✸❪ ❘❡❡♥❛ ❱✳ ❑❛rt❤❛ ❛♥❞ ❙✉❜❜❛②❛ ❙✉❜r❛♠❛♥✐❛♥✳ ❈♦♠♣❡t✐♥❣ ❡♥❞♦❣❡♥♦✉s ❘◆❆s ✭❝❡❘✲ ◆❆s✮ ✿ ♥❡✇ ❡♥tr❛♥ts t♦ t❤❡ ✐♥tr✐❝❛❝✐❡s ♦❢ ❣❡♥❡ r❡❣✉❧❛t✐♦♥✳ ❋r♦♥t✐❡rs ✐♥ ●❡♥❡t✐❝s✱ ✺ ✿✽✱ ❏❛♥✉❛r② ✷✵✶✹✳ ❬✹✹❪ ❘✐t✉♣❛r♥♦ ❙❡♥✱ ❙✉♠❛♥ ●❤♦s❛❧✱ ❙❤❛♦❧✐ ❉❛s✱ ❙✉❜r❛t❛ ❇❛❧t✐✱ ❛♥❞ ❏❛②♣r♦❦❛s ❈❤❛❦r❛✲ ❜❛rt✐✳ ❈♦♠♣❡t✐♥❣ ❡♥❞♦❣❡♥♦✉s ❘◆❆ ✿ t❤❡ ❦❡② t♦ ♣♦sttr❛♥s❝r✐♣t✐♦♥❛❧ r❡❣✉❧❛t✐♦♥✳ ❚❤❡❙❝✐❡♥t✐✜❝❲♦r❧❞❏♦✉r♥❛❧✱ ✷✵✶✹ ✿✽✾✻✷✵✻✱ ❏❛♥✉❛r② ✷✵✶✹✳ ❬✹✺❪ ❍❡r✈é ❙❡✐t③✳ ❘❡❞❡✜♥✐♥❣ ♠✐❝r♦❘◆❆ t❛r❣❡ts✳ ❈✉rr❡♥t ❜✐♦❧♦❣② ✿ ❈❇✱ ✶✾✭✶✵✮ ✿✽✼✵✕✸✱ ▼❛② ✷✵✵✾✳ ❬✹✻❪ ▲❡♦♥❛r❞♦ ❙❛❧♠❡♥❛✱ ▲❛✉r❛ P♦❧✐s❡♥♦✱ ❨✈♦♥♥❡ ❚❛②✱ ▲❡✈ ❑❛ts✱ ❛♥❞ P✐❡r P❛♦❧♦ P❛♥✲ ❞♦❧✜✳ ❆ ❝❡❘◆❆ ❤②♣♦t❤❡s✐s ✿ t❤❡ ❘♦s❡tt❛ ❙t♦♥❡ ♦❢ ❛ ❤✐❞❞❡♥ ❘◆❆ ❧❛♥❣✉❛❣❡ ❄ ❈❡❧❧✱ ✶✹✻✭✸✮ ✿✸✺✸✕✽✱ ❆✉❣✉st ✷✵✶✶✳ ❬✹✼❪ ❚ ▼ ❲✐t❦♦s✱ ❊ ❑♦s❝✐❛♥s❦❛✱ ❛♥❞ ❲ ❏ ❑r③②③♦s✐❛❦✳ Pr❛❝t✐❝❛❧ ❆s♣❡❝ts ♦❢ ♠✐❝r♦❘◆❆ ❚❛r❣❡t Pr❡❞✐❝t✐♦♥✳ ❈✉rr❡♥t ♠♦❧❡❝✉❧❛r ♠❡❞✐❝✐♥❡✱ ✶✶✭✷✮ ✿✾✸✕✶✵✾✱ ▼❛r❝❤ ✷✵✶✶✳ ❬✹✽❪ ❍❛♦ ❩❤❡♥❣✱ ❘♦♥❣❣✉♦ ❋✉✱ ❏✐♥✲❚❛♦ ❲❛♥❣✱ ◗✐♥②♦✉ ▲✐✉✱ ❍❛✐❜✐♥ ❈❤❡♥✱ ❛♥❞ ❙❤✐✲❲❡♥ ❏✐❛♥❣✳ ❆❞✈❛♥❝❡s ✐♥ t❤❡ ❚❡❝❤♥✐q✉❡s ❢♦r t❤❡ Pr❡❞✐❝t✐♦♥ ♦❢ ♠✐❝r♦❘◆❆ ❚❛r❣❡ts✳ ■♥✲ t❡r♥❛t✐♦♥❛❧ ❥♦✉r♥❛❧ ♦❢ ♠♦❧❡❝✉❧❛r s❝✐❡♥❝❡s✱ ✶✹✭✹✮ ✿✽✶✼✾✕✽✼✱ ❏❛♥✉❛r② ✷✵✶✸✳ ❬✹✾❪ ❙❛r❛❤ ▼ P❡t❡rs♦♥✱ ❏❡✛r❡② ❆ ❚❤♦♠♣s♦♥✱ ▼❡❧❛♥✐❡ ▲ ❯❢❦✐♥✱ Pr❛❞❡❡♣ ❙❛t❤②❛♥❛✲ r❛②❛♥❛✱ ▲✉❝② ▲✐❛✇✱ ❛♥❞ ❈❧❛r❡ ❇❛t❡s ❈♦♥❣❞♦♥✳ ❈♦♠♠♦♥ ❢❡❛t✉r❡s ♦❢ ♠✐❝r♦❘◆❆ t❛r❣❡t ♣r❡❞✐❝t✐♦♥ t♦♦❧s✳ ❋r♦♥t✐❡rs ✐♥ ❣❡♥❡t✐❝s✱ ✺ ✿✷✸✱ ❏❛♥✉❛r② ✷✵✶✹✳ ❬✺✵❪ ❑②❧❡ ❑❛✐✲❍♦✇ ❋❛r❤✱ ❆♥❞r❡✇ ●r✐♠s♦♥✱ ❈❛❧✈✐♥ ❏❛♥✱ ❇❡♥❥❛♠✐♥ P ▲❡✇✐s✱ ❲❡♥❞② ❑ ❏♦❤♥st♦♥✱ ▲❡❡ P ▲✐♠✱ ❈❤r✐st♦♣❤❡r ❇ ❇✉r❣❡✱ ❛♥❞ ❉❛✈✐❞ P ❇❛rt❡❧✳ ❚❤❡ ✇✐❞❡s♣r❡❛❞ ✐♠♣❛❝t ♦❢ ♠❛♠♠❛❧✐❛♥ ▼✐❝r♦❘◆❆s ♦♥ ♠❘◆❆ r❡♣r❡ss✐♦♥ ❛♥❞ ❡✈♦❧✉t✐♦♥✳ ❙❝✐❡♥❝❡ ✭◆❡✇ ❨♦r❦✱ ◆✳❨✳✮✱ ✸✶✵ ✿✶✽✶✼✕✶✽✷✶✱ ✷✵✵✺✳ ❬✺✶❪ ❆♥❞r❡✇ ●r✐♠s♦♥✱ ❑②❧❡ ❑❛✐✲❍♦✇ ❋❛r❤✱ ❲❡♥❞② ❑ ❏♦❤♥st♦♥✱ P❤✐❧✐♣ ●❛rr❡tt✲❊♥❣❡❧❡✱ ▲❡❡ P ▲✐♠✱ ❛♥❞ ❉❛✈✐❞ P ❇❛rt❡❧✳ ▼✐❝r♦r♥❛ t❛r❣❡t✐♥❣ s♣❡❝✐✜❝✐t② ✐♥ ♠❛♠♠❛❧s ✿ ❞❡t❡r♠✐♥❛♥ts ❜❡②♦♥❞ s❡❡❞ ♣❛✐r✐♥❣✳ ▼♦❧❡❝✉❧❛r ❝❡❧❧✱ ✷✼✭✶✮ ✿✾✶✕✶✵✺✱ ✷✵✵✼✳ ❬✺✷❪ ▼✐❝❤❛❡❧ ❑❡rt❡s③✱ ◆✐❝♦❧❛ ■♦✈✐♥♦✱ ❯❧r✐❝❤ ❯♥♥❡rst❛❧❧✱ ❯❧r✐❦❡ ●❛✉❧✱ ❛♥❞ ❊r❛♥ ❙❡❣❛❧✳ ❚❤❡ r♦❧❡ ♦❢ s✐t❡ ❛❝❝❡ss✐❜✐❧✐t② ✐♥ ♠✐❝r♦❘◆❆ t❛r❣❡t r❡❝♦❣♥✐t✐♦♥✳ ◆❛t✉r❡ ❣❡♥❡t✐❝s✱ ✸✾✭✶✵✮ ✿✶✷✼✽✕✽✹✱ ❖❝t♦❜❡r ✷✵✵✼✳ ❬✺✸❪ ❉♦r♦♥ ❇❡t❡❧✱ ❆♥❥❛❧✐ ❑♦♣♣❛❧✱ P❤❛❡❞r❛ ❆❣✐✉s✱ ❈❤r✐s ❙❛♥❞❡r✱ ❛♥❞ ❈❤r✐st✐♥❛ ▲❡s❧✐❡✳ ❈♦♠♣r❡❤❡♥s✐✈❡ ♠♦❞❡❧✐♥❣ ♦❢ ♠✐❝r♦❘◆❆ t❛r❣❡ts ♣r❡❞✐❝ts ❢✉♥❝t✐♦♥❛❧ ♥♦♥✲❝♦♥s❡r✈❡❞ ❛♥❞ ♥♦♥✲❝❛♥♦♥✐❝❛❧ s✐t❡s✳ ●❡♥♦♠❡ ❜✐♦❧♦❣②✱ ✶✶✭✽✮ ✿❘✾✵✱ ❏❛♥✉❛r② ✷✵✶✵✳ ❬✺✹❪ ▼❛rt✐♥ ❘❡❝③❦♦✱ ▼❛♥♦❧✐s ▼❛r❛❣❦❛❦✐s✱ P❛♥❛❣✐♦t✐s ❆❧❡①✐♦✉✱ ■✈♦ ●r♦ss❡✱ ❛♥❞ ❆rt❡✲ ♠✐s ● ❍❛t③✐❣❡♦r❣✐♦✉✳ ❋✉♥❝t✐♦♥❛❧ ♠✐❝r♦❘◆❆ t❛r❣❡ts ✐♥ ♣r♦t❡✐♥ ❝♦❞✐♥❣ s❡q✉❡♥❝❡s✳ ❇✐♦✐♥❢♦r♠❛t✐❝s ✭❖①❢♦r❞✱ ❊♥❣❧❛♥❞✮✱ ✷✽✭✻✮ ✿✼✼✶✕✻✱ ▼❛r❝❤ ✷✵✶✷✳❇✐❜❧✐♦❣r❛♣❤✐❡ ✶✺✾ ❬✺✺❪ ▼❛r✐❛ ❉ P❛r❛s❦❡✈♦♣♦✉❧♦✉✱ ●❡♦r❣✐♦s ●❡♦r❣❛❦✐❧❛s✱ ◆✐❦♦s ❑♦st♦✉❧❛s✱ ■♦❛♥♥✐s ❙ ❱❧❛✲ ❝❤♦s✱ ❚❤❛♥❛s✐s ❱❡r❣♦✉❧✐s✱ ▼❛rt✐♥ ❘❡❝③❦♦✱ ❈❤r✐st♦s ❋✐❧✐♣♣✐❞✐s✱ ❚❤❡♦❞♦r❡ ❉❛❧❛♠❛✲ ❣❛s✱ ❛♥❞ ❆ ● ❍❛t③✐❣❡♦r❣✐♦✉✳ ❉■❆◆❆✲♠✐❝r♦❚ ✇❡❜ s❡r✈❡r ✈✺✳✵ ✿ s❡r✈✐❝❡ ✐♥t❡❣r❛t✐♦♥ ✐♥t♦ ♠✐❘◆❆ ❢✉♥❝t✐♦♥❛❧ ❛♥❛❧②s✐s ✇♦r❦✢♦✇s✳ ◆✉❝❧❡✐❝ ❛❝✐❞s r❡s❡❛r❝❤✱ ✹✶✭❲❡❜ ❙❡r✈❡r ✐ss✉❡✮ ✿❲✶✻✾✕✼✸✱ ❏✉❧② ✷✵✶✸✳ ❬✺✻❪ ❙❤✐♣✐♥❣ ▲✐✉✱ ❙♦♥❣ ●❛♦✱ ❉❛♥②✉ ❩❤❛♥❣✱ ❏✐②✉♥ ❨✐♥✱ ❩❤♦♥❣❤✉❛✐ ❳✐❛♥❣✱ ❛♥❞ ◗✐♥❣②♦✉ ❳✐❛✳ ▼✐❝r♦❘◆❆s s❤♦✇ ❞✐✈❡rs❡ ❛♥❞ ❞②♥❛♠✐❝ ❡①♣r❡ss✐♦♥ ♣❛tt❡r♥s ✐♥ ♠✉❧t✐♣❧❡ t✐ss✉❡s ♦❢ ❇♦♠❜②① ♠♦r✐✳ ❇▼❈ ❣❡♥♦♠✐❝s✱ ✶✶✭✶✮ ✿✽✺✱ ❏❛♥✉❛r② ✷✵✶✵✳ ❬✺✼❪ ❆♥t♦♥ ❏ ❊♥r✐❣❤t✱ ❇✐♥♦ ❏♦❤♥✱ ❯❧r✐❦❡ ●❛✉❧✱ ❚❤♦♠❛s ❚✉s❝❤❧✱ ❈❤r✐s ❙❛♥❞❡r✱ ❛♥❞ ❉❡❜♦r❛ ❙ ▼❛r❦s✳ ▼✐❝r♦❘◆❆ t❛r❣❡ts ✐♥ ❉r♦s♦♣❤✐❧❛✳ ●❡♥♦♠❡ ❜✐♦❧♦❣②✱ ✺✭✶✮ ✿❘✶✱ ❏❛♥✉❛r② ✷✵✵✸✳ ❬✺✽❪ ❇❡♥❥❛♠✐♥ P ▲❡✇✐s✱ ❈❤r✐st♦♣❤❡r ❇ ❇✉r❣❡✱ ❛♥❞ ❉❛✈✐❞ P ❇❛rt❡❧✳ ❈♦♥s❡r✈❡❞ s❡❡❞ ♣❛✐r✐♥❣✱ ♦❢t❡♥ ✢❛♥❦❡❞ ❜② ❛❞❡♥♦s✐♥❡s✱ ✐♥❞✐❝❛t❡s t❤❛t t❤♦✉s❛♥❞s ♦❢ ❤✉♠❛♥ ❣❡♥❡s ❛r❡ ♠✐❝r♦❘◆❆ t❛r❣❡ts✳ ❈❡❧❧✱ ✶✷✵✭✶✮ ✿✶✺✕✷✵✱ ❏❛♥✉❛r② ✷✵✵✺✳ ❬✺✾❪ ▼❛r✐❛♥t❤✐ ❑✐r✐❛❦✐❞♦✉✱ P❡t❡r ❚ ◆❡❧s♦♥✱ ❆♥❞r❡✐ ❑♦✉r❛♥♦✈✱ P❡t❦♦ ❋✐t③✐❡✈✱ ❈♦✲ st❛s ❇♦✉②✐♦✉❦♦s✱ ❩✐ss✐♠♦s ▼♦✉r❡❧❛t♦s✱ ❛♥❞ ❆rt❡♠✐s ❍❛t③✐❣❡♦r❣✐♦✉✳ ❆ ❝♦♠❜✐♥❡❞ ❝♦♠♣✉t❛t✐♦♥❛❧✲❡①♣❡r✐♠❡♥t❛❧ ❛♣♣r♦❛❝❤ ♣r❡❞✐❝ts ❤✉♠❛♥ ♠✐❝r♦❘◆❆ t❛r❣❡ts✳ ●❡♥❡s ✫ ❞❡✈❡❧♦♣♠❡♥t✱ ✶✽✭✶✵✮ ✿✶✶✻✺✕✼✽✱ ▼❛② ✷✵✵✹✳ ❬✻✵❪ ❆③r❛ ❑r❡❦✱ ❉♦♠✐♥✐❝ ●rü♥✱ ▼❛tt❤❡✇ ◆ P♦②✱ ❘❛❝❤❡❧ ❲♦❧❢✱ ▲❛✉r❡♥ ❘♦s❡♥❜❡r❣✱ ❊r✐❝ ❏ ❊♣st❡✐♥✱ P❤✐❧✐♣ ▼❛❝▼❡♥❛♠✐♥✱ ■s❛❜❡❧❧❡ ❞❛ P✐❡❞❛❞❡✱ ❑r✐st✐♥ ❈ ●✉♥s❛❧✉s✱ ▼❛r❦✉s ❙t♦✛❡❧✱ ❛♥❞ ◆✐❦♦❧❛✉s ❘❛❥❡✇s❦②✳ ❈♦♠❜✐♥❛t♦r✐❛❧ ♠✐❝r♦❘◆❆ t❛r❣❡t ♣r❡❞✐❝t✐♦♥s✳ ◆❛t✉r❡ ❣❡♥❡t✐❝s✱ ✸✼ ✿✹✾✺✕✺✵✵✱ ✷✵✵✺✳ ❬✻✶❪ ❙❛❜❜✐ ▲❛❧❧✱ ❉♦♠✐♥✐❝ ●rü♥✱ ❆③r❛ ❑r❡❦✱ ❑❡✈✐♥ ❈❤❡♥✱ ❨✐ ▲✉ ❲❛♥❣✱ ❈♦❧✐♥ ◆✳ ❉❡✇❡②✱ Pr❛♥✐❞❤✐ ❙♦♦❞✱ ❚❡r❡s❛ ❈♦❧♦♠❜♦✱ ◆✐❝♦❧❛s ❇r❛②✱ P❤✐❧✐♣ ▼❛❝▼❡♥❛♠✐♥✱ ❍✉❡② ▲✐♥❣ ❑❛♦✱ ❑r✐st✐♥ ❈✳ ●✉♥s❛❧✉s✱ ▲✐♦r P❛❝❤t❡r✱ ❋❛❜✐♦ P✐❛♥♦✱ ❛♥❞ ◆✐❦♦❧❛✉s ❘❛❥❡✇s❦②✳ ❆ ❣❡♥♦♠❡✲✇✐❞❡ ♠❛♣ ♦❢ ❝♦♥s❡r✈❡❞ ▼✐❝r♦❘◆❆ t❛r❣❡ts ✐♥ ❈✳ ❡❧❡❣❛♥s✳ ❈✉rr❡♥t ❇✐♦❧♦❣②✱ ✶✻ ✿✹✻✵✕✹✼✶✱ ✷✵✵✻✳ ❬✻✷❪ ❑❡✈✐♥ ❈✳ ▼✐r❛♥❞❛✱ ❚✐❡♥ ❍✉②♥❤✱ ❨✈♦♥♥❡ ❚❛②✱ ❨❡♥ ❙✐♥ ❆♥❣✱ ❲❛✐ ▲❡♦♥❣ ❚❛♠✱ ❆♥❞r❡✇ ▼✳ ❚❤♦♠s♦♥✱ ❇✐♥❣ ▲✐♠✱ ❛♥❞ ■s✐❞♦r❡ ❘✐❣♦✉ts♦s✳ ❆ P❛tt❡r♥✲❇❛s❡❞ ▼❡✲ t❤♦❞ ❢♦r t❤❡ ■❞❡♥t✐✜❝❛t✐♦♥ ♦❢ ▼✐❝r♦❘◆❆ ❇✐♥❞✐♥❣ ❙✐t❡s ❛♥❞ ❚❤❡✐r ❈♦rr❡s♣♦♥❞✐♥❣ ❍❡t❡r♦❞✉♣❧❡①❡s✳ ❈❡❧❧✱ ✶✷✻ ✿✶✷✵✸✕✶✷✶✼✱ ✷✵✵✻✳ ❬✻✸❪ Pr❛✈❡❡♥ ❙❡t❤✉♣❛t❤②✱ ▼♦❧❧② ▼❡❣r❛✇✱ ❛♥❞ ❆rt❡♠✐s ● ❍❛t③✐❣❡♦r❣✐♦✉✳ ❆ ❣✉✐❞❡ t❤r♦✉❣❤ ♣r❡s❡♥t ❝♦♠♣✉t❛t✐♦♥❛❧ ❛♣♣r♦❛❝❤❡s ❢♦r t❤❡ ✐❞❡♥t✐✜❝❛t✐♦♥ ♦❢ ♠❛♠♠❛❧✐❛♥ ♠✐❝r♦❘◆❆ t❛r❣❡ts✳ ◆❛t✉r❡ ♠❡t❤♦❞s✱ ✸✭✶✶✮ ✿✽✽✶✕✻✱ ◆♦✈❡♠❜❡r ✷✵✵✻✳ ❬✻✹❪ Pr❛✈❡❡♥ ❙❡t❤✉♣❛t❤②✱ ❇❡♥♦✐t ❈♦r❞❛✱ ❛♥❞ ❆rt❡♠✐s ● ❍❛t③✐❣❡♦r❣✐♦✉✳ ❚❛r❇❛s❡ ✿ ❆ ❝♦♠♣r❡❤❡♥s✐✈❡ ❞❛t❛❜❛s❡ ♦❢ ❡①♣❡r✐♠❡♥t❛❧❧② s✉♣♣♦rt❡❞ ❛♥✐♠❛❧ ♠✐❝r♦❘◆❆ t❛r❣❡ts✳ ❘◆❆ ✭◆❡✇ ❨♦r❦✱ ◆✳❨✳✮✱ ✶✷✭✷✮ ✿✶✾✷✕✼✱ ❋❡❜r✉❛r② ✷✵✵✻✳ ❬✻✺❪ ❉❛❡❤②✉♥ ❇❛❡❦✱ ❏✉❞✐t ❱✐❧❧é♥✱ ❈❤❛♥s❡♦❦ ❙❤✐♥✱ ❋❡r♥❛♥❞♦ ❉ ❈❛♠❛r❣♦✱ ❙t❡✈❡♥ P ●②❣✐✱ ❛♥❞ ❉❛✈✐❞ P ❇❛rt❡❧✳ ❚❤❡ ✐♠♣❛❝t ♦❢ ♠✐❝r♦❘◆❆s ♦♥ ♣r♦t❡✐♥ ♦✉t♣✉t✳ ◆❛t✉r❡✱ ✹✺✺✭✼✷✵✾✮ ✿✻✹✕✼✶✱ ❙❡♣t❡♠❜❡r ✷✵✵✽✳ ❬✻✻❪ P❛♥❛❣✐♦t✐s ❆❧❡①✐♦✉✱ ▼❛♥♦❧✐s ▼❛r❛❣❦❛❦✐s✱ ●✐♦r❣♦s ▲ P❛♣❛❞♦♣♦✉❧♦s✱ ▼❛rt✐♥ ❘❡❝③❦♦✱ ❛♥❞ ❆rt❡♠✐s ● ❍❛t③✐❣❡♦r❣✐♦✉✳ ▲♦st ✐♥ tr❛♥s❧❛t✐♦♥ ✿ ❛♥ ❛ss❡ss♠❡♥t ❛♥❞ ♣❡rs♣❡❝✲ t✐✈❡ ❢♦r ❝♦♠♣✉t❛t✐♦♥❛❧ ♠✐❝r♦❘◆❆ t❛r❣❡t ✐❞❡♥t✐✜❝❛t✐♦♥✳ ❇✐♦✐♥❢♦r♠❛t✐❝s ✭❖①❢♦r❞✱ ❊♥❣❧❛♥❞✮✱ ✷✺✭✷✸✮ ✿✸✵✹✾✕✺✺✱ ❉❡❝❡♠❜❡r ✷✵✵✾✳✶✻✵ ❇✐❜❧✐♦❣r❛♣❤✐❡ ❬✻✼❪ ◗✐♥❣❤✉❛ ❈✉✐✱ ❩❤❡♥❜❛♦ ❨✉✱ ❊♥r✐❝♦ ❖ P✉r✐s✐♠❛✱ ❛♥❞ ❊❞✇✐♥ ❲❛♥❣✳ Pr✐♥❝✐♣❧❡s ♦❢ ♠✐❝r♦❘◆❆ r❡❣✉❧❛t✐♦♥ ♦❢ ❛ ❤✉♠❛♥ ❝❡❧❧✉❧❛r s✐❣♥❛❧✐♥❣ ♥❡t✇♦r❦✳ ▼♦❧❡❝✉❧❛r s②st❡♠s ❜✐♦❧♦❣②✱ ✷✭✶✮ ✿✹✻✱ ❏❛♥✉❛r② ✷✵✵✻✳ ❬✻✽❪ ❑❛♥❣ ❚✉✱ ❍✉✐ ❨✉✱ ❨♦✉✲❏✐❛ ❍✉❛✱ ❨✉❛♥✲❨✉❛♥ ▲✐✱ ▲❡✐ ▲✐✉✱ ▲✉ ❳✐❡✱ ❛♥❞ ❨✐✲❳✉❡ ▲✐✳ ❈♦♠❜✐♥❛t♦r✐❛❧ ♥❡t✇♦r❦ ♦❢ ♣r✐♠❛r② ❛♥❞ s❡❝♦♥❞❛r② ♠✐❝r♦❘◆❆✲❞r✐✈❡♥ r❡❣✉❧❛t♦r② ♠❡❝❤❛♥✐s♠s✳ ◆✉❝❧❡✐❝ ❛❝✐❞s r❡s❡❛r❝❤✱ ✸✼✭✶✽✮ ✿✺✾✻✾✕✽✵✱ ❖❝t♦❜❡r ✷✵✵✾✳ ❬✻✾❪ ❇✐♥❣ ▲✐✉✱ ❏✐✉②♦♥❣ ▲✐✱ ❛♥❞ ▼✉rr❛② ❏ ❈❛✐r♥s✳ ■❞❡♥t✐❢②✐♥❣ ♠✐❘◆❆s✱ t❛r❣❡ts ❛♥❞ ❢✉♥❝t✐♦♥s✳ ❇r✐❡✜♥❣s ✐♥ ❜✐♦✐♥❢♦r♠❛t✐❝s✱ ✶✺✭✶✮ ✿✶✕✶✾✱ ❏❛♥✉❛r② ✷✵✶✹✳ ❬✼✵❪ ❑❡♥♥❡t❤ ❇r②❛♥✱ ▼❛rt❛ ❚❡rr✐❧❡✱ ■s❛❜❡❧❧❛ ▼ ❇r❛②✱ ❘❛q✉❡❧ ❉♦♠✐♥❣♦✲❋❡r♥❛♥❞é③✱ ❑❛✲ r❡♥ ▼ ❲❛tt❡rs✱ ❏❛♥ ❑♦st❡r✱ ❘♦❣✐❡r ❱❡rst❡❡❣✱ ❛♥❞ ❘❛②♠♦♥❞ ▲ ❙t❛❧❧✐♥❣s✳ ❉✐s❝♦✈❡r② ❛♥❞ ✈✐s✉❛❧✐③❛t✐♦♥ ♦❢ ♠✐❘◆❆✲♠❘◆❆ ❢✉♥❝t✐♦♥❛❧ ♠♦❞✉❧❡s ✇✐t❤✐♥ ✐♥t❡❣r❛t❡❞ ❞❛t❛ ✉s✐♥❣ ❜✐❝❧✉st❡r ❛♥❛❧②s✐s✳ ◆✉❝❧❡✐❝ ❛❝✐❞s r❡s❡❛r❝❤✱ ✹✷✭✸✮ ✿❡✶✼✱ ❋❡❜r✉❛r② ✷✵✶✹✳ ❬✼✶❪ ●❆❊▲ ▲❊ ❚❘■❖◆◆❆■❘❊✱ ❱❆▲❊◆❚■◆ ❲❯❈❍❊❘✱ ❛♥❞ ❉❊◆■❙ ❚❆●❯✳ ●❡♥♦♠❡ ❡①♣r❡ss✐♦♥ ❝♦♥tr♦❧ ❞✉r✐♥❣ t❤❡ ♣❤♦t♦♣❡r✐♦❞✐❝ r❡s♣♦♥s❡ ♦❢ ❛♣❤✐❞s✳ P❤②s✐♦❧♦❣✐❝❛❧ ❊♥t♦♠♦❧♦❣②✱ ✸✽✭✷✮ ✿✶✶✼✕✶✷✺✱ ❏✉♥❡ ✷✵✶✸✳ ❬✼✷❪ ❈● ❙t❡❡❧ ❛♥❞ ❆❉ ▲❡❡s✳ ❚❤❡ r♦❧❡ ♦❢ ♥❡✉r♦s❡❝r❡t✐♦♥ ✐♥ t❤❡ ♣❤♦t♦♣❡r✐♦❞✐❝ ❝♦♥tr♦❧ ♦❢ ♣♦❧②♠♦r♣❤✐s♠ ✐♥ t❤❡ ❛♣❤✐❞ ▼❡❣♦✉r❛ ✈✐❝✐❛❡✳ ❏✳ ❊①♣✳ ❇✐♦❧✳✱ ✻✼✭✶✮ ✿✶✶✼✕✶✸✺✱ ❆♣r✐❧ ✶✾✼✼✳ ❬✼✸❪ ● ▲❡ ❚r✐♦♥♥❛✐r❡✱ ❋ ❋r❛♥❝✐s✱ ❙ ❏❛✉❜❡rt✲P♦ss❛♠❛✐✱ ❏ ❇♦♥❤♦♠♠❡✱ ❊ ❉❡ P❛✉✇✱ ❏✲P ●❛✉t❤✐❡r✱ ❊ ❍❛✉❜r✉❣❡✱ ❋ ▲❡❣❡❛✐✱ ◆ Pr✉♥✐❡r✲▲❡t❡r♠❡✱ ❏✲❈ ❙✐♠♦♥✱ ❙ ❚❛♥❣✉②✱ ❛♥❞ ❉ ❚❛❣✉✳ ❚r❛♥s❝r✐♣t♦♠✐❝ ❛♥❞ ♣r♦t❡♦♠✐❝ ❛♥❛❧②s❡s ♦❢ s❡❛s♦♥❛❧ ♣❤♦t♦♣❡r✐♦❞✐s♠ ✐♥ t❤❡ ♣❡❛ ❛♣❤✐❞✳ ❇▼❈ ❣❡♥♦♠✐❝s✱ ✶✵✭✶✮ ✿✹✺✻✱ ❏❛♥✉❛r② ✷✵✵✾✳ ❬✼✹❪ ❏ ❍✉②❜r❡❝❤ts✱ ❏ ❇♦♥❤♦♠♠❡✱ ❙ ▼✐♥♦❧✐✱ ◆ Pr✉♥✐❡r✲▲❡t❡r♠❡✱ ❆ ❉♦♠❜r♦✈s❦②✱ ▼ ❆❜❞❡❧✲▲❛t✐❡❢✱ ❆ ❘♦❜✐❝❤♦♥✱ ❏ ❆ ❱❡❡♥str❛✱ ❛♥❞ ❉ ❚❛❣✉✳ ◆❡✉r♦♣❡♣t✐❞❡ ❛♥❞ ♥❡✉✲ r♦❤♦r♠♦♥❡ ♣r❡❝✉rs♦rs ✐♥ t❤❡ ♣❡❛ ❛♣❤✐❞✱ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠✳ ■♥s❡❝t ♠♦❧❡❝✉❧❛r ❜✐♦❧♦❣②✱ ✶✾ ❙✉♣♣❧ ✷ ✿✽✼✕✾✺✱ ▼❛r❝❤ ✷✵✶✵✳ ❬✼✺❪ ❚❡rr② ❙✳ ❈♦r❜✐tt ❛♥❞ ❏✐♠ ❍❛r❞✐❡✳ ❏✉✈❡♥✐❧❡ ❤♦r♠♦♥❡ ❡✛❡❝ts ♦♥ ♣♦❧②♠♦r♣❤✐s♠ ✐♥ t❤❡ ♣❡❛ ❛♣❤✐❞✱ ❆ ❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠✳ ❊♥t♦♠♦❧♦❣✐❛ ❊①♣❡r✐♠❡♥t❛❧✐s ❡t ❆♣♣❧✐❝❛t❛✱ ✸✽✭✷✮ ✿✶✸✶✕✶✸✺✱ ❏✉❧② ✶✾✽✺✳ ❬✼✻❪ ❚♦r✉ ▼✐✉r❛✱ ❈❤r✐st✐❛♥ ❇r❛❡♥❞❧❡✱ ❆❧❡①❛♥❞❡r ❙❤✐♥❣❧❡t♦♥✱ ●❡♦✛r♦② ❙✐s❦✱ ❙r✐♥✐✈❛s ❑❛♠❜❤❛♠♣❛t✐✱ ❛♥❞ ❉❛✈✐❞ ▲ ❙t❡r♥✳ ❆ ❝♦♠♣❛r✐s♦♥ ♦❢ ♣❛rt❤❡♥♦❣❡♥❡t✐❝ ❛♥❞ s❡①✉❛❧ ❡♠❜r②♦❣❡♥❡s✐s ♦❢ t❤❡ ♣❡❛ ❛♣❤✐❞ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ✭❍❡♠✐♣t❡r❛ ✿ ❆♣❤✐❞♦✐❞❡❛✮✳ ❏♦✉r♥❛❧ ♦❢ ❡①♣❡r✐♠❡♥t❛❧ ③♦♦❧♦❣②✳ P❛rt ❇✱ ▼♦❧❡❝✉❧❛r ❛♥❞ ❞❡✈❡❧♦♣♠❡♥t❛❧ ❡✈♦❧✉t✐♦♥✱ ✷✾✺✭✶✮ ✿✺✾✕✽✶✱ ❋❡❜r✉❛r② ✷✵✵✸✳ ❬✼✼❪ ❆✉r♦r❡ ●❛❧❧♦t✱ ❙❤✉❥✐ ❙❤✐❣❡♥♦❜✉✱ ❚♦♠♦♠✐ ❍❛s❤✐②❛♠❛✱ ❙té♣❤❛♥✐❡ ❏❛✉❜❡rt✲ P♦ss❛♠❛✐✱ ❛♥❞ ❉❡♥✐s ❚❛❣✉✳ ❙❡①✉❛❧ ❛♥❞ ❛s❡①✉❛❧ ♦♦❣❡♥❡s✐s r❡q✉✐r❡ t❤❡ ❡①♣r❡ss✐♦♥ ♦❢ ✉♥✐q✉❡ ❛♥❞ s❤❛r❡❞ s❡ts ♦❢ ❣❡♥❡s ✐♥ t❤❡ ✐♥s❡❝t ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠✳ ❇▼❈ ❣❡♥♦♠✐❝s✱ ✶✸✭✶✮ ✿✼✻✱ ❏❛♥✉❛r② ✷✵✶✷✳ ❬✼✽❪ ❋ ▲❡❣❡❛✐✱ ❙ ❙❤✐❣❡♥♦❜✉✱ ❏✲P ●❛✉t❤✐❡r✱ ❏ ❈♦❧❜♦✉r♥❡✱ ❈ ❘✐s♣❡✱ ❖ ❈♦❧❧✐♥✱ ❙ ❘✐❝❤❛r❞s✱ ❆ ❈ ❈ ❲✐❧s♦♥✱ ❚ ▼✉r♣❤②✱ ❛♥❞ ❉ ❚❛❣✉✳ ❆♣❤✐❞❇❛s❡ ✿ ❛ ❝❡♥tr❛❧✐③❡❞ ❜✐♦✐♥❢♦r♠❛t✐❝ r❡s♦✉r❝❡ ❢♦r ❛♥♥♦t❛t✐♦♥ ♦❢ t❤❡ ♣❡❛ ❛♣❤✐❞ ❣❡♥♦♠❡✳ ■♥s❡❝t ♠♦❧❡❝✉❧❛r ❜✐♦❧♦❣②✱ ✶✾ ❙✉♣♣❧ ✷ ✿✺✕✶✷✱ ▼❛r❝❤ ✷✵✶✵✳ ❬✼✾❪ ❙té♣❤❛♥✐❡ ❏❛✉❜❡rt✲P♦ss❛♠❛✐✱ ❈❧❛✉❞❡ ❘✐s♣❡✱ ❙②❧✈✐❡ ❚❛♥❣✉②✱ ❑❛r❧ ●♦r❞♦♥✱ ❚❤♦♠❛s ❲❛❧s❤✱ ❖✇❛✐♥ ❊❞✇❛r❞s✱ ❛♥❞ ❉❡♥✐s ❚❛❣✉✳ ❊①♣❛♥s✐♦♥ ♦❢ t❤❡ ♠✐❘◆❆ ♣❛t❤✇❛② ✐♥❇✐❜❧✐♦❣r❛♣❤✐❡ ✶✻✶ t❤❡ ❤❡♠✐♣t❡r❛♥ ✐♥s❡❝t ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠✳ ▼♦❧❡❝✉❧❛r ❜✐♦❧♦❣② ❛♥❞ ❡✈♦❧✉t✐♦♥✱ ✷✼✭✺✮ ✿✾✼✾✕✽✼✱ ▼❛② ✷✵✶✵✳ ❬✽✵❪ ❇❡♥❥❛♠í♥ ❖rt✐③✲❘✐✈❛s✱ ❙té♣❤❛♥✐❡ ❏❛✉❜❡rt✲P♦ss❛♠❛✐✱ ❙②❧✈✐❡ ❚❛♥❣✉②✱ ❏❡❛♥✲P✐❡rr❡ ●❛✉t❤✐❡r✱ ❉❡♥✐s ❚❛❣✉✱ ❛♥❞ ❘✐s♣❡ ❈❧❛✉❞❡✳ ❊✈♦❧✉t✐♦♥❛r② st✉❞② ♦❢ ❞✉♣❧✐❝❛t✐♦♥s ♦❢ t❤❡ ♠✐❘◆❆ ♠❛❝❤✐♥❡r② ✐♥ ❛♣❤✐❞s ❛ss♦❝✐❛t❡❞ ✇✐t❤ str✐❦✐♥❣ r❛t❡ ❛❝❝❡❧❡r❛t✐♦♥ ❛♥❞ ❝❤❛♥❣❡s ✐♥ ❡①♣r❡ss✐♦♥ ♣r♦✜❧❡s✳ ❇▼❈ ❡✈♦❧✉t✐♦♥❛r② ❜✐♦❧♦❣②✱ ✶✷✭✶✮ ✿✷✶✻✱ ❏❛♥✉❛r② ✷✵✶✷✳ ❬✽✶❪ ❋❛❜r✐❝❡ ▲❡❣❡❛✐✱ ●✉✐❧❧❛✉♠❡ ❘✐③❦✱ ❚❤♦♠❛s ❲❛❧s❤✱ ❖✇❛✐♥ ❊❞✇❛r❞s✱ ❑❛r❧ ●♦r❞♦♥✱ ❉♦♠✐♥✐q✉❡ ▲❛✈❡♥✐❡r✱ ◆❛t❤❛❧✐❡ ▲❡t❡r♠❡✱ ❆❣♥ès ▼ér❡❛✉✱ ❏❛❝q✉❡s ◆✐❝♦❧❛s✱ ❉❡♥✐s ❚❛❣✉✱ ❛♥❞ ❙té♣❤❛♥✐❡ ❏❛✉❜❡rt✲P♦ss❛♠❛✐✳ ❇✐♦✐♥❢♦r♠❛t✐❝ ♣r❡❞✐❝t✐♦♥✱ ❞❡❡♣ s❡q✉❡♥❝✐♥❣ ♦❢ ♠✐❝r♦❘◆❆s ❛♥❞ ❡①♣r❡ss✐♦♥ ❛♥❛❧②s✐s ❞✉r✐♥❣ ♣❤❡♥♦t②♣✐❝ ♣❧❛st✐❝✐t② ✐♥ t❤❡ ♣❡❛ ❛♣❤✐❞✱ ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠✳ ❇▼❈ ❣❡♥♦♠✐❝s✱ ✶✶✭✶✮ ✿✷✽✶✱ ❏❛♥✉❛r② ✷✵✶✵✳ ❬✽✷❪ ▲♦r❡♥③♦ ❋ ❙❡♠♣❡r❡✱ ❊❞✇❛r❞ ❇ ❉✉❜r♦✈s❦②✱ ❱❡r♦♥✐❝❛ ❆ ❉✉❜r♦✈s❦❛②❛✱ ❊❞✇❛r❞ ▼ ❇❡r❣❡r✱ ❛♥❞ ❱✐❝t♦r ❆♠❜r♦s✳ ❚❤❡ ❡①♣r❡ss✐♦♥ ♦❢ t❤❡ ❧❡t✲✼ s♠❛❧❧ r❡❣✉❧❛t♦r② ❘◆❆ ✐s ❝♦♥tr♦❧❧❡❞ ❜② ❡❝❞②s♦♥❡ ❞✉r✐♥❣ ♠❡t❛♠♦r♣❤♦s✐s ✐♥ ❉r♦s♦♣❤✐❧❛ ♠❡❧❛♥♦❣❛st❡r✳ ❉❡✈❡✲ ❧♦♣♠❡♥t❛❧ ❜✐♦❧♦❣②✱ ✷✹✹ ✿✶✼✵✕✶✼✾✱ ✷✵✵✷✳ ❬✽✸❪ ❆✉r♦r❡ ●❛❧❧♦t✳ ▼é❝❛♥✐s♠❡ ♠♦❧é❝✉❧❛✐r❡s ❞❡ ❧❛ ❞✐✛ér❡♥t✐❛t✐♦♥ ❞✉ ♠♦❞❡ ❞❡ r❡♣r♦✲ ❞✉❝t✐♦♥ ❞✉ ♣✉❝❡r♦♥ ❞✉ ♣♦✐s ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ✿ ét✉❞❡ ❞❡s ré❣✉❧❛t✐♦♥ tr❛♥s❝r✐♣✲ t✐♦♥♥❡❧❧❡s ❡t ♣♦st✲tr❛♥s❝r✐♣t✐♦♥♥❡❧❧❡s✳ P❤❉ t❤❡s✐s✱ ❆❣r♦❝❛♠♣✉s ❖✉❡st ✲ ❯♥✐✈❡rs✐té ❡✉r♦♣é❡♥♥❡ ❞❡ ❇r❡t❛❣♥❡✱ ✷✵✶✶✳ ❬✽✹❪ ❇❡r♥❤❛r❞ ●❛♥t❡r ❛♥❞ ❈✳ ❲✐❧❧❡✱ ❘✉❞♦❧❢✴❚r❛♥s❧❛t♦r✲❋r❛♥③❦❡✳ ❋♦r♠❛❧ ❈♦♥❝❡♣t ❆♥❛✲ ❧②s✐s ✿ ▼❛t❤❡♠❛t✐❝❛❧ ❋♦✉♥❞❛t✐♦♥s✳ ❙♣r✐♥❣❡r✲❱❡r❧❛❣ ◆❡✇ ❨♦r❦✱ ■♥❝✳✱ ❉❡❝❡♠❜❡r ✶✾✾✼✳ ❬✽✺❪ ❙②❧✈❛✐♥ ❇❧❛❝❤♦♥✱ ❘✉❣❣❡r♦ ● P❡♥s❛✱ ❏éré♠② ❇❡ss♦♥✱ ❈é❧✐♥❡ ❘♦❜❛r❞❡t✱ ❏❡❛♥✲ ❋r❛♥ç♦✐s ❇♦✉❧✐❝❛✉t✱ ❛♥❞ ❖❧✐✈✐❡r ●❛♥❞r✐❧❧♦♥✳ ❈❧✉st❡r✐♥❣ ❢♦r♠❛❧ ❝♦♥❝❡♣ts t♦ ❞✐s✲ ❝♦✈❡r ❜✐♦❧♦❣✐❝❛❧❧② r❡❧❡✈❛♥t ❦♥♦✇❧❡❞❣❡ ❢r♦♠ ❣❡♥❡ ❡①♣r❡ss✐♦♥ ❞❛t❛✳ ■♥ s✐❧✐❝♦ ❜✐♦❧♦❣②✱ ✼✭✹✲✺✮ ✿✹✻✼✕✽✸✱ ❏❛♥✉❛r② ✷✵✵✼✳ ❬✽✻❪ ❱ ❈❤♦✐✱ ❨ ❍✉❛♥❣✱ ❱ ▲❛♠✱ ❉ P♦tt❡r✱ ❘ ▲❛✉❜❡♥❜❛❝❤❡r✱ ❛♥❞ ❑ ❉✉❝❛✳ ❯s✐♥❣ ❢♦r♠❛❧ ❝♦♥❝❡♣t ❛♥❛❧②s✐s ❢♦r ♠✐❝r♦❛rr❛② ❞❛t❛ ❝♦♠♣❛r✐s♦♥✳ ❏♦✉r♥❛❧ ♦❢ ❜✐♦✐♥❢♦r♠❛t✐❝s ❛♥❞ ❝♦♠♣✉t❛t✐♦♥❛❧ ❜✐♦❧♦❣②✱ ✻✭✶✮ ✿✻✺✕✼✺✱ ❋❡❜r✉❛r② ✷✵✵✽✳ ❬✽✼❪ ▼❡❤❞✐ ❑❛②t♦✉❡✱ ❙❡r❣❡✐ ❖✳ ❑✉③♥❡ts♦✈✱ ❆♠❡❞❡♦ ◆❛♣♦❧✐✱ ❛♥❞ ❙é❜❛st✐❡♥ ❉✉♣❧❡ss✐s✳ ▼✐♥✐♥❣ ❣❡♥❡ ❡①♣r❡ss✐♦♥ ❞❛t❛ ✇✐t❤ ♣❛tt❡r♥ str✉❝t✉r❡s ✐♥ ❢♦r♠❛❧ ❝♦♥❝❡♣t ❛♥❛❧②s✐s✳ ■♥❢♦r♠❛t✐♦♥ ❙❝✐❡♥❝❡s✱ ✶✽✶✭✶✵✮ ✿✶✾✽✾✕✷✵✵✶✱ ▼❛② ✷✵✶✶✳ ❬✽✽❪ ❆♥♥❛ ❍r✐st♦s❦♦✈❛✱ ❱❡s❡❧❦❛ ❇♦❡✈❛✱ ❛♥❞ ❊❧❡♥❛ ❚s✐♣♦r❦♦✈❛✳ ❆ ❢♦r♠❛❧ ❝♦♥❝❡♣t ❛♥❛✲ ❧②s✐s ❛♣♣r♦❛❝❤ t♦ ❝♦♥s❡♥s✉s ❝❧✉st❡r✐♥❣ ♦❢ ♠✉❧t✐✲❡①♣❡r✐♠❡♥t ❡①♣r❡ss✐♦♥ ❞❛t❛✳ ❇▼❈ ❜✐♦✐♥❢♦r♠❛t✐❝s✱ ✶✺✭✶✮ ✿✶✺✶✱ ❏❛♥✉❛r② ✷✵✶✹✳ ❬✽✾❪ ❏✉tt❛ ●❡❜❡rt✱ ❙✉s❛♥♥❡ ▼♦t❛♠❡♥②✱ ❯❧r✐❝❤ ❋❛✐❣❧❡✱ ❈❤r✐st✐❛♥ ❱ ❋♦rst✱ ❛♥❞ ❘❛✐♥❡r ❙❝❤r❛❞❡r✳ ■❞❡♥t✐❢②✐♥❣ ❣❡♥❡s ♦❢ ❣❡♥❡ r❡❣✉❧❛t♦r② ♥❡t✇♦r❦s ✉s✐♥❣ ❢♦r♠❛❧ ❝♦♥❝❡♣t ❛♥❛❧②s✐s✳ ❏♦✉r♥❛❧ ♦❢ ❝♦♠♣✉t❛t✐♦♥❛❧ ❜✐♦❧♦❣② ✿ ❛ ❥♦✉r♥❛❧ ♦❢ ❝♦♠♣✉t❛t✐♦♥❛❧ ♠♦❧❡❝✉❧❛r ❝❡❧❧ ❜✐♦❧♦❣②✱ ✶✺✭✷✮ ✿✶✽✺✕✾✹✱ ▼❛r❝❤ ✷✵✵✽✳ ❬✾✵❪ ❏♦❤❛♥♥❡s ❲♦❧❧❜♦❧❞✱ ❘❡✐♥❤❛r❞ ●✉t❤❦❡✱ ❛♥❞ ❇❡r♥❤❛r❞ ●❛♥t❡r✳ ❈♦♥str✉❝t✐♥❣ ❛ ❑♥♦✇❧❡❞❣❡ ❇❛s❡ ❢♦r ●❡♥❡ ❘❡❣✉❧❛t♦r② ❉②♥❛♠✐❝s ❜② ❋♦r♠❛❧ ❈♦♥❝❡♣t ❆♥❛❧②s✐s ▼❡✲ t❤♦❞s✳ ❑✳ ❍♦r✐♠♦t♦ ❡t ❛❧✳ ✭❊❞s✳✮ ✿ ❆❇ ✷✵✵✽✱ ▲◆❈❙ ✺✶✹✼✳ ❙♣r✐♥❣❡r✱ ❍❡✐❞❡❧❜❡r❣ ✷✵✵✽✱ ♣♣✳ ✷✸✵✲✷✹✹✱ ❏✉❧② ✷✵✵✽✳✶✻✷ ❇✐❜❧✐♦❣r❛♣❤✐❡ ❬✾✶❪ ❈❤✐tt❛ ❇❛r❛❧✳ ❑♥♦✇❧❡❞❣❡ ❘❡♣r❡s❡♥t❛t✐♦♥✱ ❘❡❛s♦♥✐♥❣✱ ❛♥❞ ❉❡❝❧❛r❛t✐✈❡ Pr♦❜❧❡♠ ❙♦❧✈✐♥❣✳ ❈❛♠❜r✐❞❣❡ ❯♥✐✈❡rs✐t② Pr❡ss✱ ❏❛♥✉❛r② ✷✵✵✸✳ ❬✾✷❪ ▼❛rt✐♥ ●❡❜s❡r✱ ❘♦❧❛♥❞ ❑❛♠✐♥s❦✐✱ ❇❡♥❥❛♠✐♥ ❑❛✉❢♠❛♥♥✱ ❛♥❞ ❚♦rst❡♥ ❙❝❤❛✉❜✳ ❆♥s✲ ✇❡r ❙❡t ❙♦❧✈✐♥❣ ✐♥ Pr❛❝t✐❝❡✳ ❙②♥t❤❡s✐s ▲❡❝t✉r❡s ♦♥ ❆rt✐✜❝✐❛❧ ■♥t❡❧❧✐❣❡♥❝❡ ❛♥❞ ▼❛✲ ❝❤✐♥❡ ▲❡❛r♥✐♥❣✱ ✻✭✸✮ ✿✶✕✷✸✽✱ ❉❡❝❡♠❜❡r ✷✵✶✷✳ ❬✾✸❪ ▼❛rt✐♥ ●❡❜s❡r✱ ❇❡♥❥❛♠✐♥ ❑❛✉❢♠❛♥♥✱ ❘♦❧❛♥❞ ❑❛♠✐♥s❦✐✱ ▼❛① ❖str♦✇s❦✐✱ ❚♦rst❡♥ ❙❝❤❛✉❜✱ ❛♥❞ ▼❛r✐✉s ❙❝❤♥❡✐❞❡r✳ P♦t❛ss❝♦ ✿ ❚❤❡ P♦ts❞❛♠ ❆♥s✇❡r ❙❡t ❙♦❧✈✐♥❣ ❈♦❧❧❡❝t✐♦♥✳ ❆■ ❈♦♠♠✉♥✐❝❛t✐♦♥s✱ ✷✹✭✷✮ ✿✶✵✼✕✶✷✹✱ ❆♣r✐❧ ✷✵✶✶✳ ❬✾✹❪ ▼❆❘❚■◆ ●❊❇❙❊❘✱ ❇❊◆❏❆▼■◆ ❑❆❯❋▼❆◆◆✱ ❛♥❞ ❚❖❘❙❚❊◆ ❙❈❍❆❯❇✳ ▼✉❧t✐✲t❤r❡❛❞❡❞ ❆❙P s♦❧✈✐♥❣ ✇✐t❤ ❝❧❛s♣✳ ❚❤❡♦r② ❛♥❞ Pr❛❝t✐❝❡ ♦❢ ▲♦❣✐❝ Pr♦❣r❛♠✲ ♠✐♥❣✱ ✶✷✭✹✲✺✮ ✿✺✷✺✕✺✹✺✱ ❙❡♣t❡♠❜❡r ✷✵✶✷✳ ❬✾✺❪ ❏❛✐♠❡ ❍✉❡rt❛✲❈❡♣❛s✱ ▼❛r✐♥❛ ▼❛r❝❡t✲❍♦✉❜❡♥✱ ▼✐❣✉❡❧ P✐❣♥❛t❡❧❧✐✱ ❆♥❞rés ▼♦②❛✱ ❛♥❞ ❚♦♥✐ ●❛❜❛❧❞ó♥✳ ❚❤❡ ♣❡❛ ❛♣❤✐❞ ♣❤②❧♦♠❡ ✿ ❛ ❝♦♠♣❧❡t❡ ❝❛t❛❧♦❣✉❡ ♦❢ ❡✈♦❧✉t✐♦♥❛r② ❤✐st♦r✐❡s ❛♥❞ ❛rt❤r♦♣♦❞ ♦rt❤♦❧♦❣② ❛♥❞ ♣❛r❛❧♦❣② r❡❧❛t✐♦♥s❤✐♣s ❢♦r ❛❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ❣❡♥❡s✳ ■♥s❡❝t ▼♦❧❡❝✉❧❛r ❇✐♦❧♦❣②✱ ✶✾✭s✷✮ ✿✶✸✕✷✶✱ ✷✵✶✵✳ ❬✾✻❪ ❏■▼ ❍❆❘❉■❊ ❛♥❞ ❆✳ ❉✳ ▲❊❊❙✳ ❚❤❡ ✐♥❞✉❝t✐♦♥ ♦❢ ♥♦r♠❛❧ ❛♥❞ t❡r❛t♦✐❞ ✈✐✈✐♣❛r❛❡ ❜② ❛ ❥✉✈❡♥✐❧❡ ❤♦r♠♦♥❡ ❛♥❞ ❦✐♥♦♣r❡♥❡ ✐♥ t✇♦ s♣❡❝✐❡s ♦❢ ❛♣❤✐❞s✳ P❤②s✐♦❧♦❣✐❝❛❧ ❊♥t♦♠♦❧♦❣②✱ ✶✵✭✶✮ ✿✻✺✕✼✹✱ ▼❛r❝❤ ✶✾✽✺✳ ❬✾✼❪ ❆♥❛ ❈♦♥❡s❛✱ ❙t❡❢❛♥ ●öt③✱ ❏✉❛♥ ▼✐❣✉❡❧ ●❛r❝í❛✲●ó♠❡③✱ ❏❛✈✐❡r ❚❡r♦❧✱ ▼❛♥✉❡❧ ❚❛❧ó♥✱ ❛♥❞ ▼♦♥ts❡rr❛t ❘♦❜❧❡s✳ ❇❧❛st✷●❖ ✿ ❛ ✉♥✐✈❡rs❛❧ t♦♦❧ ❢♦r ❛♥♥♦t❛t✐♦♥✱ ✈✐s✉❛❧✐③❛t✐♦♥ ❛♥❞ ❛♥❛❧②s✐s ✐♥ ❢✉♥❝t✐♦♥❛❧ ❣❡♥♦♠✐❝s r❡s❡❛r❝❤✳ ❇✐♦✐♥❢♦r♠❛t✐❝s ✭❖①❢♦r❞✱ ❊♥❣❧❛♥❞✮✱ ✷✶✭✶✽✮ ✿✸✻✼✹✕✻✱ ❙❡♣t❡♠❜❡r ✷✵✵✺✳ ❬✾✽❪ ❙t❡❢❛♥ ●öt③✱ ❏✉❛♥ ▼✐❣✉❡❧ ●❛r❝í❛✲●ó♠❡③✱ ❏❛✈✐❡r ❚❡r♦❧✱ ❚✐♠ ❉ ❲✐❧❧✐❛♠s✱ ❙❤✐✈❛✲ s❤❛♥❦❛r ❍ ◆❛❣❛r❛❥✱ ▼❛rí❛ ❏♦sé ◆✉❡❞❛✱ ▼♦♥ts❡rr❛t ❘♦❜❧❡s✱ ▼❛♥✉❡❧ ❚❛❧ó♥✱ ❏♦❛q✉í♥ ❉♦♣❛③♦✱ ❛♥❞ ❆♥❛ ❈♦♥❡s❛✳ ❍✐❣❤✲t❤r♦✉❣❤♣✉t ❢✉♥❝t✐♦♥❛❧ ❛♥♥♦t❛t✐♦♥ ❛♥❞ ❞❛t❛ ♠✐✲ ♥✐♥❣ ✇✐t❤ t❤❡ ❇❧❛st✷●❖ s✉✐t❡✳ ◆✉❝❧❡✐❝ ❛❝✐❞s r❡s❡❛r❝❤✱ ✸✻✭✶✵✮ ✿✸✹✷✵✕✸✺✱ ❏✉♥❡ ✷✵✵✽✳ ❬✾✾❪ ▼ ❆s❤❜✉r♥❡r✱ ❈ ❆ ❇❛❧❧✱ ❏ ❆ ❇❧❛❦❡✱ ❉ ❇♦tst❡✐♥✱ ❍ ❇✉t❧❡r✱ ❏ ▼ ❈❤❡rr②✱ ❆ P ❉❛✈✐s✱ ❑ ❉♦❧✐♥s❦✐✱ ❙ ❙ ❉✇✐❣❤t✱ ❏ ❚ ❊♣♣✐❣✱ ▼ ❆ ❍❛rr✐s✱ ❉ P ❍✐❧❧✱ ▲ ■ss❡❧✲❚❛r✈❡r✱ ❆ ❑❛s❛rs❦✐s✱ ❙ ▲❡✇✐s✱ ❏ ❈ ▼❛t❡s❡✱ ❏ ❊ ❘✐❝❤❛r❞s♦♥✱ ▼ ❘✐♥❣✇❛❧❞✱ ● ▼ ❘✉❜✐♥✱ ❛♥❞ ● ❙❤❡r❧♦❝❦✳ ●❡♥❡ ♦♥t♦❧♦❣② ✿ t♦♦❧ ❢♦r t❤❡ ✉♥✐✜❝❛t✐♦♥ ♦❢ ❜✐♦❧♦❣②✳ ❚❤❡ ●❡♥❡ ❖♥t♦❧♦❣② ❈♦♥s♦rt✐✉♠✳ ◆❛t✉r❡ ❣❡♥❡t✐❝s✱ ✷✺✭✶✮ ✿✷✺✕✾✱ ▼❛② ✷✵✵✵✳ ❬✶✵✵❪ ❙ ❋ ❆❧ts❝❤✉❧✱ ❲ ●✐s❤✱ ❲ ▼✐❧❧❡r✱ ❊ ❲ ▼②❡rs✱ ❛♥❞ ❉ ❏ ▲✐♣♠❛♥✳ ❇❛s✐❝ ❧♦❝❛❧ ❛❧✐❣♥♠❡♥t s❡❛r❝❤ t♦♦❧✳ ❏♦✉r♥❛❧ ♦❢ ♠♦❧❡❝✉❧❛r ❜✐♦❧♦❣②✱ ✷✶✺✭✸✮ ✿✹✵✸✕✶✵✱ ❖❝t♦❜❡r ✶✾✾✵✳ ❬✶✵✶❪ ◆✐❝♦❧❛ ❏ ▼✉❧❞❡r✱ ❘♦❧❢ ❆♣✇❡✐❧❡r✱ ❚❡r❡s❛ ❑ ❆tt✇♦♦❞✱ ❆♠♦s ❇❛✐r♦❝❤✱ ❆❧❡① ❇❛t❡✲ ♠❛♥✱ ❉❛✈✐❞ ❇✐♥♥s✱ P❡❡r ❇♦r❦✱ ❱✐r❣✐♥✐❡ ❇✉✐❧❧❛r❞✱ ▲♦r❡♥③♦ ❈❡r✉tt✐✱ ❘✐❝❤❛r❞ ❈♦✲ ♣❧❡②✱ ❊♠♠❛♥✉❡❧ ❈♦✉r❝❡❧❧❡✱ ❯❥❥✇❛❧ ❉❛s✱ ▲♦✉✐s❡ ❉❛✉❣❤❡rt②✱ ▼❛r❦ ❉✐❜❧❡②✱ ❘♦❜❡rt ❋✐♥♥✱ ❲♦❧❢❣❛♥❣ ❋❧❡✐s❝❤♠❛♥♥✱ ❏✉❧✐❛♥ ●♦✉❣❤✱ ❉❛♥✐❡❧ ❍❛❢t✱ ◆✐❝♦❧❛s ❍✉❧♦✱ ❙❛r❛❤ ❍✉♥t❡r✱ ❉❛♥✐❡❧ ❑❛❤♥✱ ❆❧❡①❛♥❞❡r ❑❛♥❛♣✐♥✱ ❆♥✐s❤ ❑❡❥❛r✐✇❛❧✱ ❆❧❜❡rt♦ ▲❛❜❛r❣❛✱ P❡tr❛ ❙ ▲❛♥❣❡♥❞✐❥❦✲●❡♥❡✈❛✉①✱ ❉❛✈✐❞ ▲♦♥s❞❛❧❡✱ ❘♦❞r✐❣♦ ▲♦♣❡③✱ ■✈✐❝❛ ▲❡t✉♥✐❝✱ ▼❛rt✐♥ ▼❛❞❡r❛✱ ❏♦❤♥ ▼❛s❧❡♥✱ ❈r❛✐❣ ▼❝❆♥✉❧❧❛✱ ❏❡♥♥✐❢❡r ▼❝❉♦✇❛❧❧✱ ❏❛✐♥❛ ▼✐str②✱ ❆❧❡① ▼✐t❝❤❡❧❧✱ ❆♥❛st❛s✐❛ ◆ ◆✐❦♦❧s❦❛②❛✱ ❙❛♥❞r❛ ❖r❝❤❛r❞✱ ❈❤r✐st✐♥❡ ❖r❡♥❣♦✱ ❘♦✲ ❜❡rt P❡tr②s③❛❦✱ ❏❡r❡♠② ❉ ❙❡❧❡♥❣✉t✱ ❈❤r✐st✐❛♥ ❏ ❆ ❙✐❣r✐st✱ P❛✉❧ ❉ ❚❤♦♠❛s✱ ❋r❛♥❝❦ ❱❛❧❡♥t✐♥✱ ❉❡r❡❦ ❲✐❧s♦♥✱ ❈❛t❤② ❍ ❲✉✱ ❛♥❞ ❈♦r✐♥ ❨❡❛ts✳ ◆❡✇ ❞❡✈❡❧♦♣♠❡♥ts ✐♥ t❤❡ ■♥t❡rPr♦ ❞❛t❛❜❛s❡✳ ◆✉❝❧❡✐❝ ❛❝✐❞s r❡s❡❛r❝❤✱ ✸✺✭❉❛t❛❜❛s❡ ✐ss✉❡✮ ✿❉✷✷✹✕✽✱ ❏❛♥✉❛r② ✷✵✵✼✳❇✐❜❧✐♦❣r❛♣❤✐❡ ✶✻✸ ❬✶✵✷❪ ❊✳ ▼✳ ❩❞♦❜♥♦✈ ❛♥❞ ❘✳ ❆♣✇❡✐❧❡r✳ ■♥t❡rPr♦❙❝❛♥ ✲ ❛♥ ✐♥t❡❣r❛t✐♦♥ ♣❧❛t❢♦r♠ ❢♦r t❤❡ s✐❣♥❛t✉r❡✲r❡❝♦❣♥✐t✐♦♥ ♠❡t❤♦❞s ✐♥ ■♥t❡rPr♦✳ ❇✐♦✐♥❢♦r♠❛t✐❝s✱ ✶✼✭✾✮ ✿✽✹✼✕✽✹✽✱ ❙❡♣t❡♠❜❡r ✷✵✵✶✳ ❬✶✵✸❪ ▼❛r❝ ❘ ❋r✐❡❞❧ä♥❞❡r✱ ❙❡❜❛st✐❛♥ ❉ ▼❛❝❦♦✇✐❛❦✱ ◆❛ ▲✐✱ ❲❡✐ ❈❤❡♥✱ ❛♥❞ ◆✐❦♦❧❛✉s ❘❛❥❡✇s❦②✳ ♠✐r❞❡❡♣✷ ❛❝❝✉r❛t❡❧② ✐❞❡♥t✐✜❡s ❦♥♦✇♥ ❛♥❞ ❤✉♥❞r❡❞s ♦❢ ♥♦✈❡❧ ♠✐❝r♦r♥❛ ❣❡♥❡s ✐♥ s❡✈❡♥ ❛♥✐♠❛❧ ❝❧❛❞❡s✳ ◆✉❝❧❡✐❝ ❛❝✐❞s r❡s❡❛r❝❤✱ ✹✵✭✶✮ ✿✸✼✕✺✷✱ ✷✵✶✷✳ ❬✶✵✹❪ ▼❛r❝ ❘ ❋r✐❡❞❧ä♥❞❡r✱ ❲❡✐ ❈❤❡♥✱ ❈❛t❤❡r✐♥❡ ❆❞❛♠✐❞✐✱ ❏♦♥❛s ▼❛❛s❦♦❧❛✱ ❘❛❧❢ ❊✐♥s♣❛✲ ♥✐❡r✱ ❙✐❣♥❡ ❑♥❡s♣❡❧✱ ❛♥❞ ◆✐❦♦❧❛✉s ❘❛❥❡✇s❦②✳ ❉✐s❝♦✈❡r✐♥❣ ♠✐❝r♦❘◆❆s ❢r♦♠ ❞❡❡♣ s❡q✉❡♥❝✐♥❣ ❞❛t❛ ✉s✐♥❣ ♠✐❘❉❡❡♣✳ ◆❛t✉r❡ ❜✐♦t❡❝❤♥♦❧♦❣②✱ ✷✻✭✹✮ ✿✹✵✼✕✶✺✱ ❆♣r✐❧ ✷✵✵✽✳ ❬✶✵✺❪ ■✳ ▲✳ ❍♦❢❛❝❦❡r✳ ❱✐❡♥♥❛ ❘◆❆ s❡❝♦♥❞❛r② str✉❝t✉r❡ s❡r✈❡r✳ ◆✉❝❧❡✐❝ ❆❝✐❞s ❘❡s❡❛r❝❤✱ ✸✶✭✶✸✮ ✿✸✹✷✾✕✸✹✸✶✱ ❏✉❧② ✷✵✵✸✳ ❬✶✵✻❪ ❊r✐❝ ❇♦♥♥❡t✱ ❏❛♥ ❲✉②ts✱ P✐❡rr❡ ❘♦✉③é✱ ❛♥❞ ❨✈❡s ❱❛♥ ❞❡ P❡❡r✳ ❊✈✐❞❡♥❝❡ t❤❛t ♠✐✲ ❝r♦❘◆❆ ♣r❡❝✉rs♦rs✱ ✉♥❧✐❦❡ ♦t❤❡r ♥♦♥✲❝♦❞✐♥❣ ❘◆❆s✱ ❤❛✈❡ ❧♦✇❡r ❢♦❧❞✐♥❣ ❢r❡❡ ❡♥❡r✲ ❣✐❡s t❤❛♥ r❛♥❞♦♠ s❡q✉❡♥❝❡s✳ ❇✐♦✐♥❢♦r♠❛t✐❝s ✭❖①❢♦r❞✱ ❊♥❣❧❛♥❞✮✱ ✷✵✭✶✼✮ ✿✷✾✶✶✕✼✱ ◆♦✈❡♠❜❡r ✷✵✵✹✳ ❬✶✵✼❪ ❆❛r♦♥ ❘✳ ◗✉✐♥❧❛♥ ❛♥❞ ■r❛ ▼✳ ❍❛❧❧✳ ❇❡❞t♦♦❧s ✿ ❛ ✢❡①✐❜❧❡ s✉✐t❡ ♦❢ ✉t✐❧✐t✐❡s ❢♦r ❝♦♠♣❛r✐♥❣ ❣❡♥♦♠✐❝ ❢❡❛t✉r❡s✳ ❇✐♦✐♥❢♦r♠❛t✐❝s✱ ✷✻✭✻✮ ✿✽✹✶✕✽✹✷✱ ✷✵✶✵✳ ❬✶✵✽❪ ❑✐♠ ❉ Pr✉✐tt✱ ●❛rt❤ ❘ ❇r♦✇♥✱ ❙✉s❛♥ ▼ ❍✐❛tt✱ ❋r❛♥ç♦✐s❡ ❚❤✐❜❛✉❞✲◆✐ss❡♥✱ ❆❧❡①❛♥✲ ❞❡r ❆st❛s❤②♥✱ ❖❧❣❛ ❊r♠♦❧❛❡✈❛✱ ❈❛t❤❡r✐♥❡ ▼ ❋❛rr❡❧❧✱ ❏❡♥♥✐❢❡r ❍❛rt✱ ▼❡❧✐ss❛ ❏ ▲❛♥✲ ❞r✉♠✱ ❑❡❧❧② ▼ ▼❝●❛r✈❡②✱ ▼✐❝❤❛❡❧ ❘ ▼✉r♣❤②✱ ◆✉❛❧❛ ❆ ❖✬▲❡❛r②✱ ❙❤❛s❤✐❦❛♥t P✉❥❛r✱ ❇❤❛♥✉ ❘❛❥♣✉t✱ ❙❛♥❥✐❞❛ ❍ ❘❛♥❣✇❛❧❛✱ ▲✐❧❧✐❛♥ ❉ ❘✐❞❞✐❝❦✱ ❆♥❞r❡✐ ❙❤❦❡❞❛✱ ❍❛♥③❤❡♥ ❙✉♥✱ P❛♠❡❧❛ ❚❛♠❡③✱ ❘❛②♠♦♥❞ ❊ ❚✉❧❧②✱ ❈r❛✐❣ ❲❛❧❧✐♥✱ ❉❛✈✐❞ ❲❡❜❜✱ ❏❛♥❡t ❲❡❜❡r✱ ❲❡♥❞② ❲✉✱ ▼✐❝❤❛❡❧ ❉✐❈✉❝❝✐♦✱ P❛✉❧ ❑✐tts✱ ❉♦♥♥❛ ❘ ▼❛❣❧♦tt✱ ❚❡r❡♥❝❡ ❉ ▼✉r♣❤②✱ ❛♥❞ ❏❛♠❡s ▼ ❖st❡❧❧✳ ❘❡❢❙❡q ✿ ❛♥ ✉♣❞❛t❡ ♦♥ ♠❛♠♠❛❧✐❛♥ r❡❢❡r❡♥❝❡ s❡q✉❡♥❝❡s✳ ◆✉❝❧❡✐❝ ❛❝✐❞s r❡s❡❛r❝❤✱ ✹✷✭❉❛t❛❜❛s❡ ✐ss✉❡✮ ✿❉✼✺✻✕✻✸✱ ❏❛♥✉❛r② ✷✵✶✹✳ ❬✶✵✾❪ ❏❛✐♠❡ ❍✉❡rt❛✲❈❡♣❛s✱ ❙❛❧✈❛❞♦r ❈❛♣❡❧❧❛✲●✉t✐érr❡③✱ ▲❡s③❡❦ P Pr②s③❝③✱ ▼❛r✐♥❛ ▼❛r❝❡t✲❍♦✉❜❡♥✱ ❛♥❞ ❚♦♥✐ ●❛❜❛❧❞ó♥✳ P❤②❧♦♠❡❉❇ ✈✹ ✿ ③♦♦♠✐♥❣ ✐♥t♦ t❤❡ ♣❧✉✲ r❛❧✐t② ♦❢ ❡✈♦❧✉t✐♦♥❛r② ❤✐st♦r✐❡s ♦❢ ❛ ❣❡♥♦♠❡✳ ◆✉❝❧❡✐❝ ❛❝✐❞s r❡s❡❛r❝❤✱ ✹✷✭❉❛t❛❜❛s❡ ✐ss✉❡✮ ✿❉✽✾✼✕✾✵✷✱ ❏❛♥✉❛r② ✷✵✶✹✳ ❬✶✶✵❪ ❙✉s❛♥ ❊ ❙t P✐❡rr❡✱ ▲❛✉r❛ P♦♥t✐♥❣✱ ❘❛②♠✉♥❞ ❙t❡❢❛♥❝s✐❦✱ ❛♥❞ P❡t❡r ▼❝◗✉✐❧t♦♥✳ ❋❧②❇❛s❡ ✶✵✷✕❛❞✈❛♥❝❡❞ ❛♣♣r♦❛❝❤❡s t♦ ✐♥t❡rr♦❣❛t✐♥❣ ❋❧②❇❛s❡✳ ◆✉❝❧❡✐❝ ❛❝✐❞s r❡✲ s❡❛r❝❤✱ ✹✷✭❉❛t❛❜❛s❡ ✐ss✉❡✮ ✿❉✼✽✵✕✽✱ ❏❛♥✉❛r② ✷✵✶✹✳ ❬✶✶✶❪ ▼✐❝❤❡❧ ❏ ❲❡❜❡r✳ ◆❡✇ ❤✉♠❛♥ ❛♥❞ ♠♦✉s❡ ♠✐❝r♦❘◆❆ ❣❡♥❡s ❢♦✉♥❞ ❜② ❤♦♠♦❧♦❣② s❡❛r❝❤✳ ❚❤❡ ❋❊❇❙ ❥♦✉r♥❛❧✱ ✷✼✷✭✶✮ ✿✺✾✕✼✸✱ ❏❛♥✉❛r② ✷✵✵✺✳ ❬✶✶✷❪ ❊✉❣❡♥❡ ❇❡r❡③✐❦♦✈✱ ◆✐❝♦❧❛s ❘♦❜✐♥❡✱ ❆♥❛st❛s✐❛ ❙❛♠s♦♥♦✈❛✱ ❏❛❦✉❜ ❖ ❲❡st❤♦❧♠✱ ❆♠♠❛r ◆❛q✈✐✱ ❏✉✐✲❍✉♥❣ ❍✉♥❣✱ ❑❛ts✉t♦♠♦ ❖❦❛♠✉r❛✱ ◗✐ ❉❛✐✱ ❉✐❛♥❡ ❇♦rt♦❧❛♠✐♦❧✲ ❇❡❝❡t✱ ❘❛q✉❡❧ ▼❛rt✐♥✱ ❨♦♥❣❥✉♥ ❩❤❛♦✱ P❤✐❧❧✐♣ ❉ ❩❛♠♦r❡✱ ●r❡❣♦r② ❏ ❍❛♥♥♦♥✱ ▼❛r❝♦ ❆ ▼❛rr❛✱ ❩❤✐♣✐♥❣ ❲❡♥❣✱ ◆♦r❜❡rt P❡rr✐♠♦♥✱ ❛♥❞ ❊r✐❝ ❈ ▲❛✐✳ ❉❡❡♣ ❛♥♥♦t❛✲ t✐♦♥ ♦❢ ❉r♦s♦♣❤✐❧❛ ♠❡❧❛♥♦❣❛st❡r ♠✐❝r♦❘◆❆s ②✐❡❧❞s ✐♥s✐❣❤ts ✐♥t♦ t❤❡✐r ♣r♦❝❡ss✐♥❣✱ ♠♦❞✐✜❝❛t✐♦♥✱ ❛♥❞ ❡♠❡r❣❡♥❝❡✳ ●❡♥♦♠❡ r❡s❡❛r❝❤✱ ✷✶✭✷✮ ✿✷✵✸✕✶✺✱ ❋❡❜r✉❛r② ✷✵✶✶✳ ❬✶✶✸❪ ❏♦s✉❡ ▼♦✉r❛ ❘♦♠❛♦✱ ❲❡✐✇✉ ❏✐♥✱ ▼❛♦❧♦♥❣ ❍❡✱ ❚✐♠ ▼❝❆❧❧✐st❡r✱ ❛♥❞ ▲❡ ▲✉♦ ●✉❛♥✳ ▼✐❝r♦❘◆❆s ✐♥ ❜♦✈✐♥❡ ❛❞✐♣♦❣❡♥❡s✐s ✿ ❣❡♥♦♠✐❝ ❝♦♥t❡①t✱ ❡①♣r❡ss✐♦♥ ❛♥❞ ❢✉♥❝t✐♦♥✳ ❇▼❈ ❣❡♥♦♠✐❝s✱ ✶✺✭✶✮ ✿✶✸✼✱ ❏❛♥✉❛r② ✷✵✶✹✳✶✻✹ ❇✐❜❧✐♦❣r❛♣❤✐❡ ❬✶✶✹❪ ❆♥❞r❡❛ ❚❛♥③❡r ❛♥❞ P❡t❡r ❋ ❙t❛❞❧❡r✳ ▼♦❧❡❝✉❧❛r ❊✈♦❧✉t✐♦♥ ♦❢ ❛ ▼✐❝r♦❘◆❆ ❈❧✉st❡r✳ ❏♦✉r♥❛❧ ♦❢ ▼♦❧❡❝✉❧❛r ❇✐♦❧♦❣②✱ ✸✸✾✭✷✮ ✿✸✷✼✕✸✸✺✱ ✷✵✵✹✳ ❬✶✶✺❪ ❆♥t♦♥✐♦ ▼❛r❝♦✱ ▼❛r✐❛ ◆✐♥♦✈❛✱ ❛♥❞ ❙❛♠ ●r✐✣t❤s✲❏♦♥❡s✳ ▼✉❧t✐♣❧❡ ♣r♦❞✉❝ts ❢r♦♠ ♠✐❝r♦❘◆❆ tr❛♥s❝r✐♣ts✳ ❇✐♦❝❤❡♠✐❝❛❧ ❙♦❝✐❡t② tr❛♥s❛❝t✐♦♥s✱ ✹✶✭✹✮ ✿✽✺✵✕✹✱ ❆✉❣✉st ✷✵✶✸✳ ❬✶✶✻❪ ▼✐❝❤❛❡❧ ❏ ❆①t❡❧❧✱ ❏❛❦✉❜ ❖ ❲❡st❤♦❧♠✱ ❛♥❞ ❊r✐❝ ❈ ▲❛✐✳ ❱✐✈❡ ❧❛ ❞✐✛ér❡♥❝❡ ✿ ❜✐♦❣❡♥❡✲ s✐s ❛♥❞ ❡✈♦❧✉t✐♦♥ ♦❢ ♠✐❝r♦❘◆❆s ✐♥ ♣❧❛♥ts ❛♥❞ ❛♥✐♠❛❧s✳ ●❡♥♦♠❡ ❜✐♦❧♦❣②✱ ✶✷✭✹✮ ✿✷✷✶✱ ❏❛♥✉❛r② ✷✵✶✶✳ ❬✶✶✼❪ ❏ ❉ ❚❤♦♠♣s♦♥✱ ❉ ● ❍✐❣❣✐♥s✱ ❛♥❞ ❚ ❏ ●✐❜s♦♥✳ ❈▲❯❙❚❆▲ ❲ ✿ ✐♠♣r♦✈✐♥❣ t❤❡ s❡♥s✐t✐✈✐t② ♦❢ ♣r♦❣r❡ss✐✈❡ ♠✉❧t✐♣❧❡ s❡q✉❡♥❝❡ ❛❧✐❣♥♠❡♥t t❤r♦✉❣❤ s❡q✉❡♥❝❡ ✇❡✐❣❤t✐♥❣✱ ♣♦s✐t✐♦♥✲s♣❡❝✐✜❝ ❣❛♣ ♣❡♥❛❧t✐❡s ❛♥❞ ✇❡✐❣❤t ♠❛tr✐① ❝❤♦✐❝❡✳ ◆✉❝❧❡✐❝ ❛❝✐❞s r❡s❡❛r❝❤✱ ✷✷✭✷✷✮ ✿✹✻✼✸✕✽✵✱ ◆♦✈❡♠❜❡r ✶✾✾✹✳ ❬✶✶✽❪ ▼ ❆ ▲❛r❦✐♥✱ ● ❇❧❛❝❦s❤✐❡❧❞s✱ ◆ P ❇r♦✇♥✱ ❘ ❈❤❡♥♥❛✱ P ❆ ▼❝●❡tt✐❣❛♥✱ ❍ ▼❝✲ ❲✐❧❧✐❛♠✱ ❋ ❱❛❧❡♥t✐♥✱ ■ ▼ ❲❛❧❧❛❝❡✱ ❆ ❲✐❧♠✱ ❘ ▲♦♣❡③✱ ❏ ❉ ❚❤♦♠♣s♦♥✱ ❚ ❏ ●✐❜s♦♥✱ ❛♥❞ ❉ ● ❍✐❣❣✐♥s✳ ❈❧✉st❛❧ ❲ ❛♥❞ ❈❧✉st❛❧ ❳ ✈❡rs✐♦♥ ✷✳✵✳ ❇✐♦✐♥❢♦r♠❛t✐❝s ✭❖①❢♦r❞✱ ❊♥❣❧❛♥❞✮✱ ✷✸✭✷✶✮ ✿✷✾✹✼✕✽✱ ◆♦✈❡♠❜❡r ✷✵✵✼✳ ❬✶✶✾❪ ❊✳ ❇❡✐t③✳ ❚❡❳s❤❛❞❡ ✿ s❤❛❞✐♥❣ ❛♥❞ ❧❛❜❡❧✐♥❣ ♦❢ ♠✉❧t✐♣❧❡ s❡q✉❡♥❝❡ ❛❧✐❣♥♠❡♥ts ✉s✐♥❣ ▲❛❚❡❳✷❡✳ ❇✐♦✐♥❢♦r♠❛t✐❝s✱ ✶✻✭✷✮ ✿✶✸✺✕✶✸✾✱ ❋❡❜r✉❛r② ✷✵✵✵✳ ❬✶✷✵❪ P❛✉❧ ❏❛❝❝❛r❞✳ ➱t✉❞❡ ❝♦♠♣❛r❛t✐✈❡ ❞❡ ❧❛ ❞✐str✐❜✉t✐♦♥ ✢♦r❛❧❡ ❞❛♥s ✉♥❡ ♣♦rt✐♦♥ ❞❡s ❆❧♣❡s ❡t ❞✉ ❏✉r❛✳ ❇✉❧❧❡t✐♥ ❞❡ ❧❛ ❙♦❝✐été ❱❛✉❞♦✐s❡ ❞❡s ❙❝✐❡♥❝❡s ◆❛t✉r❡❧❧❡s✱ ✸✼ ✿✺✹✼✕ ✺✼✾✱ ✶✾✵✶✳ ❬✶✷✶❪ ❲✐❧❧✐❛♠ ❘✐t❝❤✐❡✱ ❙t❡♣❤❛♥❡ ❋❧❛♠❛♥t✱ ❛♥❞ ❏♦❤♥ ❊ ❏ ❘❛s❦♦✳ Pr❡❞✐❝t✐♥❣ ♠✐❝r♦❘◆❆ t❛r❣❡ts ❛♥❞ ❢✉♥❝t✐♦♥s ✿ tr❛♣s ❢♦r t❤❡ ✉♥✇❛r②✳ ◆❛t✉r❡ ♠❡t❤♦❞s✱ ✻✭✻✮ ✿✸✾✼✕✽✱ ❏✉♥❡ ✷✵✵✾✳ ❬✶✷✷❪ ❨❛❤♦♥❣ ❳✉✱ ❙❤✉♥✇❡♥ ▲✉♦✱ ❨❛♥❣ ▲✐✉✱ ❏✐❛♥ ▲✐✱ ❨✐ ▲✉✱ ❩❤✐❣❛♥❣ ❏✐❛✱ ◗✐❤✉❛ ❩❤❛♦✱ ❳✐❛♦♣✐♥❣ ▼❛✱ ▼✐♥❣❤✉✐ ❨❛♥❣✱ ❨✉❡ ❩❤❛♦✱ P✐♥❣ ❈❤❡♥✱ ❛♥❞ ❨✉ ●✉♦✳ ■♥t❡❣r❛t❡❞ ❣❡♥❡ ♥❡t✇♦r❦ ❛♥❛❧②s✐s ❛♥❞ t❡①t ♠✐♥✐♥❣ r❡✈❡❛❧✐♥❣ P■❑✸❘✶ r❡❣✉❧❛t❡❞ ❜② ♠✐❘✲✶✷✼ ✐♥ ❤✉♠❛♥ ❜❧❛❞❞❡r ❝❛♥❝❡r✳ ❊✉r♦♣❡❛♥ ❥♦✉r♥❛❧ ♦❢ ♠❡❞✐❝❛❧ r❡s❡❛r❝❤✱ ✶✽✭✶✮ ✿✷✾✱ ❏❛♥✉❛r② ✷✵✶✸✳ ❬✶✷✸❪ ▲✐❛♥✲❏✐❡ ▲✐♥✱ ❨❛♥ ▲✐♥✱ ❨✉ ❏✐♥✱ ❛♥❞ ❈❤❛♥❣✲◗✐♥❣ ❩❤❡♥❣✳ ■♥✈❡st✐❣❛t✐♦♥ ♦❢ ❦❡② ♠✐✲ ❝r♦❘◆❆s ❛ss♦❝✐❛t❡❞ ✇✐t❤ ❤❡♣❛t♦❝❡❧❧✉❧❛r ❝❛r❝✐♥♦♠❛ ✉s✐♥❣ s♠❛❧❧ ❘◆❆✲s❡q ❞❛t❛✳ ▼♦❧❡❝✉❧❛r ❜✐♦❧♦❣② r❡♣♦rts✱ ▼❛r❝❤ ✷✵✶✹✳ ❬✶✷✹❪ ▼❛r❦ ❉ ❘♦❜✐♥s♦♥ ❛♥❞ ●♦r❞♦♥ ❑ ❙♠②t❤✳ ▼♦❞❡r❛t❡❞ st❛t✐st✐❝❛❧ t❡sts ❢♦r ❛ss❡ss✐♥❣ ❞✐✛❡r❡♥❝❡s ✐♥ t❛❣ ❛❜✉♥❞❛♥❝❡✳ ❇✐♦✐♥❢♦r♠❛t✐❝s ✭❖①❢♦r❞✱ ❊♥❣❧❛♥❞✮✱ ✷✸✭✷✶✮ ✿✷✽✽✶✕✼✱ ◆♦✈❡♠❜❡r ✷✵✵✼✳ ❬✶✷✺❪ ▼❛r❦ ❉ ❘♦❜✐♥s♦♥ ❛♥❞ ●♦r❞♦♥ ❑ ❙♠②t❤✳ ❙♠❛❧❧✲s❛♠♣❧❡ ❡st✐♠❛t✐♦♥ ♦❢ ♥❡❣❛t✐✈❡ ❜✐♥♦♠✐❛❧ ❞✐s♣❡rs✐♦♥✱ ✇✐t❤ ❛♣♣❧✐❝❛t✐♦♥s t♦ ❙❆●❊ ❞❛t❛✳ ❇✐♦st❛t✐st✐❝s ✭❖①❢♦r❞✱ ❊♥✲ ❣❧❛♥❞✮✱ ✾✭✷✮ ✿✸✷✶✕✸✷✱ ❆♣r✐❧ ✷✵✵✽✳ ❬✶✷✻❪ ▼❛r❦ ❉ ❘♦❜✐♥s♦♥✱ ❉❛✈✐s ❏ ▼❝❈❛rt❤②✱ ❛♥❞ ●♦r❞♦♥ ❑ ❙♠②t❤✳ ❡❞❣❡❘ ✿ ❛ ❇✐♦❝♦♥✲ ❞✉❝t♦r ♣❛❝❦❛❣❡ ❢♦r ❞✐✛❡r❡♥t✐❛❧ ❡①♣r❡ss✐♦♥ ❛♥❛❧②s✐s ♦❢ ❞✐❣✐t❛❧ ❣❡♥❡ ❡①♣r❡ss✐♦♥ ❞❛t❛✳ ❇✐♦✐♥❢♦r♠❛t✐❝s ✭❖①❢♦r❞✱ ❊♥❣❧❛♥❞✮✱ ✷✻✭✶✮ ✿✶✸✾✕✹✵✱ ❏❛♥✉❛r② ✷✵✶✵✳ ❬✶✷✼❪ ❉❛✈✐s ❏ ▼❝❈❛rt❤②✱ ❨✉♥s❤✉♥ ❈❤❡♥✱ ❛♥❞ ●♦r❞♦♥ ❑ ❙♠②t❤✳ ❉✐✛❡r❡♥t✐❛❧ ❡①♣r❡ss✐♦♥ ❛♥❛❧②s✐s ♦❢ ♠✉❧t✐❢❛❝t♦r ❘◆❆✲❙❡q ❡①♣❡r✐♠❡♥ts ✇✐t❤ r❡s♣❡❝t t♦ ❜✐♦❧♦❣✐❝❛❧ ✈❛r✐❛t✐♦♥✳ ◆✉❝❧❡✐❝ ❛❝✐❞s r❡s❡❛r❝❤✱ ✹✵✭✶✵✮ ✿✹✷✽✽✕✾✼✱ ▼❛② ✷✵✶✷✳❇✐❜❧✐♦❣r❛♣❤✐❡ ✶✻✺ ❬✶✷✽❪ ❘ ❈♦r❡ ❚❡❛♠✳ ❘ ✿ ❆ ▲❛♥❣✉❛❣❡ ❛♥❞ ❊♥✈✐r♦♥♠❡♥t ❢♦r ❙t❛t✐st✐❝❛❧ ❈♦♠♣✉t✐♥❣✳ ❘ ❋♦✉♥❞❛t✐♦♥ ❢♦r ❙t❛t✐st✐❝❛❧ ❈♦♠♣✉t✐♥❣✱ ❱✐❡♥♥❛✱ ❆✉str✐❛✱ ✷✵✶✷✳ ■❙❇◆ ✸✲✾✵✵✵✺✶✲✵✼✲ ✵✳ ❬✶✷✾❪ ▼❛r❦ ❉ ❘♦❜✐♥s♦♥ ❛♥❞ ❆❧✐❝✐❛ ❖s❤❧❛❝❦✳ ❆ s❝❛❧✐♥❣ ♥♦r♠❛❧✐③❛t✐♦♥ ♠❡t❤♦❞ ❢♦r ❞✐✛❡✲ r❡♥t✐❛❧ ❡①♣r❡ss✐♦♥ ❛♥❛❧②s✐s ♦❢ ❘◆❆✲s❡q ❞❛t❛✳ ●❡♥♦♠❡ ❜✐♦❧♦❣②✱ ✶✶✭✸✮ ✿❘✷✺✱ ❏❛♥✉❛r② ✷✵✶✵✳ ❬✶✸✵❪ ❨♦❛✈ ❇❡♥❥❛♠✐♥✐ ❛♥❞ ❨♦s❡❢ ❍♦❝❤❜❡r❣✳ ❈♦♥tr♦❧❧✐♥❣ t❤❡ ❋❛❧s❡ ❉✐s❝♦✈❡r② ❘❛t❡ ✿ ❆ Pr❛❝t✐❝❛❧ ❛♥❞ P♦✇❡r❢✉❧ ❆♣♣r♦❛❝❤ t♦ ▼✉❧t✐♣❧❡ ❚❡st✐♥❣✳ ❏♦✉r♥❛❧ ♦❢ t❤❡ ❘♦②❛❧ ❙t❛t✐st✐❝❛❧ ❙♦❝✐❡t②✳ ❙❡r✐❡s ❇ ✭▼❡t❤♦❞♦❧♦❣✐❝❛❧✮✱ ✺✼✭✶✮ ✿✷✽✾ ✕ ✸✵✵✱ ✶✾✾✺✳ ❬✶✸✶❪ ❋r❛♥ ❙✉♣❡❦✱ ▼❛t❦♦ ❇♦➨♥❥❛❦✱ ◆✐✈❡s ➆❦✉♥❝❛✱ ❛♥❞ ❚♦♠✐s❧❛✈ ➆♠✉❝✳ ❘❡✈✐❣♦ s✉♠♠❛✲ r✐③❡s ❛♥❞ ✈✐s✉❛❧✐③❡s ❧♦♥❣ ❧✐sts ♦❢ ❣❡♥❡ ♦♥t♦❧♦❣② t❡r♠s✳ P▲♦❙ ❖◆❊✱ ✻✱ ✷✵✶✶✳ ❬✶✸✷❪ ❆♥❞r❡❛s ❙❝❤❧✐❝❦❡r✱ ❋r❛♥❝✐s❝♦ ❙ ❉♦♠✐♥❣✉❡s✱ ❏ör❣ ❘❛❤♥❡♥❢ü❤r❡r✱ ❛♥❞ ❚❤♦♠❛s ▲❡♥✲ ❣❛✉❡r✳ ❆ ♥❡✇ ♠❡❛s✉r❡ ❢♦r ❢✉♥❝t✐♦♥❛❧ s✐♠✐❧❛r✐t② ♦❢ ❣❡♥❡ ♣r♦❞✉❝ts ❜❛s❡❞ ♦♥ ●❡♥❡ ❖♥t♦❧♦❣②✳ ❇▼❈ ❜✐♦✐♥❢♦r♠❛t✐❝s✱ ✼✭✶✮ ✿✸✵✷✱ ❏❛♥✉❛r② ✷✵✵✻✳ ❬✶✸✸❪ ❏✐❛♥❤❛♦ ❏✐❛♥❣✱ ❳✐❡ ●❡✱ ❩❤✐q✐❛♥ ▲✐✱ ❨✉❡q✐❛♥❣ ❲❛♥❣✱ ◗✐s❤❡♥❣ ❙♦♥❣✱ ❉❛✈✐❞ ❲ ❙t❛♥✲ ❧❡②✱ ❆♥❥✐❛♥❣ ❚❛♥✱ ❛♥❞ ❨♦♥❣♣✐♥❣ ❍✉❛♥❣✳ ▼✐❝r♦❘◆❆✲✷✽✶ r❡❣✉❧❛t❡s t❤❡ ❡①♣r❡ss✐♦♥ ♦❢ ❡❝❞②s♦♥❡ r❡❝❡♣t♦r ✭❊❝❘✮ ✐s♦❢♦r♠ ❇ ✐♥ t❤❡ s✐❧❦✇♦r♠✱ ❇♦♠❜②① ♠♦r✐✳ ■♥s❡❝t ❜✐♦❝❤❡♠✐str② ❛♥❞ ♠♦❧❡❝✉❧❛r ❜✐♦❧♦❣②✱ ✹✸✭✽✮ ✿✻✾✷✕✼✵✵✱ ❆✉❣✉st ✷✵✶✸✳ ❬✶✸✹❪ ❱❛❧ér✐❡ ❍✐❧❣❡rs✱ ◆❛t❛s❝❤❛ ❇✉s❤❛t✐✱ ❛♥❞ ❙t❡♣❤❡♥ ▼✳ ❈♦❤❡♥✳ ❉r♦s♦♣❤✐❧❛ ♠✐❝r♦❘◆❆s ✷✻✸❛✴❜ ❝♦♥❢❡r r♦❜✉st♥❡ss ❞✉r✐♥❣ ❞❡✈❡❧♦♣♠❡♥t ❜② ♣r♦t❡❝t✐♥❣ ♥❛s❝❡♥t s❡♥s❡ ♦r❣❛♥s ❢r♦♠ ❛♣♦♣t♦s✐s✳ P▲♦❙ ❇✐♦❧♦❣②✱ ✽✱ ✷✵✶✵✳ ❬✶✸✺❪ ❆✉r❡❧✐♦ ❆ ❚❡❧❡♠❛♥✱ ❙✉s❤♠✐t❛ ▼❛✐tr❛✱ ❛♥❞ ❙t❡♣❤❡♥ ▼ ❈♦❤❡♥✳ ❉r♦s♦♣❤✐❧❛ ❧❛❝❦✐♥❣ ♠✐❝r♦❘◆❆ ♠✐❘✲✷✼✽ ❛r❡ ❞❡❢❡❝t✐✈❡ ✐♥ ❡♥❡r❣② ❤♦♠❡♦st❛s✐s✳ ●❡♥❡s ✫ ❞❡✈❡❧♦♣♠❡♥t✱ ✷✵ ✿✹✶✼✕✹✷✷✱ ✷✵✵✻✳ ❬✶✸✻❪ ❏❡♥♥✲❨❛❤ ❨✉✱ ❙t❡✈❡♥ ❍ ❘❡②♥♦❧❞s✱ ❙t❡✈❡ ❉ ❍❛t✜❡❧❞✱ ❍❛❧②♥❛ ❘ ❙❤❝❤❡r❜❛t❛✱ ❑❛✲ r✐♥ ❆ ❋✐s❝❤❡r✱ ❊❧❧❡♥ ❏ ❲❛r❞✱ ❉❛♥❣ ▲♦♥❣✱ ❨❡ ❉✐♥❣✱ ❛♥❞ ❍❛♥♥❡❧❡ ❘✉♦❤♦❧❛✲❇❛❦❡r✳ ❉✐❝❡r✲✶✲❞❡♣❡♥❞❡♥t ❉❛❝❛♣♦ s✉♣♣r❡ss✐♦♥ ❛❝ts ❞♦✇♥str❡❛♠ ♦❢ ■♥s✉❧✐♥ r❡❝❡♣t♦r ✐♥ r❡✲ ❣✉❧❛t✐♥❣ ❝❡❧❧ ❞✐✈✐s✐♦♥ ♦❢ ❉r♦s♦♣❤✐❧❛ ❣❡r♠❧✐♥❡ st❡♠ ❝❡❧❧s✳ ❉❡✈❡❧♦♣♠❡♥t ✭❈❛♠❜r✐❞❣❡✱ ❊♥❣❧❛♥❞✮✱ ✶✸✻ ✿✶✹✾✼✕✶✺✵✼✱ ✷✵✵✾✳ ❬✶✸✼❪ ❙❛②❛❦❛ ❍♦r✐✱ ❑✉♠✐ ❑❛♥❡❦♦✱ ❚❛❦❡s❤✐ ❍✳ ❙❛✐t♦✱ ❍✐❞❡❛❦✐ ❚❛❦❡✉❝❤✐✱ ❛♥❞ ❚❛❦❡♦ ❑✉❜♦✳ ❊①♣r❡ss✐♦♥ ♦❢ t✇♦ ♠✐❝r♦❘◆❆s✱ ❛♠❡✲♠✐r✲✷✼✻ ❛♥❞ ✲✶✵✵✵✱ ✐♥ t❤❡ ❛❞✉❧t ❤♦♥❡②❜❡❡ ✭❆♣✐s ♠❡❧❧✐❢❡r❛✮ ❜r❛✐♥✳ ❆♣✐❞♦❧♦❣✐❡✱ ✹✷✭✶✮ ✿✽✾✕✶✵✷✱ ▼❛② ✷✵✶✶✳ ❬✶✸✽❪ P❡✐③❤❛♥❣ ❳✉✱ ❙t❡♣❤❛♥✐❡ ❨✳ ❱❡r♥♦♦②✱ ▼✐♥❣ ●✉♦✱ ❛♥❞ ❇r✉❝❡ ❆✳ ❍❛②✳ ❚❤❡ ❉r♦s♦♣❤✐❧❛ ♠✐❝r♦❘◆❆ ♠✐r✲✶✹ s✉♣♣r❡ss❡s ❝❡❧❧ ❞❡❛t❤ ❛♥❞ ✐s r❡q✉✐r❡❞ ❢♦r ♥♦r♠❛❧ ❢❛t ♠❡t❛❜♦❧✐s♠✳ ❈✉rr❡♥t ❇✐♦❧♦❣②✱ ✶✸ ✿✼✾✵✕✼✾✺✱ ✷✵✵✸✳ ❬✶✸✾❪ ❏✐s❤② ❱❛r❣❤❡s❡ ❛♥❞ ❙t❡♣❤❡♥ ▼ ❈♦❤❡♥✳ ♠✐❝r♦❘◆❆ ♠✐❘✲✶✹ ❛❝ts t♦ ♠♦❞✉❧❛t❡ ❛ ♣♦s✐t✐✈❡ ❛✉t♦r❡❣✉❧❛t♦r② ❧♦♦♣ ❝♦♥tr♦❧❧✐♥❣ st❡r♦✐❞ ❤♦r♠♦♥❡ s✐❣♥❛❧✐♥❣ ✐♥ ❉r♦s♦♣❤✐❧❛✳ ●❡♥❡s ✫ ❞❡✈❡❧♦♣♠❡♥t✱ ✷✶ ✿✷✷✼✼✕✷✷✽✷✱ ✷✵✵✼✳ ❬✶✹✵❪ ❏✐s❤② ❱❛r❣❤❡s❡✱ ❙✐♥❣ ❋❡❡ ▲✐♠✱ ❛♥❞ ❙t❡♣❤❡♥ ▼ ❈♦❤❡♥✳ ❉r♦s♦♣❤✐❧❛ ♠✐❘✲✶✹ r❡❣✉✲ ❧❛t❡s ✐♥s✉❧✐♥ ♣r♦❞✉❝t✐♦♥ ❛♥❞ ♠❡t❛❜♦❧✐s♠ t❤r♦✉❣❤ ✐ts t❛r❣❡t✱ s✉❣❛r❜❛❜❡✳ ●❡♥❡s ✫ ❞❡✈❡❧♦♣♠❡♥t✱ ✷✹ ✿✷✼✹✽✕✷✼✺✸✱ ✷✵✶✵✳ ❬✶✹✶❪ ❘❡❣❛❧❧❛ ❑✉♠❛rs✇❛♠② ❛♥❞ ❙✉❞❤✐r ❈❤❛♥❞♥❛✳ ■♥❤✐❜✐t✐♦♥ ♦❢ ♠✐❝r♦❘◆❆✲✶✹ ❝♦♥tr✐✲ ❜✉t❡s t♦ ❛❝t✐♥♦♠②❝✐♥✲❉✲✐♥❞✉❝❡❞ ❛♣♦♣t♦s✐s ✐♥ t❤❡ ❙❢✾ ✐♥s❡❝t ❝❡❧❧ ❧✐♥❡✳ ❈❡❧❧ ❜✐♦❧♦❣② ✐♥t❡r♥❛t✐♦♥❛❧✱ ✸✹ ✿✽✺✶✕✽✺✼✱ ✷✵✶✵✳✶✻✻ ❇✐❜❧✐♦❣r❛♣❤✐❡ ❬✶✹✷❪ ◆❛♥ ▲✐✉✱ ▼✐❝❤❛❡❧ ▲❛♥❞r❡❤✱ ❑❛❥✐❛ ❈❛♦✱ ▼❛s❛s❤✐ ❆❜❡✱ ●❡rt✲❏❛♥ ❍❡♥❞r✐❦s✱ ❏❛✲ s♦♥ ❘ ❑❡♥♥❡r❞❡❧❧✱ ❨♦♥❣q✐♥❣ ❩❤✉✱ ▲✐✲❙❛♥ ❲❛♥❣✱ ❛♥❞ ◆❛♥❝② ▼ ❇♦♥✐♥✐✳ ❚❤❡ ♠✐✲ ❝r♦r♥❛ ♠✐r✲✸✹ ♠♦❞✉❧❛t❡s ❛❣❡✐♥❣ ❛♥❞ ♥❡✉r♦❞❡❣❡♥❡r❛t✐♦♥ ✐♥ ❞r♦s♦♣❤✐❧❛✳ ◆❛t✉r❡✱ ✹✽✷✭✼✸✽✻✮ ✿✺✶✾✕✺✷✸✱ ✷✵✶✷✳ ❬✶✹✸❪ ❈❤✉❧❛♥ ❑✇♦♥✱ ❩❤❡ ❍❛♥✱ ❊r✐❝ ◆ ❖❧s♦♥✱ ❛♥❞ ❉❡❡♣❛❦ ❙r✐✈❛st❛✈❛✳ ▼✐❝r♦❘◆❆✶ ✐♥✲ ✢✉❡♥❝❡s ❝❛r❞✐❛❝ ❞✐✛❡r❡♥t✐❛t✐♦♥ ✐♥ ❉r♦s♦♣❤✐❧❛ ❛♥❞ r❡❣✉❧❛t❡s ◆♦t❝❤ s✐❣♥❛❧✐♥❣✳ Pr♦✲ ❝❡❡❞✐♥❣s ♦❢ t❤❡ ◆❛t✐♦♥❛❧ ❆❝❛❞❡♠② ♦❢ ❙❝✐❡♥❝❡s ♦❢ t❤❡ ❯♥✐t❡❞ ❙t❛t❡s ♦❢ ❆♠❡r✐❝❛✱ ✶✵✷ ✿✶✽✾✽✻✕✶✽✾✾✶✱ ✷✵✵✺✳ ❬✶✹✹❪ ❏éré♠② ❇❡ss♦♥✱ ❈é❧✐♥❡ ❘♦❜❛r❞❡t✱ ❛♥❞ ❏❡❛♥✲❋r❛♥❝♦✐s ❇♦✉❧✐❝❛✉t✳ ▼✐♥✐♥❣ ❢♦r♠❛❧ ❝♦♥❝❡♣ts ✇✐t❤ ❛ ❜♦✉♥❞❡❞ ♥✉♠❜❡r ♦❢ ❡①❝❡♣t✐♦♥s ❢r♦♠ tr❛♥s❛❝t✐♦♥❛❧ ❞❛t❛✳ ■♥ P♦st✲ ❲♦r❦s❤♦♣ Pr♦❝❡❡❞✐♥❣s ♦❢ t❤❡ ✸r❞ ■♥t❡r♥❛t✐♦♥❛❧ ❲♦r❦s❤♦♣ ♦♥ ❑♥♦✇❧❡❞❣❡ ❉✐s❝♦✲ ✈❡r② ✐♥ ■♥❞✉❝t✐✈❡ ❉❛t❛❜❛s❡s ❑❉■❉✬✵✹✱ ✈♦❧✉♠❡ ✸✸✼✼✱ ♣❛❣❡s ✸✸✕✹✺✳ ❙♣r✐♥❣❡r✲❱❡r❧❛❣ ▲◆❈❙ ✸✸✼✼✱ ✷✵✵✹✳ ❬✶✹✺❪ ❘❛❞✐♠ ❇❡❧♦❤❧❛✈❡❦ ❛♥❞ ❱✐❧❡♠ ❱②❝❤♦❞✐❧✳ ❘❡♣❧❛❝✐♥❣ ❢✉❧❧ r❡❝t❛♥❣❧❡s ❜② ❞❡♥s❡ r❡❝✲ t❛♥❣❧❡s ✿ ❝♦♥❝❡♣t ❧❛tt✐❝❡s ❛♥❞ ❛ttr✐❜✉t❡ ✐♠♣❧✐❝❛t✐♦♥s✳ ■♥ ✷✵✵✻ ■❊❊❊ ■♥t❡r♥❛t✐♦♥❛❧ ❈♦♥❢❡r❡♥❝❡ ♦♥ ■♥❢♦r♠❛t✐♦♥ ❘❡✉s❡ ✫ ■♥t❡❣r❛t✐♦♥✱ ♣❛❣❡s ✶✶✼✕✶✷✷✳ ■❊❊❊✱ ❙❡♣t❡♠❜❡r ✷✵✵✻✳ ❬✶✹✻❪ ▼✐❦❤❛✐❧ ❑❧✐♠✉s❤❦✐♥✱ ❙❡r❣❡✐ ❖❜✐❡❞❦♦✈✱ ❛♥❞ ❈❛♠✐❧❧❡ ❘♦t❤✳ ❆♣♣r♦❛❝❤❡s t♦ t❤❡ s❡✲ ❧❡❝t✐♦♥ ♦❢ r❡❧❡✈❛♥t ❝♦♥❝❡♣ts ✐♥ t❤❡ ❝❛s❡ ♦❢ ♥♦✐s② ❞❛t❛✳ ■♥ ❋♦r♠❛❧ ❈♦♥❝❡♣t ❆♥❛❧②s✐s✱ ♣❛❣❡s ✷✺✺✕✷✻✻✳ ❙♣r✐♥❣❡r✱ ✷✵✶✵✳ ❬✶✹✼❪ ❏✳ ❘✐ss❛♥❡♥✳ ▼♦❞❡❧✐♥❣ ❜② s❤♦rt❡st ❞❛t❛ ❞❡s❝r✐♣t✐♦♥✳ ❆✉t♦♠❛t✐❝❛✱ ✶✹✭✺✮ ✿✹✻✺✕✹✼✶✱ ❙❡♣t❡♠❜❡r ✶✾✼✽✳ ❬✶✹✽❪ ❈❤r✐s ❋r❛❧❡② ❛♥❞ ❆❞r✐❛♥ ❊ ❘❛❢t❡r②✳ ▼♦❞❡❧✲❇❛s❡❞ ❈❧✉st❡r✐♥❣✱ ❉✐s❝r✐♠✐♥❛♥t ❆♥❛✲ ❧②s✐s✱ ❛♥❞ ❉❡♥s✐t② ❊st✐♠❛t✐♦♥✳ ❏♦✉r♥❛❧ ♦❢ t❤❡ ❆♠❡r✐❝❛♥ ❙t❛t✐st✐❝❛❧ ❆ss♦❝✐❛t✐♦♥✱ ✾✼✭✹✺✽✮ ✿✻✶✶✕✻✸✶✱ ❏✉♥❡ ✷✵✵✷✳ ❬✶✹✾❪ ❈❤r✐s ❋r❛❧❡②✱ ❆❊ ❘❛❢t❡r②✱ ❛♥❞ ▲ ❙❝r✉❝❝❛✳ ◆♦r♠❛❧ ♠✐①t✉r❡ ♠♦❞❡❧✐♥❣ ❢♦r ♠♦❞❡❧✲ ❜❛s❡❞ ❝❧✉st❡r✐♥❣✱ ❝❧❛ss✐✜❝❛t✐♦♥✱ ❛♥❞ ❞❡♥s✐t② ❡st✐♠❛t✐♦♥✳ ❉❡♣❛rt♠❡♥t ♦❢ ❙t❛t✐st✐❝s✱ ❯♥✐✈❡rs✐t② ♦❢ ❲❛s❤✐♥❣t♦♥✱ ❆✈❛✐❧❛❜❧❡ ♦♥❧✐♥❡ ❛t ❤tt♣ ✿✴✴❝r❛♥✳ r✲♣r♦❥❡❝t✳ ♦r❣✴✇❡❜✴✲ ♣❛❝❦❛❣❡s✴♠❝❧✉st✴✐♥❞❡①✳ ❤t♠❧✳ ❆❝❝❡ss❡❞ ❙❡♣t❡♠❜❡r✱ ✷✸ ✿✷✵✶✷✱ ✷✵✶✷✳ ❬✶✺✵❪ ●✐❞❡♦♥ ❙❝❤✇❛r③✳ ❊st✐♠❛t✐♥❣ t❤❡ ❉✐♠❡♥s✐♦♥ ♦❢ ❛ ▼♦❞❡❧✳ ❚❤❡ ❆♥♥❛❧s ♦❢ ❙t❛t✐st✐❝s✱ ✻✭✷✮ ✿✹✻✶✕✹✻✹✱ ▼❛r❝❤ ✶✾✼✽✳ ❬✶✺✶❪ ❏ ❆♠✐❧❤❛str❡✱ ▼✳❈ ❱✐❧❛r❡♠✱ ❛♥❞ P ❏❛♥ss❡♥✳ ❈♦♠♣❧❡①✐t② ♦❢ ♠✐♥✐♠✉♠ ❜✐❝❧✐q✉❡ ❝♦✈❡r ❛♥❞ ♠✐♥✐♠✉♠ ❜✐❝❧✐q✉❡ ❞❡❝♦♠♣♦s✐t✐♦♥ ❢♦r ❜✐♣❛rt✐t❡ ❞♦♠✐♥♦✲❢r❡❡ ❣r❛♣❤s✳ ❉✐s❝r❡t❡ ❆♣♣❧✐❡❞ ▼❛t❤❡♠❛t✐❝s✱ ✽✻✭✷✲✸✮ ✿✶✷✺✕✶✹✹✱ ❙❡♣t❡♠❜❡r ✶✾✾✽✳ ❬✶✺✷❪ ❍❡r❜❡rt ❋❧❡✐s❝❤♥❡r✱ ❊❣❜❡rt ▼✉❥✉♥✐✱ ❉❛♥✐ë❧ P❛✉❧✉s♠❛✱ ❛♥❞ ❙t❡❢❛♥ ❙③❡✐❞❡r✳ ❈♦✈❡✲ r✐♥❣ ❣r❛♣❤s ✇✐t❤ ❢❡✇ ❝♦♠♣❧❡t❡ ❜✐♣❛rt✐t❡ s✉❜❣r❛♣❤s✳ ❚❤❡♦r❡t✐❝❛❧ ❈♦♠♣✉t❡r ❙❝✐❡♥❝❡✱ ✹✶✵✭✷✶✲✷✸✮ ✿✷✵✹✺✕✷✵✺✸✱ ▼❛② ✷✵✵✾✳ ❬✶✺✸❪ ❨✉♥ ❩❤❛♥❣✱ ❈❤❛r❧❡s ❆ P❤✐❧❧✐♣s✱ ●❛r② ▲ ❘♦❣❡rs✱ ❊r✐❝❤ ❏ ❇❛❦❡r✱ ❊❧✐ss❛ ❏ ❈❤❡s❧❡r✱ ❛♥❞ ▼✐❝❤❛❡❧ ❆ ▲❛♥❣st♦♥✳ ❖♥ ✜♥❞✐♥❣ ❜✐❝❧✐q✉❡s ✐♥ ❜✐♣❛rt✐t❡ ❣r❛♣❤s ✿ ❛ ♥♦✈❡❧ ❛❧❣♦✲ r✐t❤♠ ❛♥❞ ✐ts ❛♣♣❧✐❝❛t✐♦♥ t♦ t❤❡ ✐♥t❡❣r❛t✐♦♥ ♦❢ ❞✐✈❡rs❡ ❜✐♦❧♦❣✐❝❛❧ ❞❛t❛ t②♣❡s✳ ❇▼❈ ❜✐♦✐♥❢♦r♠❛t✐❝s✱ ✶✺✭✶✮ ✿✶✶✵✱ ❏❛♥✉❛r② ✷✵✶✹✳ ❬✶✺✹❪ ▲♦ï❝ ❘♦②❡r✱ ▼❛tt❤✐❛s ❘❡✐♠❛♥♥✱ ❇✐❧❧ ❆♥❞r❡♦♣♦✉❧♦s✱ ❛♥❞ ▼✐❝❤❛❡❧ ❙❝❤r♦❡❞❡r✳ ❯♥r❛✲ ✈❡❧✐♥❣ ♣r♦t❡✐♥ ♥❡t✇♦r❦s ✇✐t❤ ♣♦✇❡r ❣r❛♣❤ ❛♥❛❧②s✐s✳ P▲♦❙ ❝♦♠♣✉t❛t✐♦♥❛❧ ❜✐♦❧♦❣②✱ ✹✭✼✮ ✿❡✶✵✵✵✶✵✽✱ ❏❛♥✉❛r② ✷✵✵✽✳❇✐❜❧✐♦❣r❛♣❤✐❡ ✶✻✼ ❬✶✺✺❪ ▼❛rt✐♥❛ ▼❛✐s❡❧✱ ❍❛♥s✲❏ör❣ ❍❛❜✐s❝❤✱ ▲♦ï❝ ❘♦②❡r✱ ❆❧❡①❛♥❞❡r ❍❡rr✱ ❏❛✈♦r✐♥❛ ▼✐❧♦s❡✲ ✈✐❝✱ ❆♥❞r❡❛s ❍❡r♠❛♥♥✱ ❙t❡❢❛♥ ▲✐❡❜❛✉✱ ❘♦❧❢ ❇r❡♥♥❡r✱ ❏♦❤❛♥♥❡s ❙❝❤✇❛r③✱ ▼✐❝❤❛❡❧ ❙❝❤r♦❡❞❡r✱ ❛♥❞ ❆❧❡①❛♥❞❡r ❙t♦r❝❤✳ ●❡♥♦♠❡✲✇✐❞❡ ❡①♣r❡ss✐♦♥ ♣r♦✜❧✐♥❣ ❛♥❞ ❢✉♥❝✲ t✐♦♥❛❧ ♥❡t✇♦r❦ ❛♥❛❧②s✐s ✉♣♦♥ ♥❡✉r♦❡❝t♦❞❡r♠❛❧ ❝♦♥✈❡rs✐♦♥ ♦❢ ❤✉♠❛♥ ♠❡s❡♥❝❤②♠❛❧ st❡♠ ❝❡❧❧s s✉❣❣❡st ❍■❋✲✶ ❛♥❞ ♠✐❘✲✶✷✹❛ ❛s ✐♠♣♦rt❛♥t r❡❣✉❧❛t♦rs✳ ❊①♣❡r✐♠❡♥t❛❧ ❝❡❧❧ r❡s❡❛r❝❤✱ ✸✶✻✭✶✼✮ ✿✷✼✻✵✕✼✽✱ ❖❝t♦❜❡r ✷✵✶✵✳ ❬✶✺✻❪ ▲✐ ▲✐✱ ❉❛✈✐❞ ❏ ❘✉❛✉✱ ❈❤✐r❛❣ ❏ P❛t❡❧✱ ❙✉s❛♥ ❈ ❲❡❜❡r✱ ❘♦♥❣ ❈❤❡♥✱ ◆✐❝❤♦❧❛s P ❚❛t♦♥❡tt✐✱ ❏♦❡❧ ❚ ❉✉❞❧❡②✱ ❛♥❞ ❆t✉❧ ❏ ❇✉tt❡✳ ❉✐s❡❛s❡ r✐s❦ ❢❛❝t♦rs ✐❞❡♥t✐✜❡❞ t❤r♦✉❣❤ s❤❛r❡❞ ❣❡♥❡t✐❝ ❛r❝❤✐t❡❝t✉r❡ ❛♥❞ ❡❧❡❝tr♦♥✐❝ ♠❡❞✐❝❛❧ r❡❝♦r❞s✳ ❙❝✐❡♥❝❡ tr❛♥s❧❛t✐♦♥❛❧ ♠❡❞✐❝✐♥❡✱ ✻✭✷✸✹✮ ✿✷✸✹r❛✺✼✱ ❆♣r✐❧ ✷✵✶✹✳ ❬✶✺✼❪ ●❡♦r❣❡ ❚s❛ts❛r♦♥✐s✱ ▼❛tt❤✐❛s ❘❡✐♠❛♥♥✱ ■r❛❦❧✐s ❱❛r❧❛♠✐s✱ ❖r❡st✐s ●❦♦r❣❦❛s✱ ❛♥❞ ❑❥❡t✐❧ ◆ø r✈å❣✳ ❊✣❝✐❡♥t ❝♦♠♠✉♥✐t② ❞❡t❡❝t✐♦♥ ✉s✐♥❣ ♣♦✇❡r ❣r❛♣❤ ❛♥❛❧②s✐s✳ ■♥ Pr♦❝❡❡❞✐♥❣s ♦❢ t❤❡ ✾t❤ ✇♦r❦s❤♦♣ ♦♥ ▲❛r❣❡✲s❝❛❧❡ ❛♥❞ ❞✐str✐❜✉t❡❞ ✐♥❢♦r♠❛t✐♦♥❛❧ r❡✲ tr✐❡✈❛❧ ✲ ▲❙❉❙✲■❘ ✬✶✶✱ ♣❛❣❡ ✷✶✱ ◆❡✇ ❨♦r❦✱ ◆❡✇ ❨♦r❦✱ ❯❙❆✱ ❖❝t♦❜❡r ✷✵✶✶✳ ❆❈▼ Pr❡ss✳ ❬✶✺✽❪ ●❡♦r❣❡ ❚s❛ts❛r♦♥✐s✱ ■r❛❦❧✐s ❱❛r❧❛♠✐s✱ ❙✉♥♥❛ ❚♦r❣❡✱ ▼❛tt❤✐❛s ❘❡✐♠❛♥♥✱ ❑❥❡t✐❧ ◆ør✈å❣✱ ▼✐❝❤❛❡❧ ❙❝❤r♦❡❞❡r✱ ❛♥❞ ▼❛tt❤✐❛s ❩s❝❤✉♥❦❡✳ ❍♦✇ t♦ ❜❡❝♦♠❡ ❛ ❣r♦✉♣ ❧❡❛❞❡r ❄ ♦r ♠♦❞❡❧✐♥❣ ❛✉t❤♦r t②♣❡s ❜❛s❡❞ ♦♥ ❣r❛♣❤ ♠✐♥✐♥❣✳ ■♥ ❘❡s❡❛r❝❤ ❛♥❞ ❆❞✲ ✈❛♥❝❡❞ ❚❡❝❤♥♦❧♦❣② ❢♦r ❉✐❣✐t❛❧ ▲✐❜r❛r✐❡s✱ ♣❛❣❡s ✶✺✕✷✻✳ ❙♣r✐♥❣❡r✱ ✷✵✶✶✳ ❬✶✺✾❪ ▼✳ ❇✳ ❊✐s❡♥✱ P✳ ❚✳ ❙♣❡❧❧♠❛♥✱ P✳ ❖✳ ❇r♦✇♥✱ ❛♥❞ ❉✳ ❇♦tst❡✐♥✳ ❈❧✉st❡r ❛♥❛❧②s✐s ❛♥❞ ❞✐s♣❧❛② ♦❢ ❣❡♥♦♠❡✲✇✐❞❡ ❡①♣r❡ss✐♦♥ ♣❛tt❡r♥s✳ Pr♦❝❡❡❞✐♥❣s ♦❢ t❤❡ ◆❛t✐♦♥❛❧ ❆❝❛❞❡♠② ♦❢ ❙❝✐❡♥❝❡s✱ ✾✺✭✷✺✮ ✿✶✹✽✻✸✕✶✹✽✻✽✱ ❉❡❝❡♠❜❡r ✶✾✾✽✳ ❬✶✻✵❪ ❚❤♦♠❛s ❍ ❈♦r♠❡♥✱ ❈❤❛r❧❡s ❊ ▲❡✐s❡rs♦♥✱ ❘♦♥❛❧❞ ▲ ❘✐✈❡st✱ ❈❧✐✛♦r❞ ❙t❡✐♥✱ ❡t ❛❧✳ ■♥tr♦❞✉❝t✐♦♥ t♦ ❛❧❣♦r✐t❤♠s✱ ✈♦❧✉♠❡ ✷✳ ▼■❚ ♣r❡ss ❈❛♠❜r✐❞❣❡✱ ✷✵✵✶✳ ❬✶✻✶❪ P❛✉❧ ❙❤❛♥♥♦♥✱ ❆♥❞r❡✇ ▼❛r❦✐❡❧✱ ❖✇❡♥ ❖③✐❡r✱ ◆✐t✐♥ ❙ ❇❛❧✐❣❛✱ ❏♦♥❛t❤❛♥ ❚ ❲❛♥❣✱ ❉❛♥✐❡❧ ❘❛♠❛❣❡✱ ◆❛❞❛ ❆♠✐♥✱ ❇❡♥♥♦ ❙❝❤✇✐❦♦✇s❦✐✱ ❛♥❞ ❚r❡② ■❞❡❦❡r✳ ❈②t♦s❝❛♣❡ ✿ ❛ s♦❢t✇❛r❡ ❡♥✈✐r♦♥♠❡♥t ❢♦r ✐♥t❡❣r❛t❡❞ ♠♦❞❡❧s ♦❢ ❜✐♦♠♦❧❡❝✉❧❛r ✐♥t❡r❛❝t✐♦♥ ♥❡t✇♦r❦s✳ ●❡♥♦♠❡ r❡s❡❛r❝❤✱ ✶✸ ✿✷✹✾✽✕✷✺✵✹✱ ✷✵✵✸✳ ❬✶✻✷❪ ❊♠❞❡♥ ❘✳ ●❛♥s♥❡r ❛♥❞ ❙t❡♣❤❡♥ ❈✳ ◆♦rt❤✳ ❆♥ ♦♣❡♥ ❣r❛♣❤ ✈✐s✉❛❧✐③❛t✐♦♥ s②st❡♠ ❛♥❞ ✐ts ❛♣♣❧✐❝❛t✐♦♥s t♦ s♦❢t✇❛r❡ ❡♥❣✐♥❡❡r✐♥❣✳ ❙❖❋❚❲❆❘❊ ✲ P❘❆❈❚■❈❊ ❆◆❉ ❊❳P❊❘■❊◆❈❊✱ ✸✵✭✶✶✮ ✿✶✷✵✸✕✶✷✸✸✱ ✷✵✵✵✳ ❬✶✻✸❪ ❈❛rst❡♥ ❙❦✉r❦✱ ❍❡♥r✐❦❡ ▼❛❛t③✱ ❍②♦✲❙♦♦ ❑✐♠✱ ❏✐❛♥❣ ❨❛♥❣✱ ▼❞ ❘✉❤✉❧ ❆❜✐❞✱ ❲✐❧❧✐❛♠ ❈ ❆✐r❞✱ ❛♥❞ ❑❡♥♥❡t❤ ❲❛❧s❤✳ ❚❤❡ ❆❦t✲r❡❣✉❧❛t❡❞ ❢♦r❦❤❡❛❞ tr❛♥s❝r✐♣✲ t✐♦♥ ❢❛❝t♦r ❋❖❳❖✸❛ ❝♦♥tr♦❧s ❡♥❞♦t❤❡❧✐❛❧ ❝❡❧❧ ✈✐❛❜✐❧✐t② t❤r♦✉❣❤ ♠♦❞✉❧❛t✐♦♥ ♦❢ t❤❡ ❝❛s♣❛s❡✲✽ ✐♥❤✐❜✐t♦r ❋▲■P✳ ❚❤❡ ❏♦✉r♥❛❧ ♦❢ ❜✐♦❧♦❣✐❝❛❧ ❝❤❡♠✐str②✱ ✷✼✾✭✷✮ ✿✶✺✶✸✕✷✺✱ ❏❛♥✉❛r② ✷✵✵✹✳ ❬✶✻✹❪ ❚❤♦♠❛s ❈ ❇r✐♦♥♥❡✱ ■♥❛ ❚❡ss❡✉r✱ ❊❧✐❡③❡r ▼❛s❧✐❛❤✱ ❛♥❞ ❚♦♥② ❲②ss✲❈♦r❛②✳ ▲♦ss ♦❢ ❚●❋✲❜❡t❛ ✶ ❧❡❛❞s t♦ ✐♥❝r❡❛s❡❞ ♥❡✉r♦♥❛❧ ❝❡❧❧ ❞❡❛t❤ ❛♥❞ ♠✐❝r♦❣❧✐♦s✐s ✐♥ ♠♦✉s❡ ❜r❛✐♥✳ ◆❡✉r♦♥✱ ✹✵ ✿✶✶✸✸✕✶✶✹✺✱ ✷✵✵✸✳ ❬✶✻✺❪ ❑✐②♦♠✐ ❨♦s❤✐❞❛✱ ▼❛s❛s❤✐ ❨❛♠❛❞❛✱ ❈❤✐❦❛ ◆✐s❤✐♦✱ ❆❦✐♦ ❑♦♥✐s❤✐✱ ❛♥❞ ❍✐r♦s❤✐ ❍❛✲ t❛♥❛❦❛✳ ❙◆❘❑✱ ❛ ♠❡♠❜❡r ♦❢ t❤❡ ❙◆❋✶ ❢❛♠✐❧②✱ ✐s r❡❧❛t❡❞ t♦ ❧♦✇ ❑✰✲✐♥❞✉❝❡❞ ❛♣♦♣✲ t♦s✐s ♦❢ ❝✉❧t✉r❡❞ r❛t ❝❡r❡❜❡❧❧❛r ❣r❛♥✉❧❡ ♥❡✉r♦♥s✳ ❇r❛✐♥ ❘❡s❡❛r❝❤✱ ✽✼✸✭✷✮ ✿✷✼✹✕✷✽✷✱ ❆✉❣✉st ✷✵✵✵✳✶✻✽ ❇✐❜❧✐♦❣r❛♣❤✐❡ ❬✶✻✻❪ ❆s❤✐s❤ ❚❤❛♣❧✐②❛❧✱ ❘❛s❤♠✐ ❱❡r♠❛✱ ❛♥❞ ◆❛✈✐♥ ❑✉♠❛r✳ ❙♠❛❧❧ ● Pr♦t❡✐♥s ❉❡①r❛s✶ ❛♥❞ ❘❍❊❙ ❛♥❞ ❚❤❡✐r ❘♦❧❡ ✐♥ P❛t❤♦♣❤②s✐♦❧♦❣✐❝❛❧ Pr♦❝❡ss❡s✳ ■♥t❡r♥❛t✐♦♥❛❧ ❥♦✉r♥❛❧ ♦❢ ❝❡❧❧ ❜✐♦❧♦❣②✱ ✷✵✶✹ ✿✸✵✽✺✸✺✱ ❏❛♥✉❛r② ✷✵✶✹✳ ❬✶✻✼❪ ❙✉s❤♠✐t❛ ❘♦②✱ ❏❛s♦♥ ❊r♥st✱ P❡t❡r ❱ ❑❤❛r❝❤❡♥❦♦✱ P♦✉②❛ ❑❤❡r❛❞♣♦✉r✱ ◆✐❝♦❧❛s ◆❡❣r❡✱ ▼❛tt❤❡✇ ▲ ❊❛t♦♥✱ ❏❛♥❡ ▼ ▲❛♥❞♦❧✐♥✱ ❈❤r✐st♦♣❤❡r ❛ ❇r✐st♦✇✱ ▲✐❥✐❛ ▼❛✱ ▼✐❝❤❛❡❧ ❋ ▲✐♥✱ ❙t❡❢❛♥ ❲❛s❤✐❡t❧✱ ❇r❛❞❧❡② ■ ❆rs❤✐♥♦✛✱ ❋❡r❤❛t ❆②✱ P❛tr✐❝❦ ❊ ▼❡②❡r✱ ◆✐❝♦❧❛s ❘♦❜✐♥❡✱ ◆✐❝♦❧❡ ▲ ❲❛s❤✐♥❣t♦♥✱ ▲✉✐s❛ ❉✐ ❙t❡❢❛♥♦✱ ❊✉❣❡♥❡ ❇❡r❡③✐❦♦✈✱ ❈❤r✐s✲ t♦♣❤❡r ❉ ❇r♦✇♥✱ ❘♦❣❡r✐♦ ❈❛♥❞❡✐❛s✱ ❏♦s❡♣❤ ❲ ❈❛r❧s♦♥✱ ❆❞r✐❛♥ ❈❛rr✱ ■r✇✐♥ ❏✉♥✲ ❣r❡✐s✱ ❉❛♥✐❡❧ ▼❛r❜❛❝❤✱ ❘❛❝❤❡❧ ❙❡❛❧❢♦♥✱ ▼✐❝❤❛❡❧ ❨ ❚♦❧st♦r✉❦♦✈✱ ❙❡❜❛st✐❛♥ ❲✐❧❧✱ ❆rt②♦♠ ❛ ❆❧❡❦s❡②❡♥❦♦✱ ❈❛r❧♦ ❆rt✐❡r✐✱ ❇❡♥❥❛♠✐♥ ❲ ❇♦♦t❤✱ ❆♥❣❡❧❛ ◆ ❇r♦♦❦s✱ ◗✐ ❉❛✐✱ ❈❛rr✐❡ ❛ ❉❛✈✐s✱ ▼✐❝❤❛❡❧ ❖ ❉✉✛✱ ❳✐♥ ❋❡♥❣✱ ❆♥❞r❡② ❛ ●♦r❝❤❛❦♦✈✱ ❚✐♥❣t✐♥❣ ●✉✱ ❏♦r❥❛ ● ❍❡♥✐❦♦✛✱ P❤✐❧✐♣♣ ❑❛♣r❛♥♦✈✱ ❘❡♥❤✉❛ ▲✐✱ ❍❡❛t❤❡r ❑ ▼❛❝❆❧♣✐♥❡✱ ❏♦❤♥ ▼❛❧♦♥❡✱ ❆❦✐ ▼✐♥♦❞❛✱ ❏❛r❡❞ ◆♦r❞♠❛♥✱ ❑❛ts✉t♦♠♦ ❖❦❛♠✉r❛✱ ▼❛r❝ P❡rr②✱ ❙❛r❛ ❑ P♦✇❡❧❧✱ ◆✐❝♦❧❡ ❈ ❘✐❞❞❧❡✱ ❆❦✐❦♦ ❙❛❦❛✐✱ ❆♥❛st❛s✐❛ ❙❛♠s♦♥♦✈❛✱ ❏❡r❡♠② ❊ ❙❛♥❞❧❡r✱ ❨✉r✐ ❇ ❙❝❤✇❛rt③✱ ◆♦❛ ❙❤❡r✱ ❘❡❜❡❝❝❛ ❙♣♦❦♦♥②✱ ❉❛✈✐❞ ❙t✉r❣✐❧❧✱ ▼❛r✐❥❦❡ ✈❛♥ ❇❛r❡♥✱ ❑❡♥♥❡t❤ ❍ ❲❛♥✱ ▲✐ ❨❛♥❣✱ ❈❤❛r❧❡s ❨✉✱ ❊❧✐s❡ ❋❡✐♥❣♦❧❞✱ P❡t❡r ●♦♦❞✱ ▼❛r❦ ●✉②❡r✱ ❘❡❜❡❝❝❛ ▲♦✇❞♦♥✱ ❑❛♠✐ ❆❤♠❛❞✱ ❏✉st❡♥ ❆♥❞r❡✇s✱ ❇♦♥♥✐❡ ❇❡r❣❡r✱ ❙t❡✈❡♥ ❊ ❇r❡♥✲ ♥❡r✱ ▼✐❝❤❛❡❧ ❘ ❇r❡♥t✱ ▲✉❝② ❈❤❡r❜❛s✱ ❙❛r❛❤ ❈ ❘ ❊❧❣✐♥✱ ❚❤♦♠❛s ❘ ●✐♥❣❡r❛s✱ ❘♦❜❡rt ●r♦ss♠❛♥✱ ❘♦❣❡r ❛ ❍♦s❦✐♥s✱ ❚❤♦♠❛s ❈ ❑❛✉❢♠❛♥✱ ❲✐❧❧✐❛♠ ❑❡♥t✱ ▼✐t③✐ ■ ❑✉r♦❞❛✱ ❚❡rr② ❖rr✲❲❡❛✈❡r✱ ◆♦r❜❡rt P❡rr✐♠♦♥✱ ❱✐♥❝❡♥③♦ P✐rr♦tt❛✱ ❏❛♠❡s ❲ P♦s❛✲ ❦♦♥②✱ ❇✐♥❣ ❘❡♥✱ ❙t❡✈❡♥ ❘✉ss❡❧❧✱ P❡t❡r ❈❤❡r❜❛s✱ ❇r❡♥t♦♥ ❘ ●r❛✈❡❧❡②✱ ❙✉③❛♥♥❛ ▲❡✲ ✇✐s✱ ●♦s ▼✐❝❦❧❡♠✱ ❇r✐❛♥ ❖❧✐✈❡r✱ P❡t❡r ❏ P❛r❦✱ ❙✉s❛♥ ❊ ❈❡❧♥✐❦❡r✱ ❙t❡✈❡♥ ❍❡♥✐❦♦✛✱ ●❛r② ❍ ❑❛r♣❡♥✱ ❊r✐❝ ❈ ▲❛✐✱ ❉❛✈✐❞ ▼ ▼❛❝❆❧♣✐♥❡✱ ▲✐♥❝♦❧♥ ❉ ❙t❡✐♥✱ ❑❡✈✐♥ P ❲❤✐t❡✱ ❛♥❞ ▼❛♥♦❧✐s ❑❡❧❧✐s✳ ■❞❡♥t✐✜❝❛t✐♦♥ ♦❢ ❢✉♥❝t✐♦♥❛❧ ❡❧❡♠❡♥ts ❛♥❞ r❡❣✉❧❛t♦r② ❝✐r❝✉✐ts ❜② ❉r♦s♦♣❤✐❧❛ ♠♦❞❊◆❈❖❉❊✳ ❙❝✐❡♥❝❡ ✭◆❡✇ ❨♦r❦✱ ◆✳❨✳✮✱ ✸✸✵✭✻✵✶✷✮ ✿✶✼✽✼✕✾✼✱ ❉❡❝❡♠❜❡r ✷✵✶✵✳ ❬✶✻✽❪ ▲❡❛❤ ❘ ❙❛❜✐♥✱ ❘✉✐ ❩❤♦✉✱ ❏♦s❤✉❛ ❏ ●r✉❜❡r✱ ◆✐♥❛ ▲✉❦✐♥♦✈❛✱ ❙❤❡❧❧② ❇❛♠❜✐♥❛✱ ❆❧❧✐✲ s♦♥ ❇❡r♠❛♥✱ ❈❤✐✲❑♦♥❣ ▲❛✉✱ ❈r❛✐❣ ❇ ❚❤♦♠♣s♦♥✱ ❛♥❞ ❙❛r❛ ❈❤❡rr②✳ ❆rs✷ r❡❣✉❧❛t❡s ❜♦t❤ ♠✐❘◆❆✲ ❛♥❞ s✐❘◆❆✲ ❞❡♣❡♥❞❡♥t s✐❧❡♥❝✐♥❣ ❛♥❞ s✉♣♣r❡ss❡s ❘◆❆ ✈✐r✉s ✐♥❢❡❝✲ t✐♦♥ ✐♥ ❉r♦s♦♣❤✐❧❛✳ ❈❡❧❧✱ ✶✸✽✭✷✮ ✿✸✹✵✕✺✶✱ ❏✉❧② ✷✵✵✾✳ ❬✶✻✾❪ ❏♦s❤✉❛ ❏ ●r✉❜❡r✱ ❉ ❙t❡✈❡♥ ❩❛t❡❝❤❦❛✱ ▲❡❛❤ ❘ ❙❛❜✐♥✱ ❏❡♦♥❣s✐❦ ❨♦♥❣✱ ❏✉❧✐❛♥ ❏ ▲✉♠✱ ▼❡✐ ❑♦♥❣✱ ❲❡✐✲❳✐♥❣ ❩♦♥❣✱ ❩❤❡♥①✐ ❩❤❛♥❣✱ ❈❤✐✲❑♦♥❣ ▲❛✉✱ ❏❛s♦♥ ❘❛✇❧✐♥❣s✱ ❙❛r❛ ❈❤❡rr②✱ ❏❛♠❡s ◆ ■❤❧❡✱ ●✐❞❡♦♥ ❉r❡②❢✉ss✱ ❛♥❞ ❈r❛✐❣ ❇ ❚❤♦♠♣s♦♥✳ ❆rs✷ ❧✐♥❦s t❤❡ ♥✉❝❧❡❛r ❝❛♣✲❜✐♥❞✐♥❣ ❝♦♠♣❧❡① t♦ ❘◆❆ ✐♥t❡r❢❡r❡♥❝❡ ❛♥❞ ❝❡❧❧ ♣r♦❧✐❢❡r❛t✐♦♥✳ ❈❡❧❧✱ ✶✸✽✭✷✮ ✿✸✷✽✕✸✾✱ ❏✉❧② ✷✵✵✾✳ ❬✶✼✵❪ ❊ ❍ ❇❛❡❤r❡❝❦❡✳ ✇❤♦ ❡♥❝♦❞❡s ❛ ❑❍ ❘◆❆ ❜✐♥❞✐♥❣ ♣r♦t❡✐♥ t❤❛t ❢✉♥❝t✐♦♥s ✐♥ ♠✉s❝❧❡ ❞❡✈❡❧♦♣♠❡♥t✳ ❉❡✈❡❧♦♣♠❡♥t ✭❈❛♠❜r✐❞❣❡✱ ❊♥❣❧❛♥❞✮✱ ✶✷✹✭✼✮ ✿✶✸✷✸✕✸✷✱ ❆♣r✐❧ ✶✾✾✼✳ ❬✶✼✶❪ ❏ ❍✉❡rt❛✲❈❡♣❛s✱ ▼ ▼❛r❝❡t✲❍♦✉❜❡♥✱ ▼ P✐❣♥❛t❡❧❧✐✱ ❆ ▼♦②❛✱ ❛♥❞ ❚ ●❛❜❛❧❞ó♥✳ ❚❤❡ ♣❡❛ ❛♣❤✐❞ ♣❤②❧♦♠❡ ✿ ❛ ❝♦♠♣❧❡t❡ ❝❛t❛❧♦❣✉❡ ♦❢ ❡✈♦❧✉t✐♦♥❛r② ❤✐st♦r✐❡s ❛♥❞ ❛rt❤r♦✲ ♣♦❞ ♦rt❤♦❧♦❣② ❛♥❞ ♣❛r❛❧♦❣② r❡❧❛t✐♦♥s❤✐♣s ❢♦r ❆❝②rt❤♦s✐♣❤♦♥ ♣✐s✉♠ ❣❡♥❡s✳ ■♥s❡❝t ♠♦❧❡❝✉❧❛r ❜✐♦❧♦❣②✱ ✶✾ ❙✉♣♣❧ ✷ ✿✶✸✕✷✶✱ ▼❛r❝❤ ✷✵✶✵✳ ❬✶✼✷❪ ❏♦❤♥ ❑ ❈♦❧❜♦✉r♥❡✱ ▼✐❝❤❛❡❧ ❊ P❢r❡♥❞❡r✱ ❉♦♥❛❧❞ ●✐❧❜❡rt✱ ❲ ❑❡❧❧❡② ❚❤♦♠❛s✱ ❆❜r❛✲ ❤❛♠ ❚✉❝❦❡r✱ ❚♦❞❞ ❍ ❖❛❦❧❡②✱ ❙❤✐♥✐❝❤✐ ❚♦❦✐s❤✐t❛✱ ❆♥❞r❡❛ ❆❡rts✱ ●❡♦r❣ ❏ ❆r♥♦❧❞✱ ▼❛❧❛② ❑✉♠❛r ❇❛s✉✱ ❉❛rr❡♥ ❏ ❇❛✉❡r✱ ❈❛r❧❛ ❊ ❈á❝❡r❡s✱ ▲✐r❛♥ ❈❛r♠❡❧✱ ❈❧❛✉❞✐♦ ❈❛✲ s♦❧❛✱ ❏❡♦♥❣✲❍②❡♦♥ ❈❤♦✐✱ ❏♦❤♥ ❈ ❉❡tt❡r✱ ◗✉♥❢❡♥❣ ❉♦♥❣✱ ❙❡r❣❡ ❉✉s❤❡②❦♦✱ ❇r✐❛♥ ❉❇✐❜❧✐♦❣r❛♣❤✐❡ ✶✻✾ ❊❛❞s✱ ❚❤♦♠❛s ❋rö❤❧✐❝❤✱ ❑❡rr② ❆ ●❡✐❧❡r✲❙❛♠❡r♦tt❡✱ ❉❛♥✐❡❧ ●❡r❧❛❝❤✱ P❤✐❧ ❍❛t❝❤❡r✱ ❙❛♥❥✉r♦ ❏♦❣❞❡♦✱ ❏❡r♦❡♥ ❑r✐❥❣s✈❡❧❞✱ ❊✈❣❡♥✐❛ ❱ ❑r✐✈❡♥ts❡✈❛✱ ❉✐❡t♠❛r ❑ü❧t③✱ ❈❤r✐s✲ t✐❛♥ ▲❛❢♦rs❝❤✱ ❊r✐❦❛ ▲✐♥❞q✉✐st✱ ❏❛❝q✉❡❧✐♥❡ ▲♦♣❡③✱ ❏ ❘♦❜❡rt ▼❛♥❛❦✱ ❏❡❛♥ ▼✉❧❧❡r✱ ❏❛s♠②♥ P❛♥❣✐❧✐♥❛♥✱ ❘✉♣❛❧✐ P P❛t✇❛r❞❤❛♥✱ ❙❛♠✉❡❧ P✐t❧✉❝❦✱ ❊❧❧❡♥ ❏ Pr✐t❤❛♠✱ ❆♥✲ ❞r❡❛s ❘❡❝❤tst❡✐♥❡r✱ ▼✐♥❛ ❘❤♦✱ ■❣♦r ❇ ❘♦❣♦③✐♥✱ ❖♥✉r ❙❛❦❛r②❛✱ ❆s❛❢ ❙❛❧❛♠♦✈✱ ❙❛✲ r❛❤ ❙❝❤❛❛❝❦✱ ❍❛rr✐s ❙❤❛♣✐r♦✱ ❨❛s✉❤✐r♦ ❙❤✐❣❛✱ ❈♦✉rt♥❡② ❙❦❛❧✐t③❦②✱ ❩❛❝❤❛r② ❙♠✐t❤✱ ❆❧❡①❛♥❞❡r ❙♦✉✈♦r♦✈✱ ❲❛② ❙✉♥❣✱ ❩✉♦❥✐❛♥ ❚❛♥❣✱ ❉❛✐ ❚s✉❝❤✐②❛✱ ❍❛♥❦ ❚✉✱ ❍❛r♠✲ ❥❛♥ ❱♦s✱ ▼❡✐ ❲❛♥❣✱ ❨✉r✐ ■ ❲♦❧❢✱ ❍✐❞❡♦ ❨❛♠❛❣❛t❛✱ ❚❛❦✉❥✐ ❨❛♠❛❞❛✱ ❨✉③❤❡♥ ❨❡✱ ❏♦s❡♣❤ ❘ ❙❤❛✇✱ ❏✉st❡♥ ❆♥❞r❡✇s✱ ❚❡r❡s❛ ❏ ❈r❡❛s❡✱ ❍❛✐①✉ ❚❛♥❣✱ ❙✉s❛♥ ▼ ▲✉❝❛s✱ ❍✉❣❤ ▼ ❘♦❜❡rts♦♥✱ P❡❡r ❇♦r❦✱ ❊✉❣❡♥❡ ❱ ❑♦♦♥✐♥✱ ❊✈❣❡♥② ▼ ❩❞♦❜♥♦✈✱ ■❣♦r ❱ ●r✐❣♦r✐❡✈✱ ▼✐❝❤❛❡❧ ▲②♥❝❤✱ ❛♥❞ ❏❡✛r❡② ▲ ❇♦♦r❡✳ ❚❤❡ ❡❝♦r❡s♣♦♥s✐✈❡ ❣❡♥♦♠❡ ♦❢ ❉❛♣❤♥✐❛ ♣✉❧❡①✳ ❙❝✐❡♥❝❡ ✭◆❡✇ ❨♦r❦✱ ◆✳❨✳✮✱ ✸✸✶✭✻✵✶✼✮ ✿✺✺✺✕✻✶✱ ❋❡❜r✉❛r② ✷✵✶✶✳ ❬✶✼✸❪ ❏❡❛♥✲❈❤r✐st♦♣❤❡ ❙✐♠♦♥✱ ▼✐❝❤❛❡❧ ❊ P❢r❡♥❞❡r✱ ❘❛❧♣❤ ❚♦❧❧r✐❛♥✱ ❉❡♥✐s ❚❛❣✉✱ ❛♥❞ ❏♦❤♥ ❑ ❈♦❧❜♦✉r♥❡✳ ●❡♥♦♠✐❝s ♦❢ ❡♥✈✐r♦♥♠❡♥t❛❧❧② ✐♥❞✉❝❡❞ ♣❤❡♥♦t②♣❡s ✐♥ ✷ ❡①tr❡✲ ♠❡❧② ♣❧❛st✐❝ ❛rt❤r♦♣♦❞s✳ ❚❤❡ ❏♦✉r♥❛❧ ♦❢ ❤❡r❡❞✐t②✱ ✶✵✷✭✺✮ ✿✺✶✷✕✷✺✱ ❏❛♥✉❛r② ✷✵✶✶✳ ❬✶✼✹❪ ●❡♥❣ ❚✐❛♥✱ ❳✉❨❛♥❣ ❨✐♥✱ ❍♦♥❣ ▲✉♦✱ ❳✐❛♦❍♦♥❣ ❳✉✱ ▲❛rs ❇♦❧✉♥❞✱ ❳✐✉◗✐♥❣ ❩❤❛♥❣✱ ❙❤❛♥❣✲◗✉❛♥❣ ●❛♥✱ ❛♥❞ ◆✐♥❣ ▲✐✳ ❙❡q✉❡♥❝✐♥❣ ❜✐❛s ✿ ❝♦♠♣❛r✐s♦♥ ♦❢ ❞✐✛❡r❡♥t ♣r♦✲ t♦❝♦❧s ♦❢ ♠✐❝r♦❘◆❆ ❧✐❜r❛r② ❝♦♥str✉❝t✐♦♥✳ ❇▼❈ ❜✐♦t❡❝❤♥♦❧♦❣②✱ ✶✵✭✶✮ ✿✻✹✱ ❏❛♥✉❛r② ✷✵✶✵✳ ❬✶✼✺❪ ❏ ❏ ❙❡❦❡❧s❦②✱ ❙ ❏ ◆❡✇❢❡❧❞✱ ▲ ❆ ❘❛❢t❡r②✱ ❊ ❍ ❈❤❛rt♦✛✱ ❛♥❞ ❲ ▼ ●❡❧❜❛rt✳ ●❡♥❡t✐❝ ❝❤❛r❛❝t❡r✐③❛t✐♦♥ ❛♥❞ ❝❧♦♥✐♥❣ ♦❢ ♠♦t❤❡rs ❛❣❛✐♥st ❞♣♣✱ ❛ ❣❡♥❡ r❡q✉✐r❡❞ ❢♦r ❞❡❝❛♣❡♥✲ t❛♣❧❡❣✐❝ ❢✉♥❝t✐♦♥ ✐♥ ❉r♦s♦♣❤✐❧❛ ♠❡❧❛♥♦❣❛st❡r✳ ●❡♥❡t✐❝s✱ ✶✸✾✭✸✮ ✿✶✸✹✼✕✺✽✱ ▼❛r❝❤ ✶✾✾✺✳ ❬✶✼✻❪ ❊♠✐❧② ❈❧♦✉❣❤✱ ❲♦♦♥❣❥♦♦♥ ▼♦♦♥✱ ❙❤❡♥❣①✐❛♥ ❲❛♥❣✱ ❑❛t❤❧❡❡♥ ❙♠✐t❤✱ ❛♥❞ ❚✉❧❧❡ ❍❛③❡❧r✐❣❣✳ ❍✐st♦♥❡ ♠❡t❤②❧❛t✐♦♥ ✐s r❡q✉✐r❡❞ ❢♦r ♦♦❣❡♥❡s✐s ✐♥ ❉r♦s♦♣❤✐❧❛✳ ❉❡✈❡❧♦♣✲ ♠❡♥t ✭❈❛♠❜r✐❞❣❡✱ ❊♥❣❧❛♥❞✮✱ ✶✸✹✭✶✮ ✿✶✺✼✕✻✺✱ ❏❛♥✉❛r② ✷✵✵✼✳ ❬✶✼✼❪ ▼♦❤❛♠❡❞ ❘♦✉❛♥❡✲❍❛❝❡♥❡✱ ▼❛r✐❛♥♥❡ ❍✉❝❤❛r❞✱ ❆♠❡❞❡♦ ◆❛♣♦❧✐✱ ❛♥❞ P❡t❦♦ ❱❛❧t✲ ❝❤❡✈✳ ❘❡❧❛t✐♦♥❛❧ ❝♦♥❝❡♣t ❛♥❛❧②s✐s ✿ ♠✐♥✐♥❣ ❝♦♥❝❡♣t ❧❛tt✐❝❡s ❢r♦♠ ♠✉❧t✐✲r❡❧❛t✐♦♥❛❧ ❞❛t❛✳ ❆♥♥❛❧s ♦❢ ▼❛t❤❡♠❛t✐❝s ❛♥❞ ❆rt✐✜❝✐❛❧ ■♥t❡❧❧✐❣❡♥❝❡✱ ✻✼✭✶✮ ✿✽✶✕✶✵✽✱ ▼❛r❝❤ ✷✵✶✸✳ ❬✶✼✽❪ ❏♦❤♥ ▲ ❘✐♥♥ ❛♥❞ ❍♦✇❛r❞ ❨ ❈❤❛♥❣✳ ●❡♥♦♠❡ r❡❣✉❧❛t✐♦♥ ❜② ❧♦♥❣ ♥♦♥❝♦❞✐♥❣ ❘◆❆s✳ ❆♥♥✉❛❧ r❡✈✐❡✇ ♦❢ ❜✐♦❝❤❡♠✐str②✱ ✽✶ ✿✶✹✺✕✻✻✱ ❏❛♥✉❛r② ✷✵✶✷✳ ❬✶✼✾❪ ▼✐t❝❤❡❧❧ ●✉tt♠❛♥ ❛♥❞ ❏♦❤♥ ▲ ❘✐♥♥✳ ▼♦❞✉❧❛r r❡❣✉❧❛t♦r② ♣r✐♥❝✐♣❧❡s ♦❢ ❧❛r❣❡ ♥♦♥✲ ❝♦❞✐♥❣ ❘◆❆s✳ ◆❛t✉r❡✱ ✹✽✷✭✼✸✽✺✮ ✿✸✸✾✕✹✻✱ ❋❡❜r✉❛r② ✷✵✶✷✳ ❬✶✽✵❪ ❆❧❡ss❛♥❞r♦ ❋❛t✐❝❛ ❛♥❞ ■r❡♥❡ ❇♦③③♦♥✐✳ ▲♦♥❣ ♥♦♥✲❝♦❞✐♥❣ ❘◆❆s ✿ ♥❡✇ ♣❧❛②❡rs ✐♥ ❝❡❧❧ ❞✐✛❡r❡♥t✐❛t✐♦♥ ❛♥❞ ❞❡✈❡❧♦♣♠❡♥t✳ ◆❛t✉r❡ r❡✈✐❡✇s✳ ●❡♥❡t✐❝s✱ ✶✺✭✶✮ ✿✼✕✷✶✱ ❏❛♥✉❛r② ✷✵✶✹✳✶✼✵ ❇✐❜❧✐♦❣r❛♣❤✐❡❆♥♥❡①❡s ✶✼✶Edge Selection in a Noisy Graph by Concept Analysis: Application to a Genomic Network Valentin Wucher1,2 , Denis Tagu1 , and Jacques Nicolas2 1 INRA, UMR 1349 IGEPP, Le Rheu, 35653, France valentin.wucher@rennes.inra.fr; denis.tagu@rennes.inra.fr 2 IRISA-INRIA, Campus de Beaulieu, 35042 Rennes cedex, France jacques.nicolas@inria.fr Abstract. MicroRNAs (miRNAs) are small RNA molecules that bind messenger RNAs (mRNAs) to silence their expression. Understanding this regulation mechanism requires the study of the miRNA/mRNA interaction network. State of the art methods for predicting interactions lead to a high level of false positive: the interaction score distribution may be roughly described as a mixture of two overlapping Gaussian laws that need to be discriminated with a threshold. In order to further improve the discrimination between true and false interactions, we present a method that considers the structure of the underlying graph. We assume that the graph is formed on a relatively simple structure of formal concepts (associated to regulation modules in the regulation mechanism). Specifically, the formal context topology of true edges is assumed to be less complex than in the case of a noisy graph including spurious interactions or missing interactions. Our approach consists thus in selecting edges below an edge score threshold and applying a repair process on the graph, adding or deleting edges to decrease the global concept complexity. To validate our hypothesis and method, we have extracted parameters from a real biological miRNA/mRNA network and used them to build random networks with fixed concept topology and true/false interaction ratio. Each repaired network can be evaluated with a score balancing the number of edge changes and the conceptual adequacy in the spirit of the minimum description length principle. 1 Introduction MicroRNAs (miRNAs) are small RNA molecules that bind to and regulate the flow of messenger RNAs (mRNAs). They have a sequence of 6 nucleotides that bind to a complementary sequence, the binding site, of the target mRNA. Bound miRNAs repress the expression of their target mRNAs. The interaction network created by miRNAs/mRNAs interactions is by definition a bipartite graph between miRNA nodes and mRNA nodes. Several bioinformatics methods can predict miRNAs/mRNAs interactions. The current state of the art offers only methods having a high level of false positive predictions (Chil et al. (2009), Reyes-Herrera et al. (2011)). Even with2 Valentin Wucher, Denis Tagu, and Jacques Nicolas scoring functions and a threshold, it is still hard to discriminate between true and false predictions. Based on the biological function of miRNAs, i.e. repressing mRNAs translation, and their implication in many biological processes (Janga and Vallabhanenis (2011)), authors have provided some evidence that miRNAs combine to regulate functional modules, i.e. clusters of mRNAs sharing similar functions (Bryan et al. (2014) and Enright et al. (2005)). This assumption is compatible with the observations of similar complexes for another major regulation actor, transcription factors. Thus true interactions could be distinguished in principle from false one on the basis of functional clusters (modules), i.e. set of miRNAs that regulate mRNAs with the same function. Once a score threshold has been set, we intend to improve edge selection by detecting false negatives and false positives by taking into account the previous assumption in the framework of formal concept analysis. 2 Definition of formal concept analysis This section briefly recalls some notions of formal concept analysis as defined by Ganter and Wille (1999) and Klimushkin et al. (2010). A formal context is a triplet K = (G, M, I) where G is the set of objects, M the set of attributes and I ⊆ G × M is a binary relation between objects and attributes. The operator (.) ′ is defined on K for A ⊆ G and B ⊆ M as: A′ = {m ∈ M|∀g ∈ A : gIm} and B′ = {g ∈ G|∀m ∈ B : gIm}. A′ is the set of common attributes to all objects in A and B′ the set of common objects to all attributes in B. A formal concept is a pair (A, B) defined on K with A ⊆ G and B ⊆ M where A = B′ and B = A′ . Concept ordering can be based on set inclusion: For all formal concepts (A, B) and (C, D), let (A, B) ≤ (C, D) if A ⊆ C. If (A, B) ≤ (C, D) and there is no formal concept (E, F) such that (A, B) < (E, F) < (C, D) then we write (A, B) ≺ (C, D). The relation < generates a concept lattice structure B(K) on context K. The order ≺ generates the edges in the covering graph of B(K). a1 a2 a3 a4 o1 1 1 o2 1 1 o3 1 1 o4 1 1 o5 1 1 ❅ ❅ ⊤ = {o1, o2, o3, o4, o5} × ∅ C1 = {o1, o2, o3} × {a1, a2} C2 = {o4, o5} × {a3, a4} ⊥ = ∅ × {a1, a2, a3, a4} Fig. 1. A formal context Kex (left) with Gex = {o1..5} the set of objects and Mex = {a1..4} the set of attributes and the associated concept lattice B(Kex) (right). Figure 1 gives a small example of formal context and the associated concept lattice. It contains four formal concepts, namely C1, C2, the top concept ⊤ and the bottom concept ⊥.Edge selection in a noisy graph by concept analysis 3 3 The effect of noise on formal concept analysis Formal concept analysis is a powerful method for binary data analysis because it extracts every complete group of related elements, i.e. such that every element from one set is related to every element in the second set. This advantage become a drawback in case of noisy data, because of its sensitivity to the presence of each relation. Studies have already been conducted on fault-tolerant or approximated concepts analysis (Besson et al. (2004), Belohlavek and Vychodil (2006), Blachon et al. (2007)). It consists mostly in retrieving dense rectangles of 1 in a binary matrix: a concept is indeed a submatrix filled with 1 values, up to line and column reordering. The constraint of requiring a complete set of 1 may be released by an optimisation constraint requiring a maximal number of 1. Very few works exist aiming at retrieving original concepts from noisy formal concepts. One of the most advanced study in this domain is due to Klimushkin et al. (2010), which showed that formal concepts can be recovered from a formal context including false relations and between 300 to 400 objects and 4 to 12 attributes. They used three statistical values on concepts to find the original concepts and concept lattice. The next subsection introduces a toy example of noisy context in order to illustrate the effect of noise on the associated concept lattice. A more formal characterization of this effect is provided in a subsection. 3.1 Example of noise effect In the context Knoise (Figure 2), one spurious relation (o5, a2) has been added compared with Figure 1 and a dissimilarity score is available for every relation. By setting a threshold of −0.2 and keeping every relation below this threshold, (o3, a2), an original relation, is discarded while (o5, a2), a spurious relation, is kept. There are now 7 concepts, 3 more than in Kex (see Figure 2). The deletion of element (o3, a2) has split concept C1 into two concepts C ′ 1 and C ′′ 1 . Concept C2 still exists in Knoise, renamed C ′ 2 in the figure. Two new concepts, C3 and C4 have been created due to the addition of (o5, a2). a1 a2 a3 a4 o1 -0.3 -0.25 o2 -0.5 -0.45 o3 -0.6 -0.1 o4 -0.4 -0.2 o5 -0.3 -0.28 -0.41 ✏✏ PP ✏✏ ✏✏ PPPP PP ✏✏ ⊤ = {o1, o2, o3, o4, o5} × ∅ C ′ 1 = {o1, o2, o3} × {a1} C ′′ 1 = {o1, o2} × {a1, a2} C3 = {o1, o2, o5} × {a2} C ′ 2 = {o4, o5} × {a3, a4} C4 = {o5} × {a2, a3, a4} ⊥ = ∅ × {a1, a2, a3, a4} Fig. 2. Formal context Knoise (left) with scores (spurious relation underlined) and the associated concept lattice B(Knoise) (right) obtained at threshold −0.2.4 Valentin Wucher, Denis Tagu, and Jacques Nicolas 3.2 Spurious relations To better understand the local effect of spurious relations on a concept, we need to discriminate two types of relations: the original relations, I o ⊆ G×M and the spurious relations, I s ⊆ G × M with I o ∩ I s = ∅. These two types of relations involve three types of contexts: the original context with no spurious relation Ko = (G, M, I), the context containing only the spurious relations Ks = (G, M, Is ) and the context with all the relations Kos = (G, M,(I ∪I s )). They generate three types of formal concepts, the set of original concepts C o defined on Ko , the set of spurious concepts C s defined on Ks and the set of concepts C os defined on Kos. The construction of C os from C o and C s depends on the contribution of each concept pair in C o × C s . Consider C o = (Ao , Bo ) ∈ C o and C s = (As , Bs ) ∈ C s . Since I o and I s are exclusive, the concepts in C o and C s need to be disjoint. It means that either Ao ∩ As = ∅ or Bo ∩ Bs = ∅. Assume with no lack of generality that Ao ∩ As 6= ∅ and Bo ∩ Bs = ∅. Then a new concept C os = (Aos, Bos) may be created with Aos = Ao ∩ As and Bos = Bo ∪ Bs . Note that if As ⊆ Ao (resp. Ao ⊆ As ), then C s (resp. C o ) is not maximal in Kos since it is included in C os . Formally the contribution of two disjoint concepts to the set of extended concepts C os can be defined through the application of an inclusion operator: Definition 1. The inclusion operator i(., .) is defined for a pair of disjoint concepts (C i , Cj ) = ((Ai , Bi ),(Aj , Bj )) as i(C i , Cj ) = C i∪j where C i∪j is the set of concepts obtained on relation {(Ai × Bi ) ∪ (Aj × Bj )}. The various types of results deriving from i application depending on the intersection between object or attribute sets are listed below: i(C i , Cj ) = {C i , Cj } if A i ∩ A j = B i ∩ B j = ∅; (1) = {(A i ∪ A j , Bi ∪ B j )} if A i = A j or B i = B j ; (2) = {C j ,(A i ∪ A j , Bi ∪ B j )} if A i ⊂ A j or B i ⊂ B j ; (3) = {C i , Cj ,(A i ∩ A j , Bi ∪ B j )} if A i ∩ A j 6⊆ {∅, Ai , Aj }; (4) = {C i , Cj ,(A i ∪ A j , Bi ∩ B j )} if B i ∩ B j 6⊆ {∅, Bi , Bj }. (5) C os can be defined using a fixpoint characterization: C os is the smallest set of concepts that cover the concepts of C s and C o and is closed under i. Concepts from C s and C o and concepts generated by operator i belong to C os if they are not covered by other concepts from C os as described above. 3.3 Missing relations As for spurious relations, one can proceed by distinguishing two types of relations: the original relations, I o ⊆ G × M and the missing relations, I m ⊆ I o . They imply three types of contexts: the original context without missing relations Ko = (G, M, Io ), the context containing only the missing relations Km = (G, M, Im) and the context with all except the missing relations Kom =Edge selection in a noisy graph by concept analysis 5 (G, M,(I o \Im)). These contexts entail three types of formal concepts, the set of original concepts C o defined on Ko , the set of missing concepts Cm defined on Km and the set of concepts C om defined on Kom. As for spurious relations, the objective is to describe how the sets C o and Cm are combining in C om. We first describe the general case where the relations of a concept in Cm are overlapping those of a concept in C o . Consider C o = (Ao , Bo ) ∈ C o and C m = (Am, Bm) ∈ Cm, if Ao ∩ Am 6= ∅ and Bo ∩ Bm 6= ∅, then the concept C o cannot be in C om since it includes missing relations Am ×Bm. Instead, two new concepts will be created in C om, C om 1 = (Ao , Bo \ Bm) and C om 2 = (Ao \ Am, Bo ). Note that if Ao ⊆ Am (resp. Bo ⊆ Bm), then only the concept C om 1 is created (resp. C om 2 ). Formally the contribution of two overlapping concepts to the set of restricted concepts C om can be defined through the application of an exclusion operator: Definition 2. The exclusion operator e(., .) is defined for a pair of overlapping concepts (C i , Cj ) = ((Ai , Bi ),(Aj , Bj )) as e(C i , Cj ) = C j\i where C j\i is the set of concepts obtained on relation {(Aj × Bj ) \ (Ai × Bi )}. The various types of results deriving from e application depending on the intersection between object and attribute sets are listed below: e(C i , Cj ) = C j if A j ∩ A i or B j ∩ B i = ∅; (6) = {(A j , Bj \ B i ),(A j \ A i , Bj )} if A j ∩ A i 6= ∅, Bj ∩ B i 6= ∅; (7) = {(A j , Bj \ B i )} if A j ⊆ A i , Bj 6⊆ B i ; (8) = {(A j \ A i , Bj )} if A j 6⊆ A i , Bj ⊆ B i ; (9) = ∅ if A j ⊆ A i , Bj ⊆ B i . (10) C om can be defined using a fixpoint characterization: C om is the largest set of concepts which are included in the concepts of C o and is closed under e. Concepts from C o and concepts generated by operator e belong to C om if they do not contain a relation of Im as described above. 3.4 Managing the noise The previous study points out that the number of concepts will increase depending on the type of noisy relations (spurious or missing) and the number of purely noisy concepts except for equations (1) and (6) where no new concepts are created. For spurious relations, the number of new concepts in C os is bounded by the number ns of disjoint concepts C s j ∈ C s with only one set that intersect with C and is bounded by ns. For missing relations, the number of new concepts C om i ∈ C om locally created from a concept C depends on the number nm of concepts C m j ∈ Cm that overlap with C and is bounded by 2nm. Overall, the evolution of the number of new concepts is linear when adding spurious concepts and exponential when deleting missing concepts. To6 Valentin Wucher, Denis Tagu, and Jacques Nicolas repair the context Kosm (the context with I osm = ((I o ∪ I s ) \ Im)) in order to retrieve Ko , we need to define new operations that reverse the effect of operators i and e. These operations take advantage of the fact that most of the time, concepts resulting from the application of i or e are connected in the concept lattice by a direct relation or a sibling relation. Concerning operator i, in equation (3) the two result concepts are ordered by ≺ in the concept lattice. As for equations (4) and (5), the new concept is the direct precursor or the direct successor of C i and C j in the concept lattice. For operator e, in equation (7) the result concepts are ordered by ≺. The two sets Aj and Bj of the original concept can be easily recovered by crossing the noisy concepts. 4 Repair process 4.1 Definition of repair operations We have introduced two operations delete and add resp. defined from operators i and e, which select then suppress or insert relations based on concept lattice analysis. We assume in the following that these operations act on a pair of concepts (X, Y ) with X = (A, B) and Y = (C, D). Two types of selected (X, Y ) pair selection exist, link pair if X ≺ Y and sibling pair, X ≈ Y , if ∃Z|X ≺ Z and Y ≺ Z. The following operations apply on these pairs: ∀ (X, Y ) | X ≺ Y or Y ≺ X or X ≈ Y : delete(X, Y ) : C := C − Y ; Noise := Noise ∪ Y \ X; ∀ (X, Y ) | X ≺ Y or Y ≺ X : add(X, Y ) : C := C − X − Y + (C, B); Noise := Noise ∪ (C \ A) × (B \ D); where C, initially the set of observed concepts, is the resulting set of concepts and Noise is the set of spurious or missing interactions. In Figure 2, (C ′ 2 , C4)l and delete(C ′ 2 , C4) = delete(({o4, o5}, {a3, a4}), ({o5}, {a2, a3, a4})) results in deleting a spurious relation: C := C − C4 and Noise := Noise ∪ {(o5, a2)}. The same way, (C ′′ 1 , C′ 1 )l and add(C ′′ 1 , C′ 1 ) = add(({o1, o2}, {a1, a2}),({o1, o2, o3}, {a1})) results in adding a missing relation: C := C−C ′′ 1 −C ′ 1+({o1, o2, o3}, {a1, a2}) and Noise := Noise∪{(o3, a2)} The whole repair process consist of the simultaneous application of a set of delete/add operations on a subset of pairs extracted from the initially observed set of concepts. The space of admissible pairs is naturally constrained: once a concept has been chosen for deletion for instance, it cannot be used for an add operation in another selection. This leads to a space of different subsets of concepts, induced by different repair alternatives. These alternatives have to be scored in order to keep the best one. 4.2 Minimum description length optimization In the spirit of the minimum description length principle, each set of concepts C resulting from the application of delete/add operations on a subset of concept pairs C gets a score defined as:Edge selection in a noisy graph by concept analysis 7 score(C) = X (A,B)∈C (|A| + |B|) + α card(Noise); where α is an integer parameter set by default to 1. This score is minimized over all possible applications of delete and add operations on all admissible concept subsets C. 5 Experiments on simulated noisy data We have generated several random contexts with a fixed number of objects and attributes (from 20 to 40) to test our method for the detection of spurious interactions. For each context, 5 sets of interactions have been created, corresponding to 5 cross-products of a random number of objects and a random number of attributes each following a normal distribution (mean 5, standard deviation 2). The original concepts are obtained on these sets of interactions. The noisy concepts are obtained by adding a uniform noise with a fixed probability for each cell to be changed. For each set of parameters (number of objects/attributes, noise level and weight α) 1,000 random contexts have been tried and the average ratio of original and spurious relations deleted has been computed. Results for the delete operation are shown Table 1. Table 1. Mean and standard deviation (sd) on simulated noisy data of the percentage of original and spurious relations deleted by the repair process. objects attributes noise α original (%) spurious (%) mean sd mean sd 20 20 0.05 1 3.5 4.2 43.1 21.3 2 3.3 4.1 43 21.3 3 3.1 4 42.2 21.3 40 40 0.01 1 3.5 4.3 60.4 16 2 2.3 3.1 60.6 15.9 3 1.5 2.4 58.9 16.2 0.05 1 0.4 1.5 29 11.2 2 0.4 1.3 27.8 10.4 3 0.3 0.1 24.2 9.1 0.1 1 0.1 1.4 0.8 3.9 2 0.1 1.4 0.8 3.9 3 0 0 0.4 0.9 60 60 0.05 1 0.1 0.3 17.4 8.4 2 0 0.3 15.7 6.8 3 0 0.3 13.1 6.1 For all experiments in Table 1, the percentage of original and spurious relations deleted decreases when α increases. This observation is coherent with the defined score since α represents the relative minor importance of the number of deleted relations with respect to the description length of repaired concepts. In all cases, very few original concepts were affected by deletions. Half of spurious relations are detected for contexts that do not exceed 40 objects and 40 attributes and this rate decreases in line with context size increase and noise level increase. These results seemed sufficient for real data management with a relatively stringent selection of interactions (a limited level of noise) and we have further experimented with more realistic data.8 Valentin Wucher, Denis Tagu, and Jacques Nicolas 6 miRNAs/mRNAs interaction graph The pea aphid (Acyrthosiphon pisum) is a crop pest that is a model for the study of phenotypic plasticity (The Intern. Aphid Genomics Consortium (2010)). During the warm seasons viviparous parthenogenetic females are produced whereas during autumn, sexual males and oviparous sexual females are produced. In order to understand the differences in the regulation between sexual and asexual embryogenesis, kinetic data for mRNA and miRNA expression have been collected in both contexts (Gallot (2012)). From these data, we have extracted 43 miRNAs and 2,033 mRNAs of interest exhibiting kinetics differences in the two embryogenesis. To predict miRNAs/mRNAs interactions, we used TargetScan v5 (Grimson et al. (2007)). TargetScan provides for each prediction a dissimilarity score, i.e. the lower the score, the stronger the interaction. This resulted in a scored interaction graph with 6,763 interactions between 41 miRNAs and 1,479 mRNAs. The prediction score distribution is shown Figure 3. TargetScan context score Density −0.6 −0.4 −0.2 0.0 0.2 0 1 2 3 4 Gaussian mixture model True distribution False distribution Fig. 3. TargetScan context score distribution (solid line: complete; dashed line: true prediction distribution; dotted line: spurious interactions). The total distribution can be seen as a Gaussian mixture model (GMM, solid line) divided into two Gaussian curves, one centered around low values (dashed line) and the other centered around high values (spurious interactions, dotted lines). These curves are in agreement with the literature (Chil et al. (2009), Reyes-Herrera and Ficarra (2011)), which reveals a high false positive rate in the prediction methods. The TargetScan prediction forms thus a bipartite graph with a high level of noise, something that does not allow to directly apply our method. Fortunately, it is possible to select the most interesting interactions by choosing a relatively stringent score threshold. Every true interactions above this threshold will be missing and all spurious interactions below this threshold will be retained. 7 Experiments on simulated biological data Since no miRNAs/mRNAs interactions dataset exist where actual interactions are known, we needed to simulate the interaction graphs in a controlled wayEdge selection in a noisy graph by concept analysis 9 to test our method. The scores were simulated by fitting a GMM to the data (solid line in Figure 3). The degree of miRNAs and mRNAs vertices were determined using score dependent degree distributions for true interactions and spurious interactions. We have generated 1,000 random miRNA/mRNA interactions graphs, keeping the number of miRNAs, mRNAs and interactions in real data: 41 miRNAs, 1,479 mRNAs and 6,763 interactions. Two thresholds have been tested, -0.3 and a more stringent one of -0.35, to restrict the number of spurious interactions while keeping a high number of true interactions (see Figure 3). A threshold defines the set of original interactions (true interactions below the threshold), spurious interactions (false interactions below the threshold) and missing interactions (true interactions above the threshold). For each graph and each threshold, the concept lattice has been computed and the ratio of deleted original and spurious relations has been obtained for α = 1. Results for the delete operation are shown in Table 2. Table 2. Mean and stand. dev. (sd) on simulated data of the percentage of original and spurious relations deleted by the repair process with α = 1. miRNAs mRNAs interactions threshold original (%) spurious (%) mean sd mean sd 41 1,479 6,763 -0.3 5.6 3.2 8.7 4.5 -0.35 22.5 4.9 34.8 7.6 In contrast to results on simulated noisy contexts, deletions affects both original and spurious relations. For both thresholds, the mean and standard deviation for spurious interactions is slightly higher than for the original interactions. A comparison between the two thresholds shows that the more stringent threshold has a higher mean and standard deviation. Interestingly, the same behaviour is observed when comparing simulated noisy contexts of size 40 × 40 with a noise probability of 0.01 or 0.05 (Table 1). 8 Conclusion We have formalized the effect of noise on a microRNAs/mRNAs interaction graph by considering it has a formal context. Two types of noise may occur, namely spurious and missing relations. We showed that noise has the effect of increasing the set of original concepts linearly or exponentially respectively with respect to purely spurious or missing concepts. In most cases, there exists some intersection/inclusion relation between noisy concepts observable as a direct or a sibling relation in the modified concept lattice, which allows to recover the original concepts. Based on these observations, two repair operations: delete and add have been defined for spurious and missing relations. These operations are applied on subsets of concept pairs, looking for the optimization of a score based on minimum description length principle. We have shown on simulated noisy10 Valentin Wucher, Denis Tagu, and Jacques Nicolas contexts that there exists a range of context sizes such that our method allows to increase the sensitivity of a highly specific prediction with the delete operation. In order to test our method on more realistic data, we used a set of simulation parameters derived from a real miRNAs/mRNAs interaction graph. Unfortunately, the discriminative power of the repairing method on these data is insufficient as it deletes a significant number of true interactions. Additional work is necessary to increase the deletion rate of spurious relations, to improve the discriminative power of the method for small and very large contexts and greater levels of noise. In the continuation of this work, we will also evaluate how well the add operation performs on the same data. Another perspective is to check how missing relations detected by our method compare to missing relations in approximated concepts, i.e. the 0 in dense rectangles of 1 (see section 3). Acknowledgement This work was founded by ANR project miRNAdapt and R´egion Bretagne. The authors thank R. Jullien, V. Picard and C. Galiez for constructive remarks on the paper. References BELOHLAVEK, R. and VYCHODIL, V. (2006): Replacing full rectangles by dense rectangles: concept lattices and attribute implications. In: IEEE Information Reuse and Integration. IEEE, 117-122. BESSON, J., ROBARDET, C. and BOULICAUT, J. F. (2005). Mining formal concepts with a bounded number of exceptions from transactional data. In : Knowledge Discovery in Inductive Databases. Springer, Berlin-Heidelberg, 33-45. BLACHON, S., PENSA, R. G., BESSON, J., ROBARTDET, C., BOULICAUT, J. F. and GANDRILLON, O. (2007): Clustering formal concepts to discover biologically relevant knowledge from gene expression data. In silico biology, 7(4), 467-483. BRYAN, K., TERRILE, M., BRAY, I. M., DOMINGO-FERNANDEZ, R., WATTERS, K. M., ´ KOSTER, J., VERSTEEG, R. and STALLINGS, R. L. (2014): Discovery and visualization of miRNAmRNA functional modules within integrated data using bicluster analysis. Nucleic Acids Research, 42(3), e17. CHIL, S. W., ZANG, J. B., MELE, A. and DARNELL R. B. (2009): Argonaute HITS-CLIP decodes microRNAmRNA interaction maps. Nature, 460, 479-486. ENRIGHT, A. J., JOHN, B., GAUL, U., TUSCHL, T., SANDER, C. and Marks D. S. (2003): MicroRNA targets in Drosophila. Genome biology, 5(1), R1-R1. GALLOT, A., SHIGENOBU, S., HASHIYAMA, T., JAUBERT-POSSAMAI, S. and TAGU, D. (2012): Sexual and asexual oogenesis require the expression of unique and shared sets of genes in the insect Acyrthosiphon pisum. BMC genomics, 13(1), 76. GANTER, B., and WILLE, R. (1999): Formal Concept Analysis: Mathematical Foundations. Springer, Berlin. GRIMSON, A., FARH, K. K. H., JOHNSTON, W. K., GARRETT-ENGELE, P., LIM, L. P., and BARTEL, D. P. (2007): MicroRNA targeting specificity in mammals: determinants beyond seed pairing. Molecular cell, 27(1), 91-105. JANGA S. C. and VALLABHANENI S. (2011): MicroRNAs as Post-Transcriptional Machines and their Interplay with Cellular Networks. In: RNA Infrastructure and Networks. Springer, New-York, 59-74. KLIMUSHKIN, M., OBIEDKOV, S. and ROTH, C. (2010): Approaches to the Selection of Relevant Concepts in the Case of Noisy Data. In: L. Kwuida and B. Sertkaya (Eds.): Formal Concept Analysis. Springer, Berlin-Heidelberg, 255-266. REYES-HERRERA, P. H., FICARRA, E., ACQUAVIVA A. and MACII E. (2011): miREE: miRNA recognition elements ensemble. BMC Bioinformatics, 12, 454-473. THE INTERNATIONAL APHID GENOMICS CONSORTIUM (2010): Genome Sequence of the Pea Aphid Acyrthosiphon pisum. PLoS Biol, 8(2), e1000313.Physiological Entomology (2013) 38, 117–125 DOI: 10.1111/phen.12021 REVIEW ARTICLE Genome expression control during the photoperiodic response of aphids G A E L L E T R I O N N A I R E , V A L E N T I N W U C H E R and D E N I S T A G U INRA Rennes, UMR IGEPP, Le Rheu, France Abstract. Aphids are major crop pests and show a high level of phenotypic plasticity. They display a seasonal, photoperiodically-controlled polyphenism during their life cycle. In spring and summer, they reproduce efficiently by parthenogenesis. At the end of summer, parthenogenetic individuals detect the transition from short nights to long nights, which initiates the production of males and oviparous females within their offspring. These are the morphs associated with the autumn season. Deciphering the physiological and molecular events associated with this switch in reproductive mode in response to photoperiodic conditions is thus of key interest for understanding and explaining the remarkable capacity of aphids to adapt to fluctuations in their environment. The present review aims to compile earlier physiological studies, focussing on the neuroendocrine control of seasonal photoperiodism, as well as a series of large-scale transcriptomic approaches made possible by the recent development of genomic resources for the model aphid species: the pea aphid Acyrthosiphon pisum. These analyses identify genetic programmes putatively involved in the control of the initial steps of detection and transduction of the photoperiodic signal, as well as in the regulation of the switch between asexual and sexual oogenesis within embryonic ovaries. The contribution of small RNAs pathways (and especially microRNAs) in the post-transcriptional control of gene expression, as well as the role of epigenetic mechanisms in the regulation of genome expression associated with the photoperiodic response, is also summarized. Key words. Aphids, epigenetic mechanisms, neuroendocrine control, microRNAs, photoperiodism, transcriptomic analysis. Introduction Photoperiodism in the living world Demographic success and the survival of most organisms is highly dependent on their ability to cope with and respond to a variety of environmental factors that can be either biotic or abiotic. Biotic factors mainly correspond to pathogens, parasites or predators that limit the development of a given species. Abiotic factors mainly include temperature, humidity and photoperiod, and their combined and continuous fluctuations across seasons can have a strong impact on the fitness of a wide range of organisms. To face the constant modifications of environmental Correspondence: Gael Le Trionnaire, INRA Rennes, UMR ¨ 1349 IGEPP, BP 35327, 35657 Le Rheu, Cedex, France. Tel.: +33 2 2348 51 65; e-mail: gael.letrionnaire@rennes.inra.fr factors, organisms have developed strategies enabling their long-term adaptation to season alternation. The most common and perhaps reliable mechanism is known as photoperiodism, where organisms can detect variations of day length that occur during the year and use them as signals to trigger the establishment of phenotypic/behavioural modifications, allowing their adaptation to seasons. Manifestations of photoperiodism are widespread amongst a variety of organisms, such as fungi, plants and animals. Plants synchronize their life cycle with season alternation. Arabidopsis thaliana is a facultative long-day plant because flowering is promoted by long days and delayed under short-day conditions. By contrast, flowering time in rice is induced by short days (Yanovsky & Kay, 2003). In numerous species of birds, reproduction and migration timing are controlled by endogenous circannual rhythmicity. The expression (or not) of such rhythms depend on the photoperiod and its fluctuation across seasons (Gwinner, 2003). Humans are also sensitive to photoperiod changes because afflictions such © 2013 The Royal Entomological Society 117118 G. Le Trionnaire et al. as seasonal affective disorder can be diagnosed at the arrival of autumn and winter (Davis & Levitan, 2005). In invertebrates, insects are striking examples of organisms displaying a photoperiodic response. Cold tolerance, migration and growth rate regulation are common responses of insects to day-length changes. However, the two most striking examples of photoperiodism within the insects are diapause and the appearance of seasonal morphs. Diapause is an arrest of development during the life cycle of the insect that allows the anticipation of adverse environmental conditions (drought or cold) and is often triggered by photoperiod (Saunders et al., 2004). The production of seasonal morphs in aphids is historically documented (Tagu et al., 2008): the detection of short days induces a shift from clonal, viviparous reproduction (parthenogenesis) to sexual, oviparous reproduction. A switch from viviparous to oviparous embryogenesis thus occurs within the individuals that detect changes in day length (Tagu et al., 2005). At the population scale, lineages that are able to respond to photoperiodic cues coexist with lineages that have lost this ability and reproduce asexually during their life cycle (Simon et al., 2011). Depending on the type of organism, photoperiodic response can either result in a behavioural change or in the expression of a plasticity of the phenotype that will be more suited to the future environmental conditions. In this context, aphids represent an extreme case of phenotypic plasticity because the sexual morphs produced by asexual individuals that experience photoperiod changes correspond to different and contrasting phenotypes. This discrete phenotypic plasticity is also called polyphenism (Simpson et al., 2011). In aphids, photoperiodism is thus achieved by a plasticity of the reproductive mode. Understanding the molecular basis of this phenomenon offers the possibility not only to decipher the molecular mechanisms involved in the detection and transduction of the photoperiodic signal, but also to understand the molecular events governing the transition from an asexual to a sexual reproductive mode and embryogenesis. Aphids represent an ideal model for understanding the direct phenotypic consequences of the modification of photoperiod. The present review first introduces the aphid model and then focusses on the physiological and transcriptomic bases of key steps of this phenomenon such as the detection and transduction of the photoperiodic signal and the switch from asexual to sexual oogenesis within embryonic ovaries. The second part of this review focusses on the putative role of post-transcriptomic and epigenetic mechanisms associated with the establishment of phenotypic plasticity in response to the photoperiodic changes in aphids. Aphids: major crop pests remarkably adapted to their environment Aphids are phloem sap-feeding hemipterous insects that can cause significant economic losses on various crops such as wheat or maize. In temperate and continental regions, most aphid species reproduce quickly and efficiently by viviparous parthenogenesis during spring and summer. At the arrival of autumn, parthenogenetic individuals detect short days. Once sensed, this signal is transmitted to the embryos, which, in turn, direct their development towards becoming sexual adults. The sexual individuals produced (i.e. males and oviparous females) mate and females lay cold-resistant eggs that can withstand potentially adverse winter conditions (Fig. 1). The aphid genome is thus highly ‘plastic’ in the sense that it is able to predict and respond to environmental parameters (seasons) that can be strongly limiting for their survival and general fitness. Aphids are insects that are remarkably adapted to their environment by being able to respond to its fluctuation, explaining their success as one of the major crop pests. Understanding the molecular events regulating the photoperiodic response and more generally phenotypic plasticity in aphids is of major fundamental and agronomical interest for developing sustainable crop pest management strategies. The development of genomic resources within the aphid scientific community in the early years of the 21st Century has allowed significant progress. The pea aphid Acyrthosiphon pisum genome has recently been sequenced and annotated (Richards et al., 2010), which constitutes an absolute pre-requisite for a wide range of genetic and genomic analyses. Physiological and transcriptomic bases of photoperiodism in aphids Photoperiodic signal, photoperiodic clock and photoreceptors. Studies on photoperiodism in aphids started to emerge in the second part of the 20th Century, when it was demonstrated that aphids could measure scotophase (night length). For each species, there is a minimum length of scotophase (i.e. critical night length) above which the induction of sexual morphs is effective (Lees, 1973). A minimum number of consecutive long nights is also necessary to trigger the reproductive mode switch under controlled conditions. It can vary between species, although an average of at least ten consecutive long nights is sufficient to trigger the reproductive mode switch. This might be because day length is interpreted as an adaptive strategy to limit a too rapid switch that could be induced by a short period of exposure to long-nights. Complementary studies showed that temperature could also modulate the photoperiodic response (Lees, 1989). The nature of the photoperiodic clock involved in detecting short days has nevertheless not been clearly stated. The involvement of the circadian clock in the photoperiodic response in aphids has been questioned for a long-time. Three main theoretical models for the mechanism of insect photoperiodic clocks have been proposed, two of which suggest an involvement of the circadian clock (Internal or External Coincidence Model), whereas the third (‘Hourglass’ model) does not involve any circadian component. These models are at their essence theoretical and are still largely debated (Danks, 2005; Saunders, 2005). The accumulation of molecular evidence would thus clearly help in discriminating these different models. A recent study (Cortes´ et al., 2010) revealed the presence in the pea aphid genome of orthologues for several well-known Drosophila circadian clock genes such as period, timeless, Clock, vrille and Pdp1 . Expression analyses confirmed a circadian rhythmicity for some of those © 2013 The Royal Entomological Society, Physiological Entomology, 38, 117–125Seasonal photoperodism in aphids 119 Fig. 1. Pea aphid life cycle and the production of seasonal morphs. In sexual lineages, aphids reproduce efficiently and quickly by parthenogenesis during spring and summer. At the end of summer, parthenogenetic individuals detect short days and initiate the production of sexual individuals in their offspring. Such individuals that produce sexual forms are also called ‘sexuparae’. Autumn morphs (i.e. sexual females and males) are thus produced and will mate to produce cold-resistant eggs that can overcome winter. genes, as well as a significant effect of photoperiod on the amplitude of oscillations. Nevertheless, the exact contribution of the circadian clock to the photoperiodic response remains unknown. The nature and localization of putative photoperiodic photoreceptors has also been investigated. Antibodies directed against a wide range of opsins and other phototransduction proteins were tested and shown to be localized in the ventral anterior region of the protocerebrum, suggesting that the photoperiodic photoreceptors could be located in this area of the brain (Gao et al., 1999). The molecular nature and the precise function of these receptors in the photoperiodic response remain unknown. Neuroendocrine control. In insects, both endocrine glands and neurosecretory cells can release hormonal components. Steel & Lees (1977) showed that one of the five groups of neurosecretory cells from the protocerebrum (Cell Group I) was involved in the photoperiodic response because microcauterization of those cells abolished the response. These cells have long axons spreading into the abdomen of the aphid. Steel & Lees (1977) suggested that secretions (hormones or neuropeptides) from these cells are transported all along the axon and released at specific sites close to the ovarioles, which are the target tissues of the photoperiodic signal, although this has never been demonstrated. The nature of these neurosecretory molecules remains unknown. A recent combination of bioinformatics analyses, brain peptidomics and cDNA analyses allowed the establishment of a catalogue of pea aphid neuropeptides and neurohormones. Forty-two genes encoding neuropeptides and neurohormones were identified. The neuropeptides accumulated in the Group I of neurosecretory cells are probably rich in cysteine (because they respond to fuchsin staining). By correlating the type of neuropeptides rich in cysteine present in the pea aphid genome, and also the knowledge of neuropeptides secreted in other insects, it appears © 2013 The Royal Entomological Society, Physiological Entomology, 38, 117–125120 G. Le Trionnaire et al. that insulins could represent good candidates for neuropeptides involved in the regulation of photoperiodism (Huybrechts et al., 2010). This hypothesis appears to be realistic considering the results obtained from recent transcriptomic analyses of the photoperiodic response (Le Trionnaire et al., 2009), which show the differential expression of transcripts involved in the insulin signalling pathway (see below). The involvement of Juvenile Hormones (JH) (known to regulate a wide range of developmental processes in insects) in the control of photoperiodism has also been studied. Topical application of JH or Kinoprene (a JH analogue) on the abdomen of viviparous aphids producing sexual individuals resulted in the reversion of the response to production of asexual individuals (Hardie & Lees, 1985). JH thus appears to play a role in the transduction of the photoperiodic signal. The role of melatonin in the photoperiodic response has also been investigated. In insects, this hormone is involved in the regulation of the visual system and displays a circadian rhythm of expression in head tissues (Bloch et al., 2012). Long-day, parthenogenetic aphids treated with this hormone produce sexual individuals in their offspring instead of asexual individuals (Gao & Hardie, 1997). These results indicate that melatonin might also play a role in the transduction of the photoperiodic signal. To further elucidate the molecular bases of the photoperiodic response, a fine analysis of the genetic programmes set up during this process was needed. Genetic programmes associated with photoperiodic signal detection and transduction. Initial studies used methods such as the differential display reverse transcriptasepolymerase chain reaction (DD-RT-PCR) or suppression subtractive hybridization to identify transcripts differentially expressed between aphids reared under long days (producers of parthenogenetic progeny) and short days (producers of sexually-reproducing offspring). A transcript homologous to an amino acid transporter within GABAergic neurones was first identified by DD-RT-PCR as being over-expressed in short-day, sexual-offspring-producing individuals (Ramos et al., 2003). A putative role for this transcript in the transduction of the photoperiodic signal was proposed. Suppression subtractive hybridization approaches coupled with quantitative RT-PCR then allowed the identification of transcripts coding cuticular proteins and a β-tubulin that could play a role in hormone responses (Cortes´ et al., 2008). The precise function of these candidate genes in the regulation of photoperiodism is nevertheless unknown. Genomic resources such as expressed sequence tag libraries from various aphid tissues were generated (Sabater-Munoz ˜ et al., 2006). These libraries were used to build two generations of cDNA microarrays containing, respectively, 1700 (Le Trionnaire et al., 2007) and 7000 transcripts (Le Trionnaire et al., 2009, 2012). Heads of aphids reared under long-day or short-day photoperiods were collected at five stages of development during the process of sexual morph induction. By focusing on heads and cerebral tissues, the aim was to capture the genetic programmes set up during the initial steps of photoperiodic signal detection and transduction (Le Trionnaire et al., 2007, 2009). Microarray hybridizations combined with proteomics approaches (two dimensional differential in gel electrophoresis) revealed the differential expression of a significant number of transcripts (10% of spotted cDNAs) and peptides within the heads of aphids in response to short photoperiods, allowing the identification of several genetic programmes that could be associated with the photoperiodic response (Fig. 2). Among these, a subset of transcripts showed homologies with Drosophila melanogaster genes involved in the visual system such as Arrestin and Calnexin, known to play a role in rhodopsin phototransduction and maturation. This confirmed an earlier study showing that antibodies against a vertebrate arrestin strongly labelled the putative brain photoperiodic photoreceptors (Gao et al., 1999). Another set of transcripts were related to the nervous system, with several transcripts differentially expressed displaying homologies with Drosophila genes involved in axon guidance (Rho I, NLaz, Capulet and Wunen) and neurotransmission (Kinesin, Dunc 10-4A, Dunc 13-4A and a DEP-containing domain protein), strongly suggesting an involvement of the nervous system in the transduction of the photoperiodic signal. Insulin signalling might also play a role because one transcript encoding an insulin-degrading enzyme and another one coding for an insulin receptor were found to be differentially expressed in response to short photoperiods. Unexpectedly, a large number (n = 38) of cuticular protein transcripts appeared to be regulated. Most of them (n = 25) contained a RR domain (RR1 or RR2) that allows chitin-cuticular protein linkage (Gallot et al., 2010). Most of these transcripts were down-regulated under short-day photoperiods, suggesting a putative relaxing of the chitin-cuticular protein network in response to short days. Cuticle also contains N-β alanyl dopamine (NBAD) that allows linkage between cuticular proteins to produce hard-cuticle or sclerotization. NBAD is made of dopamine and β-alanine and the enzyme responsible for this conjugation is coded by the ebony gene. β-Alanine is synthesized from aspartate by the action of an enzyme coded by black gene. Transcriptomic analyses revealed that ebony and black transcripts were downregulated in short-day reared aphids. Consequently, it can be hypothesized that less NBAD is synthesized under short-day conditions. This suggests that short photoperiods could result in the reduction of sclerotization level in the aphid heads, thereby modifying cuticle structure. These observations also raise the question of the level of dopamine in aphid heads under short-day conditions. Indeed, if less NBAD is synthesized, is the general level of dopamine affected? Dopamine synthesis involves two main enzymes: tyrosine hydroxylase (th), which metabolizes tyrosine into l-3,4-dihydroxyphenylalanine (lDOPA), and dopa-decarboxylase (ddc), which metabolizes lDOPA into dopamine. RT-PCR experiments showed that th and ddc transcripts were down-regulated in short-day reared aphid heads, suggesting that short photoperiods could result in a diminution of dopamine synthesis within aphid brains (Gallot et al., 2010). Because dopamine is a neurotransmitter (and a neurohormone), it is tempting to speculate that this molecule might be involved in the transduction of the photoperiodic signal. A recent study in Locusta migratoria demonstrated that the dopamine synthesis pathway was involved in the transition © 2013 The Royal Entomological Society, Physiological Entomology, 38, 117–125Seasonal photoperodism in aphids 121 from the solitary to the gregarious phase (Ma et al., 2011). More precisely, the data showed that th (tyrosine hydroxylase), henna and vat1 (vesicle amino-acid transporter), three genes coding for enzymes involved in dopamine biosynthesis and synaptic release, were significantly down-regulated during the solitary phase. Functional and pharmacological analyses confirmed that the dopamine pathway was clearly involved in the behavioural transition (Ma et al., 2011). Because such a behavioural change in the locust is a case of phase polyphenism (but not triggered by day length changes), a clear parallel with reproductive polyphenism (triggered by photoperiod shortening) can be made and the dopamine biosynthesis pathway might also be involved in the transition from asexual to sexual reproduction in response to short days in aphids. To address this, the level of expression, the localization and the functional characterization of pale, vat1 and henna transcripts in both long- and short-day reared aphids all have to be investigated. It is striking to emphasize that some of these transcriptomic modifications observed on aphids reared under controlled conditions were also detected in aphids reared outdoor under natural photoperiodic conditions. However, the differential expression of several heat-shock protein transcripts also suggested a strong response of aphids to additional environmental parameters such as temperature (Le Trionnaire et al., 2012). Transcriptomic modifications associated with the transition from asexual to sexual oogenesis within embryonic ovaries. Once short days/long nights are detected by aphids, this signal has to be transduced to the target tissues, which are the embryos. A recent large-scale transcriptomic approach thus aimed to study the consequences of photoperiodic signal detection and transduction on embryo phenotypic plasticity. Transcriptomes from sexual and asexual embryos along a developmental series were compared using an oligo-nucleotide microarray with approximately 24 000 transcripts (Gallot et al., 2012). Based on previous studies (Corbitt & Hardie, 1985), a perfectly synchronized system was developed to target transcriptomic modifications associated only with the asexual to sexual oogenesis transition in the embryonic ovaries. Aphids reared under short photoperiods contain sexual embryos with a haploid meiotic germline. When Kinoprene (a JH analogue) is applied to the dorsal side of the abdomen, these embryos reverse their reproductive mode and produce asexual embryos containing a diploid non-meiotic germline. Under these conditions, sexual and asexual embryos are perfectly synchronized because the photoperiod does not change. This fine-tuned experimental design was used to compare the transcriptomes of asexual and sexual embryos at three stages of development: 18, 19 and 20 as defined by Miura et al. (2003). These are the final three developmental stages in aphid embryogenesis and correspond to eye differentiation (stage 18), muscle formation (stage 19) and the mature embryo (stage 20). Kinoprene treatment is performed when embryos are at stage 17 (i.e. the latest stage that responds to the hormonal treatment). After that specific stage, embryos are no longer responsive. This developmental window was chosen to study the direct effect of kinoprene on the sexual to asexual oogenesis switch. Statistical analysis of microarrays hybridization results revealed that only a few transcripts (n = 33) were differentially expressed between the two types of embryos. In situ hybridizations confirmed that most of the transcripts were located within germ cells and/or oocytes of asexual and/or sexual ovaries. Regulated transcripts could be assigned to four main functional categories (Fig. 2). Seven of those are involved in oogenesis, with a few playing a role in oocyte axis formation and specification (orb and nudel) or female meiosis chromosome segregation (nanos). Five transcripts play a role in post-transcriptional regulation, such as polyA-tail stabilization (Pop2 ). Four transcripts are also involved in epigenetic regulations (see below) and three in cell cycle control (cyclin J ). These transcripts may therefore determine the aphid clonal or sexual oogenesis. It was thus revealed that JH signalling might control (directly or indirectly) the reproductive fate of aphid embryos. Combined together, these large-scale transcriptomic approaches allowed the identification of a significant number of candidate transcripts that could play a key role in the detection and transduction of the photoperiodic signal, as well as in the transition from asexual to sexual oogenesis within embryonic ovaries (Fig. 2). The precise function of these different transcripts needs to be tested. The development of stable transgenesis tools remains challenging in aphids, mainly as a result of the complexity of the biological model (telescoping of generations, asexuality with lack of recombination events being predominant during the life cycle). So far, only transitory methods of transcripts silencing (RNA interference) have been developed in aphids with the direct injection of double-stranded RNAs into aphids (Mutti et al., 2006, 2008; Jaubert-Possamai et al., 2007; Shakesby et al., 2009) or by feeding aphids on plants expressing double-stranded RNAs in phloem sap (Pitino et al., 2011; Pitino & Hogenhout, 2013). These technologies displayed various levels of efficiency, mainly depending on the tissue localization of targeted transcripts. Pharmacological approaches (hormone or neurotransmitters injected or topically applied) appear to be a promising alternative for validating the function of specific candidate transcripts or at least signalling/biosynthetic pathways. Nevertheless, strong and efficient methods to modify gene expression in aphids are still missing. Contribution of post-transcriptional and epigenetic mechanisms The global expression of a genome is the result of a combination of transcriptomic and post-transcriptomic events that contribute to the establishment of a given phenotype. Small noncoding RNAs and especially microRNAs have emerged in the last years as key post-transcriptional regulators of gene expression (Kim et al., 2009). However, the expression of these different molecules (mRNAs and small RNAs) depends on the accessibility of corresponding genomic regions to transcriptional machinery or transcriptional modulators/regulators. This so-called ‘epigenetic’ state of the genome will thus be at © 2013 The Royal Entomological Society, Physiological Entomology, 38, 117–125122 G. Le Trionnaire et al. Fig. 2. Hypothetical model for regulation of seasonal photoperiodism in aphids. Recent large-scale transcriptomic analyses combined with earlier physiological studies allowed the identification of genetic programmes that might play key roles in the regulation of the photoperiodic response. The initial steps of detection and transduction of the photoperiodic signal appear to be associated with a modification of cuticle structure that could be linked to a reduction in dopamine levels within aphid heads. Visual and brain nervous systems might also play a role in this signalling step. Juvenile Hormones were also shown to play a central role in the endocrine transduction of this signal from the brain to the target tissues displaying the reproductive mode switch in the embryos. Later steps corresponding to a shift from asexual to sexual oogenesis appear to be associated with the differential expression of transcripts involved in germline fate and oogenesis, transcriptional and post-transcriptional control, as well as epigenetic modifications. the basis of global genome expression and shape phenotypes. A given epigenome can be explained by a combination of DNA methylation patterns and chromatin structure and organization. Integrating post-transcriptional and epigenetic data with already well-identified transcriptomic changes associated with the photoperiodic response should thus allow the fine characterization of genome expression modifications associated with seasonal photoperiodism in aphids. MicroRNAs and alternative morph production. The first catalogue of pea aphid microRNAs has been recently completed (Legeai et al., 2010). A combination of bioinformatic prediction of putative hairpin structures (typical of pre-microRNAs) on the genome and high-throughput sequencing of small RNAs from the whole bodies of parthenogenetic individuals allowed the identification of 149 microRNAs, including 55 conserved and 94 new microRNAs. The level of expression of candidate microRNAs between different aphid morphs (parthenogenetic females producing asexual progeny, oviparous/sexual females and parthenogenetic females producing sexual offspring, also called sexuparae) was then tested using a dedicated microRNA chip. Statistical analyses allowed the identification of 17 microRNAs (12 mature miRNAs and 5 miR*) displaying morph-specific profiles of expression. Seven microRNAs were differentially expressed between oviparous females and sexuparae, and nine were differentially expressed between oviparous and parthenogenetic females. Interestingly, ap-let-7 and ap-mir-100 were up-regulated in oviparous females © 2013 The Royal Entomological Society, Physiological Entomology, 38, 117–125Seasonal photoperodism in aphids 123 compared with parthenogenetic and sexuparae females. Their Drosophila homologues let-7 and miR-100 have been reported to play a role in metamorphosis and the response to ecdysone, a hormone involved in insect development. Ap-miR-34 also showed different expression levels between sexuparae and parthenogenetic females, which differ by the type of embryos they contain (sexual versus asexual). Interestingly, miR-34 is regulated in D. melanogaster by ecdysone as well as by JH. These microRNAs might thus target transcripts that could play key roles in morph specification and, by extension, in the photoperiodic response. Sequencing and annotation of the pea aphid genome (IAGC, 2010) revealed that it displayed a high rate of gene duplication. For example, it shows an unexpected expansion of the microRNA pathway for genes that are highly conserved and have only a single copy in most organisms (Jaubert-Possamai et al., 2010; Ortiz-Rivas et al., 2012). There are indeed two copies of the microRNAs pathway-specific dcr1 and ago1 genes. One of the two copies (dic1-b and ago1-b) shows accelerated evolution. RT-PCR experiments also showed a morph-biased expression of these genes showing an accelerated evolution (e.g. dic1-b and ago1-b). This observation raises questions about the specific function of these duplicated copies in the microRNAs pathway within specific aphid morphs, especially in morphs displaying the reproductive mode switch. Further functional analysis will be needed to assess the specific roles of these duplicated copies. However, systems biology could possibly leverage the lack of functional characterization. MicroRNAs and mRNAs work as a network of interactions because thousands of such interactions are usually predicted for one given species and one specific trait. Genes network and graphs methods are currently being developed to answer this question. A graph can integrate different information: microRNAs–mRNAs interactions, their differential level of expression between two conditions, and additional relationships, such as regulation by transcription factors. This integrated graph allows a global view of a given biological phenomenon. The constitution of such networks in the course of asexual to sexual oogenesis within embryonic ovaries might thus help identify new key regulators of photoperiodism in aphids. DNA methylation in the pea aphid A. pisum In mammals, DNA methylation is usually associated with promoter regions and highly methylated regions are correlated to low transcription. This methylation pattern is somehow different in insects. Even if some insect species such as beetles and Drosophila appear to have lost DNA methylation (Patalano et al., 2012), pea aphid as well as honey bee Apis mellifera or locust genome annotation confirmed that all the genes from the DNA methylation pathway are present (Walsh et al., 2010; Hunt et al., 2010). Methylation appears to be important in social insects such as honey bees, which also exhibit a phenotypic plasticity (caste morphs). A recent study showed that 550 genes displayed a differential methylation pattern between queens and workers. Strong correlations between methylation patterns and splicing sites were also found. It was proposed that modulation of alternative splicing could be one of the mechanisms by which DNA methylation is linked to gene regulation in the context of phenotypic plasticity (Lyko et al., 2010). In the case of the pea aphid, Walsh et al. (2010) showed that 0.69% of all cytosines were methylated. Methylation appears to be restricted to gene coding sequences at CpG sites. The precise role of DNA methylation in reproductive mode plasticity in response to photoperiod has not been studied yet, although some studies are currently underway aiming to analyse the role of DNA methylation in the regulation of dispersal polyphenism (Srinivasan & Brisson, 2012). It would thus be of great interest to evaluate the contribution of this epigenetic pathway to the regulation of photoperiodism by evaluating in details DNA methylation patterns between morphs. Chromatin organization and histone modifications. Chromatin is defined as the association between DNA and proteins (histones and nonhistone proteins). Nucleosomes are sub-units of chromatin made of a DNA fragment of 140 bp wrapped around a protein complex of two copies of each histone protein (H2A, H2B, H3 and H4). Nucleosome numbers and organization all along the chromosome can shape accessibility of genomic regions such as promoters to transcription factors or other regions such as enhancers to regulatory molecules. Nucleosome occupancy can be studied by recently developed methods such as FAIRE-seq (formaldehyde-associated isolation of regulatory elements; Kaplan et al., 2008) and MAINE-seq (MNase-mediated purification of mononucleosomes; Simon et al., 2012) that allow the isolation of proteinfree DNA and histone-bound DNA, respectively. Such methods are of great interest for identifying genomic regions epigenetically regulated during a given phenomenon. Nucleosomic histones can also be modified post-translationally. Histone residues such as specific lysines (K) can be methylated or acetylated. The combination of different histone modifications will have consequences for the level of DNA accessibility. Different chromatin states can then be defined by a combination of several histone modification marks. For example, genome-wide profiling of a combinatorial pattern of enrichment or depletion for specific histone modification marks has been established for all the chromosomes of Drosophila, allowing the establishment of a nine-state model for Drosophila chromatin (Kharchenko et al., 2011). So far in aphids, only H3K9me mark and HP1 proteins have been localized on heterochromatic regions (Mandrioli & Borsatti, 2007). More recently, it has been shown that the pea aphid genome possesses a complement of metazoan histone-modifying enzymes with greater gene family diversity than that seen in a number of other arthropods. Several genes have undergone recent duplication and divergence, potentially enabling greater combinatorial diversity among the chromatinremodelling complexes (Rider et al., 2010). The comparison of sexual and asexual aphid transcriptomes (Gallot et al., 2012) demonstrated the differential expression of transcripts coding proteins involved in epigenetic mechanisms, such as Histones H2B.3 and H1, which are known to participate to chromatin © 2013 The Royal Entomological Society, Physiological Entomology, 38, 117–125124 G. Le Trionnaire et al. assembly and disassembly. Another example concerns Suv4- 20H1 , which is involved in histone methylation. This fine comparison of sexual and asexual embryos transcriptomes already suggests that some epigenetic regulations involving chromatin structure modifications are occurring during phenotypic plasticity. Depicting the type of histone modifications associated with the reproductive mode switch of embryos in response to photoperiodic cues would thus be of great interest. Perspectives The regulation of photoperiodism in aphids and its effects on the embryo phenotypic plasticity has been extensively studied at the transcriptomic level. These large-scale studies have allowed the identification of some of the genetic programmes involved in the photoperiodic signal detection and transduction and in the embryos’ reproductive mode switch. These studies have established an extensive catalogue of transcripts, hormones and neurotransmitters (e.g. insulin, dopamine) as candidates for further functional and pharmacological validation experiments. The recent and on-going development of high-throughput sequencing technologies now allows the identification of key post-transcriptional regulators of gene expression (such as microRNAs), as well as the mapping of distinct epigenetic marks (nucleosome occupancy, histone modification marks and DNA methylation patterns). The establishment of alternative phenotypes in response to environmental cues such as photoperiod definitely involves a combination of epigenetic, transcriptomic and post-transcriptomic regulatory events. An integrative view [in accordance with the modENCODE model (Celniker et al., 2009) but for a non-model organism such as aphids] of the contribution of these different mechanisms thus appears to be an ideal approach that should allow the identification of key genomic regions involved in the regulation of phenotypic plasticity, especially in the case of the aphid photoperiodic response. Acknowledgements Jennifer Brisson (University of Nebraska) is sincerely thanked for her help in reading and correcting this manuscript. References Bloch, G., Hazan, E. & Rafaeli, A. (2012) Circadian rhythms and endocrine functions in adult insects. Journal of Insect Physiology, 59, 56–69. Celniker, S.E., Dillon, L.A.L., Gerstein, M.B. et al. (2009) Unlocking the secrets of the genome. Nature, 459, 927–930. Corbitt, T.S. & Hardie, J. (1985) Juvenile hormone effects on polymorphism in the pea aphid, Acyrtosiphon pisum. Entomological Experimental Application, 38, 131–135. Cortes, T., Tagu, D., Simon, J. ´ et al. (2008) Sex versus parthenogenesis: a transcriptomic approach of photoperiod response in the model aphid Acyrthosiphon pisum (Hemiptera: Aphididae). Gene, 408, 146–156. Cortes, T., Ortiz-Rivas, B. & Martínez-Torres, D. (2010) Identification ´ and characterization of circadian clock genes in the pea aphid Acyrthosiphon pisum. Insect Molecular Biology, 19, 123–139. Danks, H. (2005) How similar are daily and seasonal biological clocks? Journal of Insect Physiology, 51, 609–619. Davis, C. & Levitan, R.D. (2005) Seasonality and seasonal affective disorder (SAD): an evolutionary viewpoint tied to energy conservation and reproductive cycles. Journal of Affective Disorders, 87, 3–10. Gallot, A., Rispe, C., Leterme, N. et al. (2010) Cuticular proteins and seasonal photoperiodism in aphids. Insect Biochemistry and Molecular Biology, 40, 235–240. Gallot, A., Shigenobu, S., Hashiyama, T. et al. (2012) Sexual and asexual oogenesis require the expression of unique and shared sets of genes in the insect Acyrthosiphon pisum. BMC Genomics, 13, 76. Gao, N. & Hardie, J. (1997) Melatonin and the pea aphid, Acyrthosiphon pisum. Journal of Insect Physiology, 43, 615–620. Gao, N., von Schantz, M., Foster, R.G. & Hardie, J. (1999) The putative brain photoperiodic photoreceptors in the vetch aphid, Megoura viciae. Journal of Insect Physiology, 45, 1011–1019. Gwinner, E. (2003) Circannual rhythms in birds. Current Opinion in Neurobiology, 13, 770–778. Hardie, J. & Lees, A. (1985) The induction of normal and teratoid viviparae by a juvenile hormone and kinoprene in two species of aphids. Physiological Entomology, 10, 65–74. Hunt, B.G., Brisson, J.A., Soojin, V.Y. & Goodisman, M.A. (2010) Functional conservation of DNA methylation in the pea aphid and the honeybee. Genome biology and evolution, 2, 719. Huybrechts, J., Bonhomme, J., Minoli, S. et al. (2010) Neuropeptide and neurohormone precursors in the pea aphid, Acyrthosiphon pisum. Insect Molecular Biology, 19, 87–95. Jaubert-Possamai, S., Le Trionnaire, G., Bonhomme, J. et al. (2007) Gene knockdown by RNAi in the pea aphid Acyrthosiphon pisum. BMC Biotechnology, 7, 63. Jaubert-Possamai, S., Rispe, C., Tanguy, S. et al. (2010) Expansion of the miRNA pathway in the hemipteran insect Acyrthosiphon pisum. Molecular Biology and Evolution, 27, 979–987. Kaplan, N., Moore, I.K., Fondufe-Mittendorf, Y. et al. (2008) The DNA-encoded nucleosome organization of a eukaryotic genome. Nature, 458, 362–366. Kharchenko, P.V., Alekseyenko, A.A., Schwartz, Y.B. et al. (2011) Comprehensive analysis of the chromatin landscape in Drosophila melanogaster. Nature, 471, 480–485. Kim, V.N., Han, J. & Siomi, M.C. (2009) Biogenesis of small RNAs in animals. Nature Reviews Molecular Cell Biology, 10, 126–139. Le Trionnaire, G., Jaubert, S., Sabater-Munoz, B. et al. (2007) Seasonal photoperiodism regulates the expression of cuticular and signalling protein genes in the pea aphid. Insect Biochemistry and Molecular Biology, 37, 1094–1102. Le Trionnaire, G., Francis, F., Jaubert-Possamai, S. et al. (2009) Transcriptomic and proteomic analyses of seasonal photoperiodism in the pea aphid. BMC Genomics, 10, 46. Le Trionnaire, G., Jaubert-Possamai, S., Bonhomme, J. et al. (2012) Transcriptomic profiling of the reproductive mode switch in the pea aphid in response to natural autumnal photoperiod. Journal of Insect Physiology, 12, 1517–1524. Lees, A.D. (1973) Photoperiodic time measurement in the aphid Megoura viciae. Journal of Insect Physiology, 19, 2279–2316. Lees, A.D. (1989) The photoperiodic responses and phenology of an english strain of the pea aphid, Acyrthosiphon pisum. Ecological Entomology, 14, 69–78. Legeai, F., Rizk, G., Walsh, T. et al. (2010) Bioinformatic prediction, deep sequencing of microRNAs and expression analysis during © 2013 The Royal Entomological Society, Physiological Entomology, 38, 117–125Seasonal photoperodism in aphids 125 phenotypic plasticity in the pea aphid, Acyrthosiphon pisum. BMC Genomics, 11, 281. Lyko, F., Foret, S., Kucharski, R. et al. (2010) The honey bee epigenomes: differential methylation of brain DNA in queens and workers. PLoS Biology, 8, e1000506. Ma, Z., Guo, W., Guo, X. et al. (2011) Modulation of behavioral phase changes of the migratory locust by the catecholamine metabolic pathway. Proceedings of the National Academy of Sciences of the United States of America, 108, 3882–3887. Mandrioli, M. & Borsatti, F. (2007) Analysis of heterochromatic epigenetic markers in the holocentric chromosomes of the aphid Acyrthosiphon pisum. Chromosome research, 15, 1015–22. Miura, T., Braendle, C., Shingleton, A. et al. (2003) A comparison of parthenogenetic and sexual embryogenesis of the pea aphid Acyrthosiphon pisum (Hemiptera : Aphidoidea). Journal of Experimental Zoology Part B-Molecular and Developmental Evolution, 295B, 59–81. Mutti, N.S., Park, Y., Reese, J.C. & Reeck, G.R. (2006) RNAi knockdown of a salivary transcript leading to lethality in the pea aphid, Acyrthosiphon pisum. Journal of Insect Science, 6, 38. Mutti, N.S., Louis, J., Pappan, L.K. et al. (2008) A protein from the salivary glands of the pea aphid, Acyrthosiphon pisum, is essential in feeding on a host plant. Proceedings of the National Academy of Sciences of the United States of America, 105, 9965–9969. Ortiz-Rivas, B., Jaubert-Possamai, S., Tanguy, S. et al. (2012) Evolutionary study of duplications of the miRNA machinery in aphids associated with striking rate acceleration and changes in expression profiles. BMC Evolutionary Biology, 12, 216. Patalano, S., Hore, T.A., Reik, W. & Sumner, S. (2012) Shifting behaviour: epigenetic reprogramming in eusocial insects. Current Opinion in Cell Biology, 24, 367–373. Pitino, M. & Hogenhout, S.A. (2013) Aphid protein effectors promote aphid colonization in a plant species-specific manner. Molecular Plant–Microbe Interactions, 26, 130–139. Pitino, M., Coleman, A.D., Maffei, M.E. et al. (2011) Silencing of aphid genes by dsRNA feeding from plants. PLOS ONE, 6, e25709. Ramos, S., Moya, A. & Martínez-Torres, D. (2003) Identification of a gene overexpressed in aphids reared under short photoperiod. Insect Biochemistry and Molecular Biology, 33, 289–298. Richards, S., Gibbs, R.A., Gerardo, N.M. et al. (2010) Genome sequence of the pea aphid Acyrthosiphon pisum. PLoS Biology, 8, e1000313. Rider, S. Jr., Srinivasan, D. & Hilgarth, R. (2010) Chromatinremodelling proteins of the pea aphid, Acyrthosiphon pisum (Harris). Insect Molecular Biology, 19, 201–214. Sabater-Munoz, B., Legeai, F., Rispe, C. ˜ et al. (2006) Large-scale gene discovery in the pea aphid Acyrthosiphon pisum (Hemiptera). Genome Biology, 7, 21. Saunders, D.S. (2005) Erwin Bunning and Tony Lees, two giants ¨ of chronobiology, and the problem of time measurement in insect photoperiodism. Journal of Insect Physiology, 51, 599–608. Saunders, D.S., Lewis, R.D. & Warman, G.R. (2004) Photoperiodic induction of diapause: opening the black box. Physiological Entomology, 29, 1–15. Shakesby, A., Wallace, I., Isaacs, H. et al. (2009) A water-specific aquaporin involved in aphid osmoregulation. Insect Biochemistry and Molecular Biology, 39, 1–10. Simon, J.C., Pfrender, M.E., Tollrian, R. et al. (2011) Genomics of environmentally induced phenotypes in 2 extremely plastic arthropods. Journal of Heredity, 102, 512–525. Simon, J.M., Giresi, P.G., Davis, I.J. & Lieb, J.D. (2012) Using formaldehyde-assisted isolation of regulatory elements (FAIRE) to isolate active regulatory DNA. Nature Protocols, 7, 256–267. Simpson, S.J., Sword, G.A. & Lo, N. (2011) Polyphenism in insects. Current Biology, 22, 352–363. Srinivasan, D.G. & Brisson, J.A. (2012) Aphids: a model for polyphenism and epigenetics. Genetics Research International, 2012, 431531. Steel, C.G.H. & Lees, A.D. (1977) The role of neurosecretion in the photoperiodic control of polymorphism in the aphid Megoura viciae. Journal of Experimental Biology, 67, 117–135. Tagu, D., Sabater-Munoz, B. & Simon, J.C. (2005) Deciphering reproductive polyphenism in aphids. Invertebrate Reproduction & Development, 48, 71–80. Tagu, D., Klingler, J.P., Moya, A. & Simon, J.-C. (2008) Early progress in aphid genomics and consequences for plant-aphid interactions studies. Molecular Plant-Microbe Interactions, 21, 701–708. Walsh, T.K., Brisson, J.A., Robertson, H.M. et al. (2010) A functional DNA methylation system in the pea aphid, Acyrthosiphon pisum. Insect Molecular Biology, 19, 215–228. Yanovsky, M.J. & Kay, S.A. (2003) Living by the calendar: how plants know when to flower. Nature Reviews Molecular Cell Biology, 4, 265–275. Accepted 22 March 2013 © 2013 The Royal Entomological Society, Physiological Entomology, 38, 117–125❘és✉♠é Mise en œuvre de cryptosyst`emes bas´es sur les codes correcteurs d’erreurs et de leurs cryptanalyses Gr´egory Landais To cite this version: Gr´egory Landais. Mise en œuvre de cryptosyst`emes bas´es sur les codes correcteurs d’erreurs et de leurs cryptanalyses. Cryptography and Security. Universit´e Pierre et Marie Curie, 2014. French. HAL Id: tel-01097806 https://hal.inria.fr/tel-01097806 Submitted on 22 Dec 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.THÈSE DE DOCTORAT DE l’UNIVERSITÉ PIERRE ET MARIE CURIE Spécialité Informatique École doctorale Informatique, Télécommunications et Électronique (Paris) Présentée par Grégory Landais Pour obtenir le grade de DOCTEUR de l’UNIVERSITÉ PIERRE ET MARIE CURIE Sujet de la thèse : Mise en œuvre de cryptosystèmes basés sur les codes correcteurs d’erreurs et de leurs cryptanalyses soutenue le 18 Septembre 2014 devant le jury composé de : M. Nicolas Sendrier Directeur de thèse M. Pierre Loidreau Rapporteur M. Philippe Gaborit Rapporteur M. Jean-Claude Bajard Examinateur M. Matthieu Finiasz Examinateur Mme Caroline Fontaine Examinateur M. Antoine Joux Examinateur M. Jean-Pierre Tillich ExaminateuriiRemerciements Cette thèse a été effectuée dans l’équipe-projet SECRET de l’Inria ParisRocquencourt. Je vais tenter dans ces lignes de remercier tous ceux qui ont rendu celle-ci possible ainsi que tous ceux qui ont rendu ces années des plus agréables. Je vais commencer par Nicolas Sendrier, mon directeur de thèse qui a pris sous son aile le béotien que j’étais. Merci d’avoir de m’avoir fait partager tes connaissances et ta vision de la recherche ainsi que d’avoir su apprécier mon sens de la concision. Je suis également très reconnaissant envers mes rapporteurs, Pierre Loidreau et Philippe Gaborit qui ont donné de leur temps pour la relecture de ce manuscrit ainsi qu’envers Jean-Claude Bajard, Matthieu Finiasz, Caroline Fontaine, Antoine Joux et Jean-Pierre Tillich qui ont accepté de faire parti de mon jury. Cette thèse n’aurait pas été la même sans la bonne ambiance du projet SECRET. À ce titre, je remercie les permanents de l’équipe Anne Canteaut, André Chailloux, Pascale Charpin, Gaëtan Leurent, Anthony Leverrier, María Naya-Plasencia, Nicolas Sendrier, Jean-Pierre Tillich et je tiens à saluer la bienveillance qu’ils ont envers leurs étudiants. Un grand merci également à Christelle, championne souriante des tâches administratives. Merci également aux étudiants et invités que j’ai pu côtoyer : Adrien, Alexander, Andrea, Antonia, Audrey, Ayoub, Baudoin, Benoît, Bhaskar, Christina, Chrysanthi, Céline, Denise, Dimitris, Joëlle, Julia, Mamdouh, Marion B., Marion V., Mathieu, Matthieu, Maxime, Nicky, Rafael, Sébastien, Stéphane J., Stéphane M., Valentin, Valérie, Vincent, Virginie, Yann H., Yann L.-C.. Un autre grand merci aux teams baby-foot et mots croisés pour tous ces bons moments. Mention spéciale au meilleur bureau du monde, j’ai nommé le bureau 1, où la bonne ambiance règne et où l’on peut toujours trouver quelqu’un à qui demander de l’aide ou avec qui pratiquer la méthode du canard en plastique. À Valentin, pour ses nombreux cours de maths et son humour trop souvent incompris, à Virginie, et ses amis imaginaires, à Marion, et ses pantalons aux couleurs improbables, à Christina, pour sa bienveillance et ses petits plats, à Céline et Ayoub pour leur écoute. Votre page de man préférée vous remercie. Deuxième mention spéciale cette fois pour le bureau 2, empli de iiiiv REMERCIEMENTS personnes sûrement jalouses de ne pas être dans le bureau 1 ; à Joëlle, qui doit prendre conscience que l’ordinateur a plus peur d’elle que l’inverse, à Audrey, enfin une personne ayant de bons goûts culinaires, à María, désolé d’être aussi râleur, et enfin à Benoît pour son aide et son soutien. Dernière mention spéciale (elles commencent à perdre leur coté « spécial » à force) à Mamdouh pour nos discussions scientifiques, à Matthieu pour tout ce qu’il m’a appris, ces séances de pair programming et les cours à l’ENSTA ; à Rafael pour nos partages de chambre et sa ponctualité, ainsi qu’à Vincent pour tous les problèmes que personne n’a jamais rencontré (et ne rencontrera jamais) qu’il m’a demandé de résoudre. Merci également aux membres de l’équipe PEQUAN qui m’ont si bien accueilli, Anastasiia, Benoît, Jean-Claude, Julien, Olga, et Valérie. Je termine par remercier ma famille et mes amis ainsi que la plus importante à mes yeux, ma future épouse, Stéphanie.Table des matières Remerciements iii 1 Introduction 1 1.1 Cryptographie . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Codes correcteurs d’erreurs . . . . . . . . . . . . . . . . . . . 3 1.2.1 Codes linéaires . . . . . . . . . . . . . . . . . . . . . . 3 1.2.2 Décodage . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.2.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.2.4 Codes de Goppa . . . . . . . . . . . . . . . . . . . . . 7 1.3 Cryptographie basée sur les codes . . . . . . . . . . . . . . . . 7 1.3.1 L’ordinateur quantique . . . . . . . . . . . . . . . . . . 7 1.3.2 Historique . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.3.3 McEliece et Niederreiter . . . . . . . . . . . . . . . . . 9 1.3.4 Sécurité . . . . . . . . . . . . . . . . . . . . . . . . . . 10 I Le schéma de signature CFS 11 2 Introduction 15 3 Contexte 17 3.1 Codes de Goppa binaires . . . . . . . . . . . . . . . . . . . . . 17 3.2 Décodage complet . . . . . . . . . . . . . . . . . . . . . . . . 18 3.3 CFS initial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 3.4 Attaques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 3.4.1 Décoder un parmi plusieurs (DOOM) : . . . . . . . . . 20 3.5 Parallel-CFS : une contre-mesure à DOOM . . . . . . . . . . 20 3.6 Implémentation passée . . . . . . . . . . . . . . . . . . . . . . 21 4 Sélection des paramètres 23 5 Décodage algébrique des codes de Goppa 25 5.1 Équation clé des codes de Goppa . . . . . . . . . . . . . . . . 25 5.2 Équation clé des codes alternants . . . . . . . . . . . . . . . . 26 vvi TABLE DES MATIÈRES 5.3 Recherche de racines . . . . . . . . . . . . . . . . . . . . . . . 26 6 Mise en œuvre 29 6.1 Arithmétique des corps finis . . . . . . . . . . . . . . . . . . . 29 6.1.1 Bit-slicing . . . . . . . . . . . . . . . . . . . . . . . . . 29 6.2 Décodage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 6.2.1 Mise sous forme polynomial du syndrome : . . . . . . 30 6.2.2 Résolution de l’équation clé : . . . . . . . . . . . . . . 30 6.2.3 Recherche des racines : . . . . . . . . . . . . . . . . . . 31 6.3 Rejet des instances de décodage dégénérées . . . . . . . . . . 31 6.4 Gérer les échecs de décodage . . . . . . . . . . . . . . . . . . 32 7 Performances 33 7.1 Génération d’une signature . . . . . . . . . . . . . . . . . . . 33 7.2 Comparaisons des décodeurs . . . . . . . . . . . . . . . . . . . 34 8 Conclusion 37 II Information Set Decoding 39 9 Le problème du décodage par syndrome 43 9.1 Décodage par paradoxe des anniversaires . . . . . . . . . . . . 45 9.2 Décodage par ensemble d’information . . . . . . . . . . . . . 45 10 Le décodage par ensemble d’information 49 10.0.1 Cadre . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 10.0.2 L’outil de base : la fusion de liste . . . . . . . . . . . . 49 10.0.3 Les algorithmes SubISD . . . . . . . . . . . . . . . . . 51 11 Mise en œuvre 57 11.1 Fusion de liste . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 11.1.1 Fusion par tri . . . . . . . . . . . . . . . . . . . . . . . 57 11.1.2 Fusion par indexation . . . . . . . . . . . . . . . . . . 57 11.1.3 Comparaison . . . . . . . . . . . . . . . . . . . . . . . 57 11.2 Analyse de la complexité et estimation des paramètres . . . . 61 11.2.1 Probabilité de succès d’une itération . . . . . . . . . . 62 11.2.2 Coût des algorithmes SubISD . . . . . . . . . . . . . 64 11.3 Optimisations . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 12 Mise en œuvre logicielle 77 13 Challenges Wild McEliece 79TABLE DES MATIÈRES vii 14 Attaque d’un schéma de chiffrement basé sur des codes convolutifs 83 14.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 14.2 Un schéma de McEliece basé sur des codes convolutifs . . . . 84 14.3 Description de l’attaque . . . . . . . . . . . . . . . . . . . . . 85 14.3.1 Démêler la structure convolutive . . . . . . . . . . . . 86 14.3.2 Décoder les messages . . . . . . . . . . . . . . . . . . . 88 14.4 Mise en œuvre de l’attaque pour les paramètres proposés . . 88 14.5 Analyse de la sécurité du schéma . . . . . . . . . . . . . . . . 90 14.5.1 Une attaque améliorée . . . . . . . . . . . . . . . . . . 90 14.5.2 Preuve de la proposition 1 . . . . . . . . . . . . . . . . 92 14.5.3 Réparer le schéma . . . . . . . . . . . . . . . . . . . . 93viii TABLE DES MATIÈRES1 | Introduction Les travaux présentés dans ce manuscrit sont le résultat de mes quatre années de thèse effectuées à l’Inria Paris-Rocquencourt sous la direction de Nicolas Sendrier d’octobre 2010 à 2014. Dans ce premier chapitre introductif, je présente les notions de base ainsi que le contexte et les enjeux de la cryptographie basée sur les codes correcteurs d’erreurs. Le manuscrit est ensuite divisé en deux parties. La première partie décrit le schéma de signature CFS ainsi que les meilleurs décisions à prendre lors de la mise en œuvre de ce schéma. Les résultats relatés dans cette partie ont fait l’objet d’une publication lors de la conférence Indocrypt 2012 [43] ainsi qu’à la publication d’un logiciel [42] montrant que le schéma, malgré ses inconvénients, est peut-être utilisé en pratique. La deuxième partie traite de la cryptanalyse Information Set Decoding et des divers compromis faisables lors de la mise en œuvre des variantes de cet algorithme. Ces travaux ont donné lieu à un logiciel [41] qui a été évalué face à des challenges cryptographiques et qui a été utilisé lors de la cryptanalyse [44] d’un système proposé l’année passée. 1.1 Cryptographie Depuis l’antiquité, l’homme a cherché à communiquer des informations de façon confidentielle malgré l’exposition potentielle à des regards indiscrets. L’essor des télécommunications a accru le besoin d’outils assurant la confidentialité, l’authenticité et l’intégrité des informations. Des secrets d’États à la protection de la vie privé, en passant par la sécurité des transactions commerciales, la cryptographie a aujourd’hui de nombreux usages. Jusqu’aux années 1970, les systèmes de chiffrement se basaient sur une information secrète, partagée entre les deux interlocuteurs. Ces systèmes, dits à clé secrète, ont pour avantage un débit élevé mais leur utilisation implique un partage antérieur de cette information secrète. Ce scénario est envisageable à petite échelle pour des besoins ponctuels mais ne l’est pas dans le monde actuel où chacun communique quotidiennement avec des centaines d’entités distinctes potentiellement inconnues (via courrier électronique, navigateur web, téléphonie mobile, matériel réseau, . . . ). 12 CHAPITRE 1. INTRODUCTION En 1976, Diffie et Hellman [25] publient ce qui deviendra la base de la cryptographie à clé publique. Ils énoncent les propriétés nécessaires à de tels systèmes et donnent un protocole permettant à deux interlocuteurs de se partager une information secrète uniquement à partir de données publiques. En pratique, les systèmes respectant ce protocole, dits à clé publique, ont souvent des débits faibles ; ils sont donc souvent utilisé afin de démarrer une communication protégée par un chiffrement à clé secrète. Ce procédé est connu sous le nom de cryptographie hybride. En 1977 naît l’algorithme RSA de Rivest, Shamir et Adelman [63], le premier cryptosystème à clé publique. Depuis ce jour, la recherche sur ce sujet n’a eu de cesse de proposer de nouveaux systèmes et d’affaiblir les existants. Cryptographes et cryptanalystes s’affrontent afin de concevoir et d’évaluer des systèmes à la fois rapides et dignes de confiance. Ces systèmes sont constitués des éléments suivants : – Une fonction de génération de clé qui génère un couple (Ksec, Kpub) aléatoirement. – Une fonction de chiffrement Enc qui, en utilisant la clé publique Kpub, associe à un message clair m un message chiffré c. c = Enc(Kpub, m) – Une fonction de déchiffrement Dec qui, en utilisant la clé secrète Ksec, calcule le message clair m associé à un message chiffré c. m = Dec(Ksec, c) Il existe actuellement trois familles de cryptosystèmes à clé publique se basant sur trois domaines différents : la théorie des nombres, les réseaux euclidiens et les codes correcteurs d’erreurs. Les systèmes les plus répandus aujourd’hui sont basés sur la théorie des nombres et reposent sur deux problèmes supposés difficiles, le problème de la factorisation et celui du logarithme discret. Ce quasi-monopole est inquiétant car il n’existe aucune preuve mathématique de la réelle difficulté de ces problème si ce n’est la non-existence de preuve opposée. Autre faille de ces systèmes, Shor [66] a montré que ces deux problèmes pouvaient être résolus en temps polynomial dans le modèle de l’ordinateur quantique. Certes, celui ci est loin d’être opé- rationnel mais la menace est bien réelle et il faudra, le jour venu, disposé d’alternatives crédibles afin de ne pas se retrouver dépourvu. Voilà pourquoi depuis plusieurs années la recherche examine les systèmes basés sur les ré- seaux euclidiens et les codes correcteurs d’erreur. Cette thèse s’insère dans le contexte de l’évaluation des cryptosystèmes basés sur les codes correcteurs d’erreurs. Les fonctions de chiffrement asymétriques se basent sur des fonctions à sens unique munis d’une trappe. Une fonction à sens unique doit être1.2. CODES CORRECTEURS D’ERREURS 3 évaluable efficacement pour tout message clair, et trouver la préimage d’un élément généré par cette fonction doit être une opération difficile. La trappe permet au destinataire légitime de simplifier l’inversion et donc de déchiffrer le message. Elle doit en conséquence rester secrète pour conserver le caractère à sens unique de la fonction. Une opération sera considérée difficile lorsqu’il sera considéré déraisonnable, en termes de temps ou de moyens et tenant compte du bénéfice potentiel, par l’entité adverse de tenter d’effectuer cette opération. Un système cryptographique dispose de b bits de sécurité si un ordinateur doit effectuer au moins 2 b opérations pour résoudre le plus simple des problèmes sur lequel se base le système. Étant donné l’évolution perpétuelle de la technologie, il faut régulièrement réévaluer le nombre de bits de sécurité nécessaire pour considérer une opération difficile. Il est considéré aujourd’hui qu’un minimum de 112 bits de sécurité est nécessaire pour protéger une information d’ordre gouvernementale [5]. 1.2 Codes correcteurs d’erreurs Les codes correcteurs d’erreurs ont pour objectif de permettre la transmission d’information malgré l’ajout éventuel d’erreurs lors de la transmission. Afin d’y parvenir, les codes ajoutent une redondance au message à transmettre qui, lorsqu’un nombre suffisament faible d’élément de ce message étendu est perdu ou altéré, permettra de reconstituer le message initialement envoyé. Cette reconstitution est appellé le décodage. Je m’interesserai principalement aux codes en blocs ; codes découpant le message en blocs de taille fixe, et les traitant indépendament l’un après l’autre et plus précisément aux codes linéaires. 1.2.1 Codes linéaires Lors de l’envoi d’un message composé de lettres d’un alphabet A, celui-ci est découpé en bloc de k lettres auxquels sont ajoutés une redondance via une application linéaire transformant un bloc de k lettres en un bloc de n lettres (où n sera évidement choisi supérieur à k). Ce nouveau bloc est transmis à travers un canal de communication, ce qui altérera potentiellement le bloc. Puisque n est supérieur à k, le message reçu ne fera peut-être par parti de l’image de l’application linéaire appliquée (on en déduit la présence d’au moins une erreur). Le destinataire devra donc trouver l’élément de l’image qui a vraisemblablement été envoyé à l’origine. Cependant, si le nombre d’erreurs ajoutées est trop important, il se peut qu’un autre élément de l’image apparaisse plus vraisemblablement comme étant le bloc d’origine ; voire que le bloc reçu devienne un autre élément de l’image, ce qui nous empêcherait de deviner la présence d’erreurs.4 CHAPITRE 1. INTRODUCTION Dans ce cadre, un bon code correcteur d’erreur est un code qui disperse suffisamment les mots de codes (afin de pouvoir corriger plus d’erreurs) tout en ayant un rendement, le ratio k n , le plus haut possible (afin de limiter le surcoût du codage). Les blocs de k lettres avant transmission sont des vecteurs de k éléments de l’alphabet A et sont appelés des mots d’information. En pratique A sera un corps fini F, ce qui permet de créer l’espace vectoriel, de dimension k, des mots d’information. L’application linéaire appliquée aux mots d’information associe à chacun de ces mots un élément d’un espace vectoriel de dimension n. Puisque n est supérieur à k, l’image de l’application linéaire est un sousespace de dimension k de l’espace F n . Cette image est appelée un code linéaire. La dimension du sous-espace, k, est appelée dimension du code et la dimension de l’espace d’arrivée, n, est appelée longueur du code. Les éléments d’un code linéaire sont appelés mots de code. Une matrice formée des vecteurs d’une base d’un code C est appelée matrice génératrice de C . Un mot d’information peut être codé en le multipliant par une matrice génératrice puis le mot de code obtenu peut être décodé en le multipliant par l’inverse de cette même matrice. La matrice génératrice d’un code dont les k premières colonnes 1 forment la matrice identité k ×k est dite sous forme systématique. Il n’existe qu’une matrice génératrice sous forme systématique pour un code linéaire donné. Un mot d’information codé via une telle matrice est simple à décoder puisqu’il suffit d’extraire les k premières coordonnées du mot de code pour retrouver le mot d’information. Le code dual C ⊥ d’un code C de dimension k et de longueur n sur F est le sous-espace vectoriel orthogonal à C c’est-à-dire le sous-espace vectoriel défini par C ⊥ =  c 0 ∈ F n | c · c 0 = 0, c ∈ C . où l’opérateur · est le produit scalaire qui à x = x0 . . . xn−1 et y = y0 . . . yn−1 associe x · y = nX−1 i=0 xiyi . Il s’agit d’un code de longueur n et de dimension n − k. Les matrices génératrices de C ⊥ sont dites matrices de parité de C . Le produit Hmt où H est un matrice de parité de C et m est un mot de F n est appelé le syndrome de m. Le syndrome d’un mot de C est nul et tout mot de F n ayant un syndrome nul appartient à C , c’est-à-dire c ∈ C ⇐⇒ Hct = 0. 1. N’importe quelles k colonnes pourraient faire l’affaire ; on peut contraindre la défi- nition aux k premières sans perdre de généralités1.2. CODES CORRECTEURS D’ERREURS 5 1.2.2 Décodage Le canal le plus utilisé est le canal binaire symétrique. Il s’agit d’un canal qui transmet des éléments binaires et qui, indépendamment les uns des autres, peut modifier la valeur de chaque bit avec probabilité p. Lors de la réception d’un mot de code bruité, il faut trouver le mot de code qui est vraisemblablement celui qui a été envoyé, c’est-à-dire celui qui a le plus de coordonnées en commun avec ce premier. Dans le cas de mots binaires la distance de Hamming apportent une notion de distance entre des mots et permet donc d’exprimer la notion de "mot le plus proche". Soit F un corps fini et x = x0 . . . xn−1 un mot de F n , le poids de Hamming de x est défini par Poids(x) = |{xi | xi 6= 0}|. Il s’agit du nombre de coordonnées non-nulles de x. Soit y = y0 . . . yn−1 un mot de F n , la distance de Hamming entre x et y est définie par d(x, y) = |{i | xi 6= yi}|. Il s’agit du nombre de coordonnées en lesquelles x et y diffèrent. Cette distance peut également s’écrire d(x, y) = Poids(x − y). Décoder un mot x ∈ F n vis-à-vis d’un code C de longueur n consiste à trouver le mot de C le plus proche de x, c’est-à-dire trouver c ∈ C tel que @ c 0 ∈ C , d(c 0 , x) < d(c, x). Il est à noter que selon cette définition, le décodage n’est pas forcément unique. La distance minimale d’un code C est définie par d(C ) = min{d(x, y) | x ∈ C , y ∈ C , x 6= y}. Il s’agit de la distance de Hamming séparant deux mots distincts du code C . De par la linéarité du code, elle est également le poids du mot non-nul de C ayant le plus petit poids et s’écrit donc d(C ) = min{Poids(x) | x ∈ C }. Soient c un mot de C et e est un mot de poids b d(C )−1 2 c, alors c est l’unique mot de code le plus proche de c + e. On parlera de succès de décodage lorsque le décodage d’un mot de code bruité c + e donne de façon unique le mot de code non-bruité c. Un code linéaire C permet de décoder avec succès tout mot m = c + e où c ∈ C et e est un mot de poids inférieur à b d(C )−1 2 c.6 CHAPITRE 1. INTRODUCTION Cependant l’existence de cette possibilité de décoder ne donne pas d’algorithme de décodage, si ce n’est un parcours exhaustif des mots de codes. Puisqu’il est difficile de décoder un code aléatoire, des codes particuliers possédant des structures particulières ont été créés afin de générer des familles de codes munies d’algorithmes de décodage efficace. Les trois codes suivants sont des codes sur F2 illustrant ces notions. 1.2.3 Exemples Le code à répétition Le code à répétition émet chaque bit a fois. Par exemple, pour a = 4, si l’on veut transmettre la chaîne 1011, la séquence codée correspondante est 1111000011111111. Ce code est de dimension 1 et de longueur a, chaque bit étant pris un par un et transformé en a bits. Le rendement est donc de 1 a , ce qui est très faible. La distance minimale entre deux mots de code est a. En effet, il faut changer les a répétitions d’un bit d’un mot de code pour obtenir un autre mot de code. Ce code permet de corriger jusqu’à b a 2 c erreur et dispose d’un algorithme de décodage très simple : il suffit de prendre le bit majoritaire de chaque bloc de a bits. Si l’on reprend l’exemple a = 4 et que le mot reçu est 0100, le mot de code le plus proche est 0000 et le mot d’information qui a sûrement été envoyé est 0. On remarque que dans cet exemple si le mot reçu est 0110 alors il existe deux mots de code à distance 2 ; on détecte toujours la présence d’une erreur mais le décodage n’est plus unique, on ne sait pas si le mot envoyé est 0 ou 1. Si a est impair alors ce scénario ne peut se produire et tous les mots de l’espace peuvent être décodés de façon unique. Le code de parité Le code de parité adjoint à un mot d’information la somme (le Xor) de chacun de ses symboles. Ce code a pour dimension k et pour longueur k + 1 ce qui donne un rendement de k k+1 , et permet de détecter une erreur mais ne permet pas de la corriger. En effet la distance minimale de ce code est 2 ; il suffit de changer 2 bits d’un mot du code pour obtenir un autre mot du code. La matrice génératrice systématique de ce code est simple, elle consiste en un matrice identité k × k accolée à une colonne de taille k tout à 1. La matrice de parité est une matrice ligne de taille k + 1 tout à 1 puisqu’un mot appartient à ce code si et seulement si la somme de ces composantes est nulle. Le code de Hamming Le code de Hamming est un code, pour un entier r donné, de longueur 2 r − 1 et de dimension 2 r − 1 − r. Il est construit via sa matrice de parité1.3. CRYPTOGRAPHIE BASÉE SUR LES CODES 7 qui est constituée de toutes les colonnes distinctes et non nulles de r bits. Ces codes ont tous une distance minimale valant 3 et permettent donc de corriger une erreur. L’algorithme de décodage est simple : si le mot reçu est un mot de code bruité en une seule position (c + e) alors le calcul de son syndrome donne le syndrome du motif d’erreur ((c + e)H = eH) et donc le syndrome d’un mot de poids 1. Trouver un motif d’erreur de poids 1 ayant un syndrome donné est simple puisque la matrice de parité du code est constituée de colonnes uniques, il suffit de rechercher l’indice de la colonne correspondante pour trouver l’indice du bit erroné. 1.2.4 Codes de Goppa Les codes de Goppa sont une sous-classe des codes alternant. Ils peuvent être définis sur le corps fini Fqm à partir d’un polynôme unitaire, dit de Goppa, g(x) ∈ Fqm[x] de degré t et d’un ensemble L = {α0, α1, . . . , αn−1}, sous-ensemble de Fqm dont aucun élément n’est racine de g. Le code de Goppa Γ(L, g) est alors défini par sa matrice de parité construite à partir de la matrice Haux =   1 g(α0) . . . 1 g(αn−1) . . . . . . α t−1 0 g(α0) . . . α t−1 n−1 g(αn−1)   Chaque élément de cette matrice, qui est un élément de Fqm, est déroulé ; c’est-à-dire qu’il est projeté sur F m q puis écrit comme une colonne de m éléments de Fq, pour finalement former une matrice H de taille mt × n. Le code de Goppa Γ(L, g) est alors le code de matrice de parité H, c’est-à-dire l’ensemble des mots c de F n q vérifiant Hct = 0. Un code de Goppa dont le polynôme de Goppa est irréductible sera dit code de Goppa irréductible. 1.3 Cryptographie basée sur les codes correcteurs d’erreurs 1.3.1 L’ordinateur quantique Un ordinateur quantique est un ordinateur qui repose sur les propriétés quantiques de la matière pour résoudre des problèmes hors de portée d’un ordinateur classique. Dans [66], Peter Shor montre que tous les cryptosystèmes basés sur la difficulté de la factorisation ou le calcul d’un logarithme discret peuvent être attaqués en temps polynomial sur un tel ordinateur (voir [14] pour un rapport détaillé). Cela menace la quasi-totalité des cryptosystèmes à clé publique déployés en pratique, tels que RSA [63] ou DSA [40]. D’un8 CHAPITRE 1. INTRODUCTION autre côté, la cryptographie basée sur la difficulté de décoder un code linéaire est estimée résistante aux attaques quantiques et est donc considérée comme une alternative viable à ces schémas à l’avenir. Cependant, indépendamment de leur prétendue nature post-quantique, les cryptosystèmes basés sur les codes offres d’autres bénéfices même pour des applications actuelles grâce à leur excellente efficacité algorithmique, meilleure de plusieurs ordres de grandeurs en termes de complexité que les schémas traditionnels. 1.3.2 Historique Le premier cryptosystème basé sur les codes est le cryptosystème de McEliece [50], qui proposait d’utiliser des codes de Goppa. Suite à cela, plusieurs familles de code ont été suggérées pour remplacer les codes de Goppa dans ce schéma : les codes de Reed–Solomon généralisés (GRS) [56] ou bien des sous-codes de ces derniers [10], des codes de Reed–Muller [67], des codes algébriques géométriques [36], des codes LDPC [2], des codes MDPC [54] ou plus récemment des codes convolutifs [47]. Certains de ces schémas permettent d’obtenir des clés publiques plus petites que celle du système original tout en vraisemblablement conservant le même niveau de sécurité contre les algorithmes de décodage génériques. Cependant, pour plusieurs des schémas susmentionnés, il a été montré qu’une description du code sous-jacent aidant au décodage peut être obtenue, cassant par là-même le schéma. Cela s’est produit pour les codes de Reed–Solomon généralisés (GRS) dans [68] et pour leurs sous-codes dans [74]. Dans ce cas, l’attaque retrouve entièrement et en temps polynomial la structure du code à partir de la clé publique. Les codes de Reed–Muller ont également été attaqué, mais cette fois, l’algorithme trouvant la description du code permuté a une complexité sous-exponentielle [52], ce qui est suf- fisant pour casser les paramètres proposés dans [67] mais qui ne casse pas complètement le schéma. Les systèmes basés sur les codes de géométrie algébrique sont également cassé en temps polynomial mais uniquement pour les courbes hyperelliptiques de faible genre [31]. Un schéma basé sur des codes LDPC [3] a été attaqué dans [57] (le nouveau schéma présenté dans [2] semble insensible à ce genre d’attaque). Deux variantes [1] [73] du schéma basé sur les GRS supposées résister à l’attaque de [68] ont été cassées (respectivement [34] et [24]) par une approche liée au distingueur des codes de Goppa proposé dans [28]. Le cryptosystème de McEliece d’origine reste lui intact. Une modification a été apporté dans [9, 53], utilisant les versions quasi-cycliques ou quasidyadiques des codes de Goppa (ou plus généralement des codes alternant dans [9]) afin de réduire significativement la taille de la clé publique. Cependant, il a été montré dans [30, 70] que la structure de ces codes permet de réduire radicalement le nombre d’inconnus de l’attaque algébrique. La plupart des schémas proposés dans [9, 53] ont été cassés par cette approche.1.3. CRYPTOGRAPHIE BASÉE SUR LES CODES 9 Ce genre d’attaque a une complexité exponentielle et peut être contrecarré en choisissant de petits blocs cycliques ou dyadiques afin d’augmenter le nombre d’inconnues du système algébrique. Lorsque le rendement du code de Goppa est proche de 1 (tel que dans le schéma de signature CFS [22] (voir partie I)), il a été montré dans [29] qu’il était possible de distinguer la clé publique d’une clé aléatoire. Cela invalide les preuves de sécurité des schémas utilisant des codes de rendement proche de 1 puisque tous reposent sur l’hypothèse d’indistinguabilité des codes de Goppa. 1.3.3 McEliece et Niederreiter En 1978, McEliece [50] propose une fonction à sens unique qui code le message clair puis bruite le mot de code obtenu. Si le code est aléatoire et a des paramètres non triviaux, cette fonction est évaluable efficacement pour tout message et trouver une préimage revient à décoder un code aléatoire, ce qui est difficile. Il ne reste qu’à introduire une trappe. Pour cela, McEliece propose d’utiliser la famille des codes de Goppa. En effet, une fois maquillée, la matrice de parité d’un code de Goppa est semblable à une matrice aléatoire pour une personne ignorant la structure algébrique qui y est cachée alors qu’une personne connaissant cette structure peut utiliser l’algorithme de décodage associé aux codes de Goppa. Plus concrètement, le système se décrit de cette façon : La génération de clé consiste à tirer un code de Goppa binaire aléatoire de longueur n et de dimension k capable de corriger t erreurs. La clé secrète est une matrice génératrice Gsec de ce code et la clé publique est la matrice Gpub = SGsecP où S est une matrice inversible aléatoire k × k et P est une matrice de permutation aléatoire n × n. Le chiffrement d’un message m de k bits consiste à calculer c = mGpub et à transmettre c 0 = c + e où e est un vecteur d’erreur de poids de Hamming t. Le déchiffrement d’un message chiffré c 0 consiste à calculer c 0P −1 = mGpubP −1 + eP −1 = mSGsec + eP −1 puis d’utiliser l’algorithme de décodage pour éliminer le vecteur d’erreur et obtenir mS et en déduire m. En 1986 [56], Niederreiter propose une variante de la fonction à sens unique basé sur le même problème mais utilisant une matrice de parité d’un code de Goppa. La génération de clé est similaire à celle du système de McEliece si ce n’est que la clé publique est cette fois la matrice Hpub = SHsecP où Hsec est une matrice de parité du code de Goppa, S est une matrice inversible aléatoire r×r et P est une matrice de permutation aléatoire n × n.10 CHAPITRE 1. INTRODUCTION Le chiffrement d’un message commence par utiliser un codage en mot de poids constant pour transformer ce message en un motif d’erreur e de longueur n et de poids t. Le syndrome du mot obtenu s 0 = eHt pub est le chiffré transmis. Le déchiffrement d’un message s 0t = SHsecP et est similaire à celui du système de McEliece 2 . On commence par calculer s = S −1 s 0t = HsecP et puis, étant donné que P et est un mot de poids t, on peut utiliser l’algorithme de décodage pour retrouver le motif d’erreur dont le syndrome est s. On finit par défaire la permutation et le codage en mot de poids constant pour retrouver le message clair. 1.3.4 Sécurité Comme tout système à clé publique, il existe deux approches pour attaquer le système de McEliece : – obtenir une partie du secret à partir des données publiques, – ou parvenir à inverser la fonction à sens unique pour retrouver un message clair à partir de son chiffré. Dans le cas du système de McEliece, la sécurité de la clé secrète est assurée par la taille exponentiellement grande de la famille des codes de Goppa. En effet, la meilleure attaque connue aujourd’hui est l’algorithme Support Splitting Algorithm [64] qui permet de décider si un code C1 peut être obtenu à partir d’un code C2 en permutant les coordonnées des mots de C2. Un attaquant doit alors tirer un code de Goppa binaire aléatoire et vérifier s’il est équivalent au code public. La grande taille de la famille des codes de Goppa rend cette attaque impraticable. La sécurité des messages repose sur la difficulté de décoder un code binaire aléatoire. Ne disposant pas de l’algorithme de décodage algébrique fourni par le secret, l’attaquant doit se contenter d’une recherche proche de l’exhaustif (voir partie II). 2. la transposition permet l’alléger la notationPremière PARTIE LE SCHÉMA DE SIGNATURE CFS 1113 Cette partie traite de la mise en œuvre du schéma de signature CFS. Ces travaux ont menés à une publication lors de la conférence Indocrypt 2012 [43] ainsi qu’à un logiciel diffusé sous licence libre [42]. Un système de signature numérique est un système associant à un document numérique, c’est-à-dire une suite de nombres, une signature numérique, une autre suite de nombres. Cette signature est calculée en utilisant le message ainsi qu’un secret connu uniquement du signataire. Une signature doit ensuite pouvoir être vérifié grâce à une procédure publique. Ces systèmes peuvent être utilisés pour garantir l’intégrité d’un document, c’est-à-dire le fait qu’il n’a pas été modifié depuis la création de la signature ou bien pour authentifier l’entité ayant apposé une signature à un document. Pour réaliser ces objectifs, les systèmes de signatures numériques s’appuient sur la cryptographie asymétrique. L’émetteur calcule en utilisant sa clé secrète (connue de lui uniquement) et le message la signature associée au message. Les destinataires utilisent la clé publique (connue de tous) associée à la clé secrète, le message et la signature pour vérifier que la signature a été conçue par quelqu’un possédant la clé secrète. Pour qu’un système de signature soit qualifié de sûr, il faut que les opé- rations suivantes soient difficiles : – retrouver la clé secrète à partir de la clé publique et d’un nombre quelconque de documents signés, – altérer le message de telle façon que la signature reste valide aux yeux de la procédure de vérification, – créer une signature valide sans connaissance de la clé secrète. Un système de signature classique repose sur une fonction de chiffrement asymétrique E, de la fonction de déchiffrement associé D et d’une fonction de hachage h. Pour signer un message m, un signataire commencera par calculer h(m) puis à déchiffrer cette empreinte comme s’il s’agissait d’un message chiffré. La signature de m est alors s = D(h(m)). Pour vérifier une telle signature, il faut également calculer h(m) puis vérifier que h(m) = E(s). Ce fait prouvera que le signataire dispose des secrets nécessaires au déchiffrement. Dans le cas du schéma CFS, qui utilise le système de Niederreiter, toutes les empreintes ne peuvent être déchiffrées. Contourner ce problème se fait en ajustant l’empreinte jusqu’à en obtenir une déchiffrable.142 | Introduction CFS [23] est un schéma de signature numérique basé sur le cryptosystème de Niederreiter [50]. Il fut publié en 2001 et s’appuie sur la difficulté du problème du décodage par syndrome (voir section 9) et sur l’indistinguabilité des codes de Goppa binaires. Le monde de la signature numérique est peu diversifiée ; il existe relativement peu de primitive de signature et beaucoup sont basées sur la théorie des nombres. CFS, étant basé sur la théorie des codes, ne sera pas vulnérable aux améliorations algorithmiques que l’ordinateur quantique apporterait s’il venait un jour à atteindre des performances raisonnables et offrirait une alternative le moment venu. Cependant, les problèmes liés à la mise en œuvre de CFS ont reçus peu d’attention. Cela vient peut-être de l’aspect peu pratique apparent du système et des résultats de cryptanalyses qui ont affaibli le schéma, au moins d’un point de vue théorique. L’apparence peu pratique du système viens de la grande taille de la clé publique et des longs temps de signature. Certes la taille de la clé publique peut être un problème pour certaines applications, mais certains scénarios d’utilisation peuvent s’accommoder d’un espace de stockage de quelques mé- gaoctets pour vérifier des signatures. L’impression de lenteur de la primitive de signature peut s’expliquer par les premiers temps donnés dans le papier d’origine [23] qui font mention d’une mise en œuvre logicielle générant une signature en une minute. Or il s’agissait là d’une démonstration de faisabilité. Une mise en œuvre sur circuit logique programmable (ou FPGA) décrite dans [19] annonce une signature en moins d’une seconde. Il a été prouvé dans [28] que la clé publique de CFS pouvait être distinguée en temps polynomial d’une matrice binaire aléatoire. Cette propriété affaiblit la preuve de sécurité du système mais aucune attaque n’en a été déduite. 1516 CHAPITRE 2. INTRODUCTION3 | Contexte Nous considérerons uniquement les codes linéaires binaires. La plupart des faits énoncés ici pourraient se généraliser à un alphabet plus grand mais aucun schéma semblable à CFS utilisant des codes non binaires n’a été proposé jusqu’à présent. 3.1 Codes de Goppa binaires Soit F2m le corps fini à 2 m éléments. Soit n ≤ 2 m, le support L = (α0, . . . , αn−1) un séquence ordonnée d’éléments distincts de F2m et le polynôme générateur g(z) ∈ F2m un polynôme irréductible unitaire de degré t. Le code de Goppa binaire de support L et de polynôme générateur g est défini par : Γ(L, g) = {(a0, . . . , an−1) ∈ {0, 1} n | nX−1 j=0 aj z − αj mod g(z) = 0}. Ce code a pour longueur n ≤ 2 m et une dimension ≥ n − mt. Ce code bénéficie d’une procédure de décodage algébrique pouvant corriger jusqu’à t erreurs. Pour la signature, nous prendrons toujours n = 2m, puisque choisir n plus petit ne ferait qu’accroître le coût de la signature. Pour les paramètres dignes d’intérêt, la dimension sera exactement k = n − mt. Nous noterons r = mt la codimension du code. Dans les cryptosystèmes basés sur les codes de Goppa, les paramètres sont m et t sont connus de tous, la clé secrète est la paire (L, g) et la clé publique est H ∈ {0, 1} r×n une matrice de parité du code. Densité des syndromes décodables pour un code de Goppa : L’algorithme de décodage algébrique du code ayant pour matrice de parité H pourra décoder un syndrome s si et seulement s’il est de la forme s = eHt , où e a un poids de Hamming inférieur ou égal à t. Il existe Pt i=0 n i  ≈ n t  syndromes vérifiant cette propriété. Le nombre de syndromes total étant de 2 r , la proportion des syndromes décodables par la procédure est proche de n t  2 r = 2m t  2mt = 2 m(2m − 1)· · ·(2m − t + 1) t!2mt ≈ 1 t! . (3.1) 1718 CHAPITRE 3. CONTEXTE Telle est donc la probabilité d’un syndrome tiré aléatoirement d’être décodable. Il est donc nécessaire de pouvoir associer à un message une grande famille de syndrome afin d’avoir une chance que l’un de ces syndromes soit décodable. 3.2 Décodage complet Étant donné un code linéaire binaire de matrice de parité H ∈ {0, 1} r×n , un décodeur complet est une procédure qui pour tout syndrome s ∈ {0, 1} r retournera un motif d’erreur de poids minimal tel que eHT = s. L’espé- rance du poids w de e sera immédiatement supérieure au rayon de GilbertVarshamov τgv, défini comme le nombre réel 1 tel que n τgv  = 2r . L’effet de seuil peut être observé dans deux exemples du tableau 3.1. En pratique, nous définirons un décodeur complet comme un décodeur borné par w (avec w ≥ τgv), c’est-à-dire une procédure ψ : s ∈ {0, 1} r → {0, 1} n renvoyant un motif d’erreur de syndrome s et de poids ≤ w s’il en existe un. Un tel décodeur peut échouer même si w ≥ τgv (voir le tableau 3.1 pour (m, t) = (20, 8) et w = 9 > τgv = 8.91 par exemple). Cela se produira si aucun des n w  motifs d’erreurs de poids w n’a pour syndrome s. La probabilité d’échec de cet évènement correspond à la probabilité de ne pas tirer un élément donné lors de n w  tirages avec remise dans un espace de taille 2 r ; c’est-à-dire  1 − 1 2 r ( n w) . (m, t) τgv w = 8 w = 9 w = 10 w = 11 (20,8) 8.91 1 − 2 −15 0.055 2 −131583 2 −1010 (18,9) 10.26 1 − 2 −33 1 − 2 −18 0.93 2 −2484 Table 3.1 – Probabilité d’échec d’un décodeur borné à w pour un code de longueur n = 2m et de codimension r = mt 3.3 CFS initial Une instance de CFS est définie par un code de Goppa binaire Γ de longueur n capable de corriger jusqu’à t erreurs ; de matrice de parité H ; sur le corps fini F2. Nous appellerons decode la fonction de décodage de Γ. Cette fonction prend un syndrome binaire en entrée et renvoie un t-uplet 1. la bijection x 7→ n x  s’étend aux nombres réels, cela rend la définition de τgv valable3.3. CFS INITIAL 19 de positions d’erreur correspondant à un motif d’erreur ayant l’entrée pour syndrome ou échoue si un tel motif n’existe pas. La matrice H est publique et la procédure decode est secrète. Signer un document se fait de cette façon : 1. Calculer l’empreinte du document (via une fonction de hachage). 2. Supposer que cette empreinte est un syndrome et utiliser decode pour tenter de la décoder. 3. La signature est le motif d’erreur obtenu. Puisque l’empreinte du document a très peu de chance d’être un syndrome décodable (c’est-à-dire le syndrome d’un mot à distance de Hamming t ou moins d’un mot du code Γ), l’étape 2 va très sûrement échouer. Deux solutions sont proposées pour contourner cette limitation : – Le décodage complet [voir Algorithme 1] ajoute un certain nombre de colonnes de H au syndrome jusqu’à ce qu’il devienne décodable (cela revient à tenter de deviner quelques erreurs). – L’adjonction d’un compteur modifie le message avec un compteur puis calcule l’empreinte jusqu’à ce le syndrome associé devienne décodable. Le compteur qui a rendu le syndrome décodable est adjoint à la signature. Les deux méthodes nécessitent une moyenne de t! tentatives de décodage avant succès (conséquence de (3.1), voir [23]). L’adjonction d’un compteur a pour inconvénient d’inclure la fonction de hachage dans la procédure de décodage ce qui oblige à la mettre en œuvre sur la plateforme cible, ce qui serait dérangeant pour un coprocesseur dédié. De plus, cette méthode rend la taille de la signature variable puisque celui-ci fait partie de la signature et qu’il a un écart type élevé. Pour finir, la contre-mesure Parallel-CFS (voir §3.5) n’est pas applicable si cette méthode est employée. Algorithme 1 Signature utilisant le décodage complet Entrée : Un message M, un entier w > t, une fonction de hachage h. Sortie : La signature du message M, composée d’un w-uplet de positions. Fonction signer(M, w, h) s ←− h(M) Boucle (it+1, . . . , iw) R←− {0, . . . , n − 1} w−t (i1, . . . , it) ←− decode(s + Hit+1 + . . . + Hiw , t) Si (i1, . . . , it) 6= échec Retourner (i1, . . . , iw)20 CHAPITRE 3. CONTEXTE 3.4 Attaques Il existe des attaques permettant de distinguer efficacement une clé publique CFS (une matrice de parité d’un code de Goppa binaire) d’une matrice aléatoire de même taille [28]. Cependant n’a aujourd’hui pas encore affaibli la sécurité de la clé secrète. En pratique, les meilleurs techniques pour contrefaire une signature sont basés sur le décodage générique d’un code linéaire, c’est-à-dire la résolution du problème de décodage par syndrome (CSD). Les deux principales techniques pour résoudre le problème CSD sont le décodage par ensemble d’information (ISD), décrit partie II, et le décodage utilisant le paradoxe des anniversaires généralisé (GBA). 3.4.1 Décoder un parmi plusieurs (DOOM) : Dans un scénario de forge de signature (la création d’une signature valide sans connaissance du secret), un attaquant peut créer autant de messages lui convenant qu’il le souhaite et être satisfait par le fait d’obtenir une signature valide pour un de ces messages. Les bénéfices d’un accès à plusieurs syndromes ont été mentionné par Bleichenbacher pour l’algorithme GBA 2 . L’adaptation à l’algorithme ISD fut proposée dans [37] et fut ensuite généralisée et analysée dans [65] sous le nom Decoding One Out of Many (DOOM). Ce dernier montre que si l’on dispose de N syndromes cibles et que le décodage d’un d’entre eux est suffisant, la complexité temporelle est réduite d’un facteur approchant √ N par rapport à la situation d’un unique syndrome à décoder. Le gain cesse de croître une fois que N a atteint une limite supé- rieure dépendante de l’algorithme utilisé (ISD ou GBA). En pratique, pour contrer cette attaque et récupérer 80 bits de sécurité, il faut multiplier la taille de la clé par 400 ; ou bien par 100 si l’on est prêt à multiplier le coût de la signature par 10. La contre-mesure Parallel-CFS offre un bien meilleur compromis. 3.5 Parallel-CFS : une contre-mesure à DOOM Parallel-CFS est une contre-mesure proposée par M. Finiasz en 2010 [32], visant à annuler le bénéfice obtenu par un attaquant souhaitant signer un message parmi plusieurs. L’idée consiste à produire λ empreintes diffé- rentes du document à signer (entre 2 et 4 en pratique) et de signer chacune séparément. Finalement, la signature consistera en la collection des signatures de chacune de ces empreintes (voir Algorithme 2). De cette façon, si un attaquant parvient à créer une signature pour l’empreinte d’un de ses messages, il sera contraint de créer les autres signatures à partir de cette 2. Attaque présentée en 2004, jamais publiée mais décrite dans [60]3.6. IMPLÉMENTATION PASSÉE 21 seule empreinte, ce qui le ramène au scénario initial, c’est-à-dire le décodage d’un unique syndrome cible. Comme mentionné dans [32], signer en utilisant la méthode de l’adjonction d’un compteur devient impossible puisque la contre-mesure impose de décoder plusieurs empreintes d’un unique message et que l’adjonction d’un compteur modifie le message. Cette contre-mesure augmente d’un facteur λ le coût de la signature, la taille de la signature et le coût de la vérification. L’attaque DOOM fait passer la sécurité du schéma CFS de ≈ r 2 bits de sécurité à ≈ r 3 . La contre-mesure Parallel-CFS fait remonter celle-ci à ≈ 2 λ−1 2 λ−1 r bits de sécurité. Cette valeur tendant vers r 2 lorsque λ croît, il est possible de se rapprocher autant que souhaité de la sécurité initiale. Algorithme 2 Parallel-CFS avec un décodage complet Entrée : Un message M, un entier w > t, un entier λ > 0, un ensemble de fonctions de hachage H = {Hi}1≤i≤λ. Sortie : La signature totale composée de λ signatures individuelles. Fonction sign_mult(M, w, λ, H) Pour 1 ≤ i ≤ λ si ←− sign(M, w, Hi) Retourner (si) 1≤i≤λ Dans [32], l’attaque de Bleichenbacher est généralisée pour attaquer plusieurs empreintes. Cette analyse montre que pour la plupart des paramètres, trois empreintes, parfois même deux, suffisent pour annuler les bénéfices de l’attaque. Pour ISD, il est montré dans [65] que les bénéfices de DOOM ne sont pas aussi important que pour GBA. Ce résultat n’a pas été généralisé au cas des empreintes multiples comme dans [32], mais cela n’aurait que peu de chance de changer la situation ; si le nombre d’empreintes est assez haut pour contrecarrer DOOM-GBA, il en sera très probablement de même pour DOOM-ISD. 3.6 Implémentation passée Nous n’avons connaissance d’aucune mise en œuvre logicielle publique de CFS. Il existe une mise en œuvre sur FPGA décrite dans [19], pour les paramètres originaux, à savoir n = 216 , t = 9, et w = 11. Celle-ci utilise l’algorithme de Berlekamp-Massey pour décoder et annonce la création d’une signature en 0.86 secondes sur un FPGA de petite taille.22 CHAPITRE 3. CONTEXTE4 | Sélection des paramètres Pour décoder un unique syndrome, ISD est plus efficace que GBA, et pour plusieurs, DOOM-GBA (l’attaque de Bleichenbacher généralisée) est plus efficace que DOOM-ISD. Le tableau 4.1 donne le nombre d’opérations binaires requises par les attaques suivantes : – ISD-MMT [49], une variante d’ISD, permet de décoder λ instances distinctes à un syndrome. – ISD-Dumer [26], une variante précédant ISD-MMT ; les nombres sont extraits de [33]. – GBA-DOOM [32], l’attaque de Bleichenbacher généralisée, permet de décoder un Parallel-CFS de multiplicité λ. proba. taille clé bits de sécurité m t w λ τgv d’échec publique (1) (2) (3) 16 9 11 3 10.46 ∼ 0 1 MB 77.4 78.7 74.9 18 9 11 3 10.26 ∼ 0 5 MB 87.1 87.1 83.4 18 9 11 4 10.26 ∼ 0 5 MB 87.5 87.5 87.0 20 8 10 3 8.91 ∼ 0 20 MB 82.6 85.7 82.5 20 8 9 5 8.91 5.5% 20 MB 87.9 91.0 87.3 24 10 12 3 11.05 ∼ 0 500 MB 126.4 126.9 120.4 26 9 10 4 9.82 10−8 2 GB 125.4 127.5 122.0 (1) ISD-MMT (2) ISD-Dumer (3) GBA-DOOM Table 4.1 – Jeux de paramètres pour Parallel-CFS utilisant un code de Goppa binaire de longueur 2 m. Les bits de sécurité sont le log2 du nombre d’opérations binaires requises par l’attaque. Le tableau 4.1 donne les principales caractéristiques (dont la sécurité) pour quelques jeux de paramètres. Les paramètres d’origine sont donnés pour référence mais sont désormais sous la barre des 80 bits de sécurité. Nous proposons deux familles de codes de Goppa : les codes de longueur 2 18 corrigeant jusqu’à 9 erreurs et les codes de longueur 2 20 corrigeant jusqu’à 8 erreurs. Ces derniers permettent de signer plus rapidement (car le temps de signature dépend de t!) mais ont en contrepartie une clé publique plus grande. Ces deux familles permettent d’atteindre 80 bits de sécurité en uti- 2324 CHAPITRE 4. SÉLECTION DES PARAMÈTRES lisant λ = 3 décodages parallèles. Les derniers paramètres sont donnés pour des critères de sécurité plus grand mais n’ont pas été implémentés. Le tableau 4.1 ne mentionne pas la variante BJMM [7] d’ISD car la complexité non-asymptotique de cette variante est difficile à évaluer et car les paramètres considérés ne sont pas ceux où l’amélioration apportée par cette variante est la plus importante. Il sera nécessaire de considérer cette attaque pour dimensionner le schéma à la sécurité voulu.5 | Décodage algébrique des codes de Goppa Ce chapitre décrit le décodage algébrique non pas dans un contexte communication mais dans le contexte cryptographique du schéma CFS. Ici, le secret est un code de Goppa Γ(L, g) binaire de longueur n = 2m, de dimension n − r, de polynôme générateur g et de support L. Le polynôme g est de degré t, unitaire, irréductible et à coefficient dans F2m. Le support L = (α0, . . . , αn−1) consiste en tous les éléments de F2m dans un ordre spéci- fique. La clé publique H est une matrice de parité sous forme systématique de Γ(L, g). Nous dénommons LS = (β0, . . . , βr−1) les éléments du support correspondants à la partie identité de H (les premières ou dernières r coordonnées de L par exemple). Un décodeur algébrique de codes de Goppa prend en entrée un syndrome binaire s = (s0, . . . , sr−1) ∈ {0, 1} r et renvoie, si celui ci existe, un motif d’erreur e ∈ {0, 1} n de poids t tel que eHt = s. Il existe plusieurs algorithmes (décrit plus tard dans cette section) réalisant ce décodage. Chacun ont en commun ces trois étapes : 1. Transformer le syndrome binaire s en un nouveau syndrome, polynôme à coefficient dans F2m. 2. Résoudre une équation clé liant ce nouveau syndrome au polynôme localisateur d’erreur. 3. Calculer les racines du polynôme localisateur pour trouver les positions non nulles du vecteur d’erreurs. 5.1 Équation clé des codes de Goppa Le syndrome algébrique R(z) = P 0≤j t et donc s ne peut être décodé en utilisant le décodeur algébrique qui ne peut corriger que t erreurs. Si, comme décrit dans l’algorithme 1, nous devinons correctement δ = w − t positions de l’erreur, nous pourrons décoder avec succès en utilisant le décodeur algébrique le syndrome modifié. Il a été prouvé dans [23] que cela réussit après une moyenne de t! essais. Nous présentons dans l’algorithme 3 une variante où le syndrome est modifié sous forme polynomiale. Cela permet de réduire le coût du calcul de l’équation clé en factorisant le calcul ne dépendant pas des δ positions choisis. De plus un crible est utilisé pour décider si le polynôme localisateur est scindé dans F2m (s’il possède t racines distinctes dans ce corps). Cela permet de vérifier pour un coût moindre qu’une recherche de racine si le décodage a réussi. 6.2.1 Mise sous forme polynomial du syndrome : Le premier syndrome polynomial R0(z) est calculé une fois seulement à partir de s. Ensuite, pour chaque essai de décodage, R0(z) est mis à jour en y ajoutant δ = w − t syndromes élémentaires fβ(z). Cette mise à jour a un coût proportionnel à δt opérations dans le corps fini, ce qui est négligeable en pratique. 6.2.2 Résolution de l’équation clé : Comme mentionné précédemment, il existe plusieurs équations clés et parfois plusieurs façons de les résoudre. Dans tous les cas, cette résolution doit être effectuée complètement et produit le même polynôme localisateur σ(z). Le coût de cette opération est proportionnel à t 2 opérations dans le corps fini.6.3. REJET DES INSTANCES DE DÉCODAGE DÉGÉNÉRÉES 31 Algorithme 3 Signer en utilisant des codes de Goppa binaires Entrée : Un message M, une fonction de hachage h. Sortie : La signature composée d’un w-uplet de positions ou échec. Fonction signer(M, h) s ←− h(M) R0(z) ←− P 0≤j L1[j, 1]) j ← j + 1 Sinon i0 ← i, j0 ← j Tant que i < N et L0[i, 1] = L0[i0, 1] j ← j0 Tant que j < M et L1[j, 1] = L1[j0, 1] j ← j + 1 L ← L ∪ {L0[i, 0] + L1[j, 0]} Retourner L Commentaires : L1 + s désigne la liste [(x, y + s) ∀(x, y) ∈ L1] La procédure Tri(L) organise les éléments de la liste L dans l’ordre croissant de leur deuxième élément. L[i, j]j∈{0,1} désigne le j-ième élément du i-ième couple de la liste L.11.1. FUSION DE LISTE 59 Algorithme 8 Recherche de collisions en indexant une liste Entrée : Une liste L0 de N couples (x, y) ∈ {0, 1} b × {0, 1} c , une liste L1 de M couples (x, y) ∈ {0, 1} b × {0, 1} c , un vecteur s ∈ {0, 1} c . Sortie : L’ensemble {x0 + x1 | (x0, y0) ∈ L0,(x1, y1) ∈ L1, y0 + y1 = s}. Fonction Fusion_Index(L0, L1, s) L ← ∅ L1 ← L1 + s Allouer une structure indexée T initialisée à ∅ Pour (x, y) ∈ L0 T[y] ← T[y] ∪ {x} Pour (x, y) ∈ L1 L ← L ∪ T[y] Retourner L La fusion par tri (algorithme 7) en revanche a une complexité temporelle en O(N log(N) + M log(M)) (le coût des deux tris) mais qui, une fois les listes triées, effectue la plupart des accès mémoires de façon séquentielle, ce qui permet de rentabiliser le chargement d’une page mémoire ainsi que de profiter des mécanismes de préchargement de données. De plus, si l’on utilise un algorithme de tri tirant parti des mécanismes de cache (le radix-sort par exemple, voir l’algorithme 6.10 de [38]), l’algorithme peut s’exécuter quasientièrement en manipulant des données présentes dans les caches mémoires. La figure 11.1 montre le pourcentage d’accès mémoire qui n’ont pas été satisfait par le cache L1 et le cache L2 lors de la fusion de deux listes de 2 ` éléments aléatoires de J0, 2 ` J. Ces valeurs ont été mesurées en utilisant l’outil cachegrind de la suite valgrind [55] sur une machine disposant de 32Ko de cache L1 par cœur et de 256Ko de cache L2 par cœur. La figure 11.2 montre le nombre de collisions par microsecondes (mesuré en utilisant gettimeofday()) générées par les algorithmes 7 et 8 lors de la fusion de deux listes de 2 ` éléments aléatoires de J0, 2 ` J. On remarque que les mécanismes de cache ne suffisent pas à compenser le facteur logarithmique de l’algorithme 7, ce qui fait de l’algorithme 8 le plus rapide. Autre avantage de l’algorithme 8, il est possible de l’appliquer quasiment à la volée ; il peut démarrer dès que la liste L0 est complète et se dérouler au fur et à mesure que la liste L1 est construite. Cela permet d’économiser en mémoire puisqu’il n’y a pas besoin de conserver la liste L1.60 CHAPITRE 11. MISE EN ŒUVRE 6 8 10 12 14 16 18 20 0 2 4 6 8 10 ` Pourcentage d’échec Index L1 Index L2 Tri L1 Tri L2 Figure 11.1 – Pourcentage d’échec d’accès mémoire dans les différentes mémoires caches lors de 100 fusions de deux listes de 2 ` éléments 6 8 10 12 14 16 18 20 20 40 60 80 ` Éléments/ µs Index Tri Figure 11.2 – Nombre de collisions générées par microsecondes lors de 100 fusions de deux listes de 2 ` éléments de ` bits.11.2. ANALYSE DE LA COMPLEXITÉ ET ESTIMATION DES PARAMÈTRES61 11.2 Analyse de la complexité et estimation des paramètres Pour cette analyse, nous ferons ces hypothèses : Hypothèse 1. Nous appliquons l’algorithme à un problème d’ordre cryptographique ; c’est-à-dire que la probabilité pour un mot de longueur n et de poids p tiré aléatoirement d’être solution du problème est très inférieur à 1. Hypothèse 2. Le problème ne possède qu’une solution (ou bien on cherche une solution spécifique dans l’ensemble des solutions). Hypothèse 3. La valeur 1 − (1 − p) N où p  1 et N est un entier positif peut être approximée par min(1, pN) (voir figure 11.3). 0 0.2 0.4 0.6 0.8 1 ·105 0 0.2 0.4 0.6 0.8 1 N min(1, pN) 1 − (1 − p) N Figure 11.3 – Approximation de 1 − (1 − p) N par min(1, pN) . Le coût moyen de l’algorithme 4 est WF = 1 P (KG + KS + µKF ) où : – P est la probabilité de succès d’une itération, – KG est le coût de la permutation et de l’élimination de Gauss, – KS est le coût d’une itération de l’algorithme SubISD, – KF est le coût d’un test final, – µ est le nombre moyen de candidats produits par l’algorithme SubISD.62 CHAPITRE 11. MISE EN ŒUVRE Afin de mesurer les coûts des diverses étapes nous utiliserons comme unité de base une opération de colonne, définie comme étant une lecture ou écriture d’une colonne en mémoire accompagnée d’une addition de deux colonnes ou d’un test de poids d’une colonne. Lors du calcul de tous les éléments eM où M est une matrice binaire et où e prend successivement toutes les valeurs de l’ensemble des mots de support et de poids donné, le coût pour construire un de ces éléments sera ramené à celui d’une addition. En effet, en conservant les sommes partielles, il est possible de construire un nouvel élément eM en une seule addition ; la somme de p colonnes étant calculée en ajoutant une colonne à la somme de p − 1 colonnes. Il est possible de ramener le coût d’un test final à celui d’une lecture en mémoire et d’un test de poids (voir la section 11.3), c’est-à-dire à 1 selon notre unité de base. Dans le cadre de l’hypothèse 1, le coût du pivot de Gauss partiel (coût O(r 3 )) s’efface face au reste de l’algorithme (coût exponentiel en p). Le paramètre p grandissant avec la taille du problème considéré, nous pourrons ignorer ce coût lors des calculs. On constate en pratique que cette hypothèse se confirme rapidement lorsque la difficulté du problème croît. Il est évident qu’une itération d’un algorithme SubISD pourrait se terminer dès que la liste des solutions à renvoyer est non vide. Cependant ce gain potentiel est négligeable vis-à-vis du nombre d’itérations nécessaires pour résoudre un problème d’ordre cryptographique. Nous ignorerons cet aspect pour l’analyse afin d’alléger les formules de complexité. 11.2.1 Probabilité de succès d’une itération Lemme 1. Soit X le nombre d’éléments distincts après n tirages uniformes avec remise dans un ensemble de taille M. L’espérance de X est : E(X) = M  1 −  1 − 1 M n Démonstration. Soient A = {a1, . . . , aM} et B l’ensemble des éléments distincts obtenus après n tirages uniformes avec remise dans A. Soit yi = ( 1 si ai ∈ B 0 sinon11.2. ANALYSE DE LA COMPLEXITÉ 63 X = X M i=1 yi E(X) = X M i=1 E(yi) E(yi) = P(ai ∈ B) = 1 − P(ai ∈/ B) = 1 − M − 1 M n E(X) = M  1 −  1 − 1 M n La probabilité P de succès d’une itération dépend de la variante utilisée et du nombre de candidats distincts µd renvoyés par l’algorithme SubISD ainsi que de la probabilité qu’a un de ces candidats d’être solution du problème. P = 1 − (1 − 2 ` E(p, `))µd ≈ 2 ` E(p, `)µd où E(p, `) = r−` w−p  2 r  1 − (1 − 1 2 r−` ) ( n w)  ≈ r−` w−p  min(2r , 2 l n w  ) Démonstration. Soit Wi,j l’ensemble des mots binaires de longueur i et de poids j. Soient H, H0 , s et s 0 tels que représentés figure 10.1 La probabilité P est la probabilité qu’au moins un des µd candidats générés par l’algorithme SubISD passe le test final. Le vecteur s 0 est tiré dans U = {e(I|H0 ) t | e ∈ Wn,w} donc un candidat e passe le test final avec probabilité Pf = P(Poids(eH0t + s 0 ) = w − p) = r−` w−p  E(|U|) . En effet, tirer un vecteur e dans Wk+`,p revient à tirer simultanément r−` w−p  éléments de U car il existe r−` w−p  vecteurs e 0 dans Wr−`,w−p et que chacun d’eux nous permet de construire (e 0 |e)(I|H0 ) t , élément de U. L’ensemble U est l’ensemble des mots obtenus en multipliant chaque mot de Wn,w par (I|H0 ) t . Si l’on suppose les mots e(I|H0 ) t où e ∈ Wn,w indépendants, chaque élément de U peut être vu comme le résultat d’un64 CHAPITRE 11. MISE EN ŒUVRE tirage uniforme dans {0, 1} r−` . Le lemme 1 nous donne donc E(|U|) = 2r−`  1 − (1 − 1 2 r−` ) ( n w)  Si l’on note E(p, `) la probabilité pour un mot e quelconque de longueur k+` et de poids p d’être solution du problème, c’est-à-dire de vérifier eHt = s et de passer le test final. Ces deux évènements étant indépendants, nous avons donc E(p, `) = P(eHt = s)Pf = 1 2 ` Pf Finalement P = 1 − (1 − Pf ) µd = 1 − (1 − 2 ` E(p, `))µd ≈ 2 l E(p, `)µd et E(p, `) = Pf 2 ` = r−` w−p  2 r  1 − (1 − 1 2 r−` ) ( n w)  ≈ r−` w−p  min(2r , 2 l n w  ) 11.2.2 Coût des algorithmes SubISD Pour calculer le coût d’un algorithme SubISD, nous réécrivons ceux-ci en déroulant les appels à la fonction Fusion (en utilisant une fusion par indexation) puis nous comptons le nombre d’exécutions de chaque instruction effectuant une opération de colonne, notre opération de base qui, pour rappel, est définie comme étant une lecture ou écriture d’une colonne en mé- moire accompagnée d’une addition de deux colonnes ou d’un test de poids d’une colonne. Stern/Dumer Pour calculer le coût de l’algorithme 9, nous allons compter le nombre d’exécutions des instructions (1), (2) et (3) puis sommer ces nombres. Le nombre d’éléments renvoyés par l’algorithme sera égal au nombre d’exécutions de l’instruction (3). (1) |W0| (2) |W1| (3) |W1|E(|E |)11.2. ANALYSE DE LA COMPLEXITÉ 65 Algorithme 9 Stern/Dumer Fonction SubISDSD(H, s, p, S) (W0, W1) ← InitSD(p, S) T ← InitStruct() L ← ∅ Pour e0 ∈ W0 Stocker(T, e0Ht , e0) (1) Pour e1 ∈ W1 E ← Lire(T, s − e1Ht ) (2) Pour e0 ∈ E L ← L ∪ {e0 + e1} (3) Retourner L Commentaires : InitSD(S, p) initialise la liste des mots de poids p et de support S et son complémentaire. Voir section 10.0.3. InitStruct() initialise une structure associant à un mot une liste de vecteur. Stoquer(T, i, v) ajoute le vecteur v dans la liste associée au mot i dans la structure T. Lire(T, i) renvoie la liste de vecteurs associée au mot i dans la structure T. Les instructions (1) et (2) effectuent chacune une opération de colonne. En effet, chaque produit eHt est une somme de p/2 colonnes de H qui est presque tout le temps partiellement calculé par l’itération de la boucle précédente. Le nombre d’exécutions de l’instruction (3) dépend du nombre d’élé- ments présents dans l’ensemble E . Si l’on suppose que les éléments e0, insérés dans T lors de l’instruction (1), y sont répartis uniformément, l’espérance du cardinal de E vaut |W0| 2 ` ; il s’agit du nombre d’éléments insérés dans T multiplié par la probabilité pour qu’un élément donné se trouve à l’emplacement indexé s − e1Ht . Le nombre d’insertions dans T est donné par le nombre d’exécutions de l’instruction (1). Si l’on se place dans le cas idéal et que l’on pose L = |W0| = |W1| = (k+`)/2 p/2  , le coût moyen de l’algorithme est donc : KSD = |W0| + |W1| + |W0||W1| 2 ` = 2L + L 2 2 ` Le nombre moyen d’éléments renvoyés est : µ = |W0||W1| 2 ` = L 2 2 `66 CHAPITRE 11. MISE EN ŒUVRE Certaines variantes peuvent renvoyer plusieurs fois un même élément mais cette variante considère des mots de supports disjoints. Nous avons donc µd = µ et, si l’on néglige le coût de l’élimination de Gauss, le facteur de travail est WFSD = 1 P 2L + 2 L 2 2 ` ! En approximant que ce facteur de travail est minimum lorsque les deux termes de la somme sont égaux, nous obtenons un facteur de travail minimal lorsque ` ≈ log2 (L). Cette approximation peut faire perdre un facteur proche de 2, si les contraintes mémoires le permettent, il faudra choisir ` légèrement supérieur à cette valeur (voir figure 11.4). Pour conclure, nous avons WFSD(p) ≈ 4L 2 P2 ` = c E(p, `)2` où c est une constante ; p sera choisi pour minimiser cette formule et ` sera choisi légèrement supérieur à log2 ( (k+`)/2 p/2  ). Minimum approximé Vrai minimum 20 25 30 35 40 0 2 4 6 ·108 L L 2/2 ` L + L 2/2 ` Figure 11.4 – Approximation de min(L + L2 2 ` ). Ici k = 524, p = 8 May, Meurer et Thomae Comme précédemment, pour calculer le coût de l’algorithme 10, nous allons compter le nombre d’exécutions des instructions (1) à (7) puis sommer ces nombres. Le nombre d’éléments renvoyés par l’algorithme sera égal au nombre d’exécutions de l’instruction (7).11.2. ANALYSE DE LA COMPLEXITÉ 67 Algorithme 10 MMT Fonction SubISDMMT(H, s, p, `2, S0, S2, A) (H0 , H00, s0 , s00, W0, W1, W2, W3) ← InitMMT(H, s, p, `2, S0, S2) T0 ← InitStruct(); T2 ← InitStruct() L ← ∅ Pour e0 ∈ W0 Stocker(T0, e0Ht , e0) (1) Pour e2 ∈ W2 Stocker(T2, e2Ht , e2) (2) Pour a ∈ A T01 ← InitStruct() Pour e1 ∈ W1 E0 ← Lire(T0, e1Ht + a) (3) Pour e0 ∈ E0 Stocker(T01,(e0 + e1)H0t , e0 + e1) (4) Pour e3 ∈ W3 E2 ← Lire(T2, s − e3Ht − a) (5) Pour e2 ∈ E2 E01 ← Lire(T01, s0 − (e2 + e3)H0t ) (6) Pour e01 ∈ E01 L ← L ∪ {e01 + e2 + e3} (7) Retourner L (1) |W0| (2) |W2| (3) |A||W1| (4) |A||W1|E(|E0|) (5) |A||W3| (6) |A||W3|E(|E2|) (7) |A||W3|E(|A2|)E(|E01|) En supposant que les éléments insérés dans T0, T2 et T01 y sont insérés uniformément (ce qui est naturel si H est aléatoire), nous obtenons les espérances des ensembles E0, E1 et E01 en multipliant le nombre d’insertions dans chaque structure par la probabilité pour qu’un élément donné se trouve dans un emplacement donné. Le nombre d’insertions dans T0 et T2 est donné respectivement par le nombre d’exécutions des instructions (1) et (2). T01 étant réinitialisée à chaque nouvelle valeur de a, le nombre d’insertions dans T01 est égal au nombre d’exécutions de l’instruction (4) pour une valeur de68 CHAPITRE 11. MISE EN ŒUVRE a donnée ; soit |W1|E(|E0|). E(|E0|) = |W0| 2 `2 E(|E2|) = |W2| 2 `2 E(|E01|) = |W1|E(|E0|) 2 `−`2 = |W0||W1| 2 ` Si l’on pose L = |W0| = |W1| = |W2| = |W3| = (k+`)/2 p/4  , le coût moyen de l’algorithme est donc : KSubISD = |W0| + |W2|+ |A|  |W1| + |W0||W1| 2 `2 + |W3| + |W2||W3| 2 `2 + |W0||W1||W2||W3| 2 `+`2  KSubISD = 2L + |A| 2L + 2 L 2 2 `2 + L 4 2 `+`2 ! Le nombre moyen d’éléments renvoyés est : µ = |A||W3|E(|E2|)E(|E01|) = |A| L 4 2 `+l2 Il faut sélectionner A tel que |A|  2 `2 ; ainsi le nombre de doubles (candidats générés plusieurs fois) est limité et on peut faire l’hypothèse µd = µ. On obtient alors pour le facteur de travail de l’algorithme WFMMT = 1 P 2L + |A| 2L + 2L 2 2 `2 + L 4 2 `+`2 ! + |A|L 4 2 `+`2 ! Il faut par contre choisir A suffisamment grand pour rentabiliser la construction des structures T0 et T2 (instructions (1) et (2)) ainsi que l’élimination de Gauss. Leurs coûts peuvent alors être négligés. Choisir `2 suffisamment petit par rapport à log2 (L), permet d’obtenir des ensembles E0 et E2 non vides, de rentabiliser les interrogations aux structures T0 et T2 (instructions (3) et (5)) et de négliger leurs coûts dans la formule. Celle-ci devient : WFMMT = 2|A| P L 2 2 `2 + L 4 2 `+`2 ! En approximant (comme pour le facteur de travail de l’algorithme Stern/Dumer) que le minimum est atteint lorsque les deux termes de la sommes sont égaux11.3. OPTIMISATIONS 69 nous obtenons que le facteur de travail est minimum lorsque ` ≈ log2 (L 2 ). De même que pour WFSD il faudra choisir ` légèrement supérieur à cette valeur pour se rapprocher de la vraie valeur minimum. Pour résumer, le facteur de travail est WFMMT(p) ≈ 4|A|L 4 P2 `+`2 = c E(p, `)2` où c est une constante ; p sera choisi pour minimiser cette formule et ` sera choisi légèrement supérieur à log2 ( (k+`)/2 p/4 2 ). Il est intéressant de remarquer que si A et `2 sont choisis tels que proposés précédemment, leurs valeurs ne rentrent pas en compte dans le calcul du facteur de travail. La variante MMT est supérieure à la version Stern/Dumer car même si l’expression des facteurs de travail est similaire, la valeur optimale du paramètre ` est supérieure pour l’algorithme MMT. 11.3 Optimisations Cette section utilise les notations de la figure 11.5. Critère d’abandon prématuré d’un candidat L’idée d’abandon prématuré d’un candidat fut évoquée dans [45] puis utilisée dans [15]. Lorsqu’un candidat est fourni par l’algorithme SubISD, il faut tester ce candidat sur le reste de la matrice H0. Cependant, il n’est pas nécessaire de calculer la somme correspondante à ce candidat sur toute sa longueur ; dès que le poids de la somme dépasse w −p, on peut considérer le candidat non-valide. Si l’on considère que tous les candidats non-valides vont produire un mot aléatoire de poids moyen (r − `)/2, un candidat sera éliminé en moyenne après calcul de 2(w − p) bits. De manière générale, si on élimine tous les candidats donnant un mot de poids supérieur à t après avoir calculé d bits de la somme correspondante, la probabilité d’éliminer un candidat qui est la solution est : Pm(d, t) = 1 − X t i=0 d i r−d−` w−p−i  r−` w−p  Dans ce même contexte, la probabilité de fausse alarme, c’est-à-dire la probabilité qu’un mot aléatoire (correspondant donc à un mot non-valide) ne soit pas éliminé à ce stade est : Pfa(d, t) = X t i=0 d i  2 d70 CHAPITRE 11. MISE EN ŒUVRE Calcul partiel de la forme échelonnée partielle Puisqu’il est possible d’éliminer un candidat sans effectuer le test final complet, il n’est pas nécessaire de calculer la forme échelonnée partielle en entier lors de l’élimination de Gauss. Si lors de cette étape, on ne calcule que d lignes de la partie supérieure (pour former la matrice H0 ici) et que l’on fixe un seuil t au-delà duquel on considère un mot non-valide, le test final d’un candidat e revient au calcul du poids de Hamming de eH0t puis si ce poids est inférieur à t, il faut calculer le poids de eH00t . Ce dernier calcul nécessite de calculer au moins partiellement H00 mais sera effectué avec probabilité Pfa(d, t), ce qui permet de le rendre aussi négligeable que souhaité. En revanche, il devient possible de manquer la solution ce qui multiplie le nombre de candidats moyen nécessaire, et donc le coût total de l’algorithme, par 1 1−Pm(d,t) . 0 H 1 1 H0 H00 s t s 0t s 00t = e 0 e × r ` d Figure 11.5 – Nouveau découpage de la matrice H0 après élimination de Gauss. Seules H et H0 sont calculées initialement. L’algorithme 11 est une version simplifiée de l’algorithme 4 intégrant ces deux optimisations. Extension et mémorisation des sommes de colonnes Les algorithmes SubISD calculent des sommes de colonnes de H. En pratique ` est souvent inférieur à la taille d’un mot machine (qui font typiquement 64 bits aujourd’hui). Il en résulte donc que calculer une somme de colonnes de H n’utilise pas pleinement la capacité d’une unité de calcul. Afin de ne pas gaspiller ces bits sommés, il est possible de choisir d (figure 11.5) tel que d + ` soit égale à la taille d’un mot machine et de faire en sorte que l’algorithme SubISD fasse les sommes sur les colonnes de la matrice composée des H et H0 empilées. Les d bits supplémentaires du résultat correspondants à la matrice H0 seront stockés pour être réutilisés lors du calcul de eH0t (étape (1) de l’algorithme 11). Une fois d fixé, le seuil t sera choisi afin de minimiser le coût de l’algorithme. En pratique, il est simple d’exécuter le programme sur quelques11.3. OPTIMISATIONS 71 Algorithme 11 Information Set Decoding avec abandon prématuré Entrée : Voir l’algorithme 4 un entier 0 < d < r − `, un entier 0 ≤ t ≤ d. Sortie : Voir l’algorithme 4 Fonction ISD_EarlyAbort(H0, s0, w, p, `, d, t) Boucle (H, H0 , H00, s, s0 , s00, P) ← InitISD(H0, `, s0) . voir figure 11.5 Pour e ∈ SubISD(H, s, p) w 0 ← Poids(eH0t + s 0 ) (1) Si w 0 < t Si Poids(eH00t + s 00) + w 0 = w − p Retourner (eH00t |eH0t |e)P −1 itérations pour mesurer les coûts des différentes étapes puis de minimiser le coût total de l’algorithme en faisant varier t sur l’intervalle J1, min(d, w−p)K. Sacrifice de candidats Lors d’une fusion de listes par indexation (voir section 11.1.2), il peut être coûteux de résoudre les collisions dans la structure de données. Une collision dans la structure se produit lorsque un élément doit être rangé à un indice déjà occupé. Il existe est possible de gérer ces collisions en chaînant les éléments ou en utilisant un adressage ouvert, c’est-à-dire l’utilisation d’une méthode de sondage qui trouvera un nouvel emplacement pour l’élé- ment. Ces méthodes ont l’inconvénient d’imposer l’ajout de contrôle et des accès mémoires potentiellement aléatoires lors de l’insertion ou la consultation de la structure. Il est cependant possible d’ignorer ces collisions et de simplement conserver le premier ou dernier élément que l’on voudra ranger à un indice donné. Cela permet d’éviter ces inconvénients mais toutes les collisions entre les deux listes ne sont plus trouvées. Du point de vue des algorithmes SubISD, tous les candidats potentiels ne sont plus générés donc le nombre d’itérations de l’algorithme global augmente mais cela réduit le coût d’une itération. La figure 11.6 compare le nombre d’éléments générés par microsecondes lors de 100 fusions de deux listes de 2 ` éléments aléatoires de ` bits dans le cas où les collisions dans la structure de données sont gé- rées (l’équivalent d’une table de hachage où les collisions sont résolues via chaînage) et celui où elles ne le sont pas (un simple tableau). On pourrait penser que cette optimisation pourrait se dégrader avec le rapport (taille de la liste à indexer)/(nombre de bits de chaque élément)72 CHAPITRE 11. MISE EN ŒUVRE 6 8 10 12 14 16 18 20 100 200 300 400 500 600 ` Éléments/ µs Collisions ignorées Collisions gérées Figure 11.6 – Nombre d’éléments générés par µs lors de 100 fusions de deux listes de 2 ` éléments aléatoires de ` bits. de par l’augmentation du nombre d’éléments devant être rangé à un même indice. En pratique on constate la tendance inverse. La figure 11.7 est équivalente à la figure 11.6 mais fait varier la taille des listes en fixant la taille des éléments (11 bits ici). 8 10 12 14 16 18 20 200 400 600 800 1,000 ` Éléments/ µs Collisions ignorées Collisions gérées Figure 11.7 – Nombre d’éléments générés par µs lors de 100 fusions de deux listes de 2 ` éléments aléatoires de 11 bits.11.3. OPTIMISATIONS 73 Parcourir les mots de poids constants Toutes les variantes de l’algorithme 4 nécessitent de parcourir tout ou partie des mots binaires de longueur et de poids donnés et de les multiplier par une matrice. Il est possible de faire cela de deux façons différentes. Supposons que l’on veuille parcourir tous les mots de poids p de longueur n et les multiplier par une matrice H ∈ mats`n. La première consiste à écrire une fonction qui à partir d’un mot de poids p calcule le mot suivant selon une relation d’ordre prédéfinie. Il reste ensuite à multiplier le mot par H et à traiter le résultat avant d’itérer. Il est préférable que la relation d’ordre minimise la distance de Hamming entre deux mots successifs afin de rentabiliser le calcul des sommes partielles. L’algorithme 12 est un exemple d’une telle fonction. Algorithme 12 Parcours de mots de poids constant Entrée : Un entier p, un entier n, un mot binaire t de poids p sous forme d’un tableau de p entiers ∈ J0, nJ. Ces entiers représentent les positions non nulles de t. Les éléments de t vérifient t[i] < t[i + 1] ∀i ∈ J0, p − 1J. Sortie : Le mot binaire u suivant t selon la relation d’ordre, ou t si t n’a pas de successeur, le plus grand i tel que u[i] 6= t[i], ou −1 si t n’a pas de successeur. Fonction Suivant(t, p, n) u ← t i ← p − 1 Tant que i ≥ 0 et t[i] ≥ n − p + i i ← i − 1 Si i < 0 Retourner u, −1 Pour j ← i + 1, p u[j] ← u[j − 1] + 1 Retourner u, i Commentaires : Retourner i indique à une fonction appelante à partir de quel indice le tableau de sortie diffère du tableau d’entrée. La deuxième approche consiste à imbriquer p boucles de tel façon que le p-uplet formé des indices de chaque boucle parcoure l’ensemble des puplets d’entiers appartenant à J0, nJ. Cette approche n’est pas flexible car elle impose d’utiliser une procédure de génération de code mais elle est plus rapide.74 CHAPITRE 11. MISE EN ŒUVRE En pratique, les algorithmes SubISD calculent un tel produit puis stockent le résultat dans une structure de données à un emplacement indexé sur ` bits. De ce fait, lorsque ce paramètre croît, le nombre d’echec d’accès au cache L1 (puis L2) augmente. Cela rend le calcul du produit négligeable en comparaison du coût des accès mémoire et donc amenuise le bénéfice de cette optimisation. Pistes à explorer Lors d’une fusion de grandes listes par indexation (voir section 11.1.2), les accès aléatoires en mémoire sont ce qui coûte le plus cher. Il est cependant possible de réduire la taille de la structure à interroger. En effet, il est possible de commencer par interroger une structure de taille plus petite qui nous dira s’il y a ou non un élément rangé à cet emplacement dans la structure principale. Ce comportement, ressemblant à celui d’une mémoire cache, peut être mis en place via l’utilisation d’un tableau d’octet (rapide à interroger), un bit field (plus lent mais plus compacte) ou un filtre de Bloom (encore plus lent et plus compacte mais introduit une probabilité de faux positifs) [21]. Autre moyen de limiter les échecs d’accès à la mémoire cache, l’algorithme 6.15 de [38] est un algorithme réalisant une recherche de collisions dans une liste en utilisant des piles. Celui-ci répartit les éléments dans des piles de taille inférieure à la liste initiale puis effectue une recherche de collision dans chaque pile. La mise en œuvre de cette technique adaptée à la fusion de liste est en cours d’étude. Comportement que nous n’avons pas su exploiter, si l’on modifie l’algorithme 9 et que l’on insère un tri de la matrice H (soit sur sa globalité soit sur les deux matrices issues de la restriction de H aux supports S et S¯) on observe un motif dans l’évolution de la valeur e0Ht , c’est-à-dire de l’index où sera rangé l’élément e0 dans la structure T. Cette évolution est représentée figure 11.8. Ce comportement peut améliorer la localité spatiale des données puisque l’emplacement où sera écrite la donnée de l’itération suivante est la plupart du temps proche (ou du moins semble prévisible) de l’emplacement où est écrite la donnée de l’itération en cours. Ce comportement se produit également dans la deuxième boucle, cette fois sur l’indice où est interrogé la structure T ; la remarque précédente s’applique donc cette fois sur les données lues. Ce potentiel gain de localité d’accès aux données n’est sûrement pas suffisant pour que les accès mémoires bénéficient des mécanismes de cache. Il est peut-être possible d’aiguiller le mécanisme de préchargement de données pour tirer profit de ce comportement.11.3. OPTIMISATIONS 75 0 500 1,000 1,500 1 2 3 ·104 Itération Indice Figure 11.8 – Évolution de l’indice mémoire accédé lors des 2000 premières itérations de l’instruction (1) de l’algorithme 9 après tri de H. Ici H ∈ {0, 1} 15×285 et p = 476 CHAPITRE 11. MISE EN ŒUVRE12 | Mise en œuvre logicielle L’une des contributions de cette thèse est un logiciel mettant un œuvre les variantes de Stern/Dumer et de May, Meurer et Thomae incluant les optimisations décrites section 11.3. Cette section détaille les choix effectués lors de la réalisation de ce logiciel. Les colonnes de la matrice H sont manipulées via une représentation en colonne , c’est-à-dire qu’une colonne est stockée dans un tableau de r/b mots machines où r est la taille de la colonne et b le nombre de bits que peut contenir un mot machine. En effet, la majorité des opérations effectuées sont des sommes de section de colonnes ; sommer deux colonnes revient donc à sommer les mots machines correspondants. Cela permet aussi d’échanger simplement deux colonnes puisqu’il suffit d’échanger les adresses des tableaux. La bibliothèque M4RI [4] est utilisée pour l’algèbre linéaire. Elle dispose de fonctions de manipulations de matrices binaires telles que le découpage ou la transposition mais surtout met en œuvre la méthode des quatre russes qui permet de gagner un facteur logarithmique sur l’élimination de Gauss. Lors de la mise sous forme échelonnée partielle de la matrice H0, la sousmatrice Hmod, version étendue de H de hauteur 64, représentée figure 12.1 est calculée 1 . Les colonnes de la sous-matrice H0 mod seront calculé plus tard au besoin. Chaque colonne de Hmod tient alors dans un mot machine. Les algorithmes SubISD manipulent la matrice H mais plutôt que de tronquer les colonnes de Hmod avant de les sommer, leurs sommes sont calculées sur Hmod (les 64 bits) puis conservées en mémoire pour usage futur avant d’être tronquées pour l’algorithme de fusion. Lorsqu’un candidat e (un mot de poids p qui vérifie eHt = s) est trouvé par l’algorithme SubISD, le mot eHt mod + smod est calculé (en utilisant les sommes conservées en mémoire précédemment) et son poids est evalué. Si ce poids dépasse un certain seuil, alors le candidat est rejeté ; sinon les p colonnes de H0 mod correspondantes sont calculées (en utilisant la matrice de passage qui a mis H0 sous cette forme), sommées puis le poids de cette somme est évalué. Le seuil appliqué au poids de eHt mod + smod permet de décider s’il est 1. par conséquence, l’une des contraintes du logiciel est que ` ne peut excéder 64. 7778 CHAPITRE 12. MISE EN ŒUVRE LOGICIELLE préférable d’appliquer le test final (calculer le poids de eH0t mod +s 0 mod) ou s’il vaut mieux considérer ce candidat invalide (quitte à manquer la solution). Si l’on reprend les notations de la section 11.3, le coût de la vérification d’un candidat généré par SubISD revient au coût du calcul du poids de eHt mod + smod (2 additions et un poids puisque l’on somme deux éléments des listes de SubISD au syndrome) auquel s’ajoute le coût du calcul du poids de eH0t mod + s 0 mod multiplié par la probabilité d’effectuer ce calcul Pfa(64, t). En revanche, le coût total est multiplié par la probabilité de mettre de côté un candidat qui était la vraie solution : Pm(64, t) Si ` n’est pas trop proche de 64, il est possible de positionner le seuil t de telle sorte que Pfa(64, t) et Pm(64, t) soit très faible, ce qui permet de pouvoir négliger le coût du test final sans pour autant faire croître enormément le coût global. Il est donc possible de calculer la valeur de ` qui minimise ces deux probabilités mais il est également possible de mesurer l’évolution des performances du programme en faisant varier ce seuil (le programme utilise la valeur heuristique t = 64−` 4 si le seuil ne lui est pas précisé). 0 Hmod 1 1 H0 mod s t mod s 0t mod r ` 64 = = 0 H 1 1 H0 s t s 0t r ` n k + ` Figure 12.1 – Le logiciel calcule Hmod, une version étendue de H.13 | Challenges Wild McEliece En 2011, Bernstein, Lange et Peters ont mis en ligne une page web [16] regroupant un ensemble de challenges cryptographiques concrets afin d’encourager la communauté des cryptographes à étudier la sécurité des cryptosystèmes basés sur les codes. Ces challenges ont été créés dans le contexte d’un système de McEliece utilisant des codes de Goppa non-binaires [18] mais certains sont basés sur des codes binaires. Les problèmes sont de diffi- culté croissante et sont des décodages de codes sur des corps finis ayant des alphabets de taille variant entre 2 et 32. Les challenges basés sur des codes binaires sont utilisés afin de mesurer les performances des algorithmes et du logiciel présenté chapitre 12. Les challenges basés sur des codes non-binaires n’ont pas été étudiés. Les challenges binaires sont au nombre de 61 et sont présentés sous la forme d’une clé publique et d’un chiffré. Il s’agit en réalité de la variante de Niederreiter donc sont donnés une matrice de parité et un syndrome. Les auteurs invitent les challengers à : – retrouver les textes clairs correspondant aux chiffrés ; – retrouver les clés secrêtes correspondant aux clés publiques ; – mesurer les performances des cryptanalyses publiques pour les plus petits challenges afin de permettre à la communauté de constater les améliorations des algorithmes d’attaque ; – donner des estimations de la difficulté de résolution des plus grands challenges. Le logiciel a pu résoudre 23 des 61 challenges proposés en utilisant l’algorithme Stern/Dumer avec le paramètre p = 4. Le tableau 13.1 répertorie pour chaque challenge résolu le paramètre ` utilisé, le nombre de cycles processeur requis pour effectuer une itération de l’algorithme, le nombre théorique d’itération que l’on s’attend à devoir exécuter avant de trouver la solution ainsi que le nombre d’itérations qui ont été réalisées avant de trouver la solution. Le tableau 13.2 donne une estimation du nombre théorique d’itération que l’on s’attend à devoir réaliser avant de trouver la solution. 7980 CHAPITRE 13. CHALLENGES WILD MCELIECE Nombre d’itérations Challenge ` Cycles/itération (log2) Attendu (log2) Mesuré (log2) 5 15 21.17 13.32 13.30 6 15 21.28 15.10 14.72 7 15 21.53 16.98 16.76 9 15 21.54 17.87 17.76 10 17 22.35 19.51 16.73 11 16 22.29 20.42 19.90 12 16 22.34 21.36 22.24 13 17 22.77 23.26 20.86 14 17 22.80 24.19 22.16 15 17 22.67 25.24 24.13 16 17 23.04 27.07 23.01 17 17 22.97 28.07 25.87 18 17 23.04 29.04 28.69 19 17 23.12 30.00 24.89 20 17 23.16 30.95 30.30 21 17 23.23 31.90 31.74 22 17 23.30 32.83 32.90 23 18 23.55 33.83 30.48 24 18 23.74 35.66 34.67 25 17 23.45 35.73 34.63 26 17 23.57 36.67 27.68 27 18 23.74 37.72 32.21 28 18 23.57 38.67 27.92 Table 13.1 – Résultats de l’application du logiciel sur les 23 premiers challenges. Ajouter la colonne Cycles/itération et une colonne Nombre d’itérations donne le log2 de l’effort de travail attendu/mesuré81 Nombre d’itérations Challenge ` Cycles/itération (log2) Attendu (log2) 32 17 23.70 38.58 34 19 24.32 39.16 36 19 24.36 40.18 38 19 24.35 42.09 40 19 24.38 43.16 42 20 25.05 45.06 44 19 24.42 46.08 46 19 24.54 47.02 48 19 24.75 48.88 50 19 24.75 49.90 52 19 24.75 50.92 54 20 25.36 52.80 56 20 25.25 53.83 58 19 25.09 54.75 60 19 25.04 55.71 62 20 25.24 56.79 64 20 25.48 58.58 68 20 25.41 60.66 72 20 25.47 62.63 76 20 25.43 64.60 80 20 25.92 66.39 84 21 26.42 69.35 88 21 26.43 71.33 92 20 25.92 72.34 96 20 26.09 74.32 100 20 26.02 76.25 104 20 26.01 77.27 108 20 25.91 79.23 112 20 25.86 80.25 128 20 25.77 80.27 136 21 26.94 82.81 144 22 27.44 85.75 152 22 27.58 88.66 160 21 27.16 90.65 168 22 27.64 93.58 176 22 27.59 96.58 184 21 27.38 98.55 192 22 27.83 101.45 Table 13.2 – Estimation de l’effort de travail à fournir pour résoudre les challenges restants. Ajouter la colonne Cycles/itération et la colonne Nombre d’itérations donne le log2 de l’effort de travail attendu82 CHAPITRE 13. CHALLENGES WILD MCELIECE14 | Attaque d’un schéma de chiffrement basé sur des codes convolutifs Les travaux présentés dans ce chapitre ont fait l’objet d’une publication lors de la conférence PQCrypto 2013 [44]. 14.1 Introduction Löndahl et Johansson ont proposé en 2012 [47] une variante du cryptosystème de McEliece remplaçant les codes de Goppa par des codes convolutifs. Cette modification se veut rendre les attaques structurelle plus difficiles puisque la matrice génératrice publique de ce schéma contient de grandes parties générées entièrement aléatoirement. Deux schémas sont proposés, l’un consiste à étendre un code de Goppa en y ajoutant la matrice génératrice d’un code convolutif évolutif. Nous montrons ici que ce schéma peut être attaqué en recherchant des mots de code de poids faible dans le code public du schéma et en les utilisant pour démêler la partie convolutive de la partie Goppa. Il ne reste ensuite qu’à casser la partie Goppa de ce schéma, ce qui peut être fait en moins d’un jour de calcul. La proposition d’utiliser des codes convolutifs émise dans [47] s’insère dans le fil de recherche présenté section 1.3.2 visant à proposer des alternatives aux codes de Goppa dans le système de McEliece. La nouveauté inté- ressante de ce schéma est le fait que la clé secrète est composée de grandes parties générées complètement aléatoirement, dépourvues donc de structure algébrique contrairement aux codes de Reed–Solomon, les codes algébriques géométriques, les codes de Goppa ou les codes de Reed–Muller. Dans [47], deux schémas sont proposés. Le premier envisage un système ou la clé secrète est simplement la matrice génératrice d’un code convolutif tail-biting évolutif. Des paramètres supposés rendre le schéma résistant aux attaques de complexité temporelle 2 80 opérations élémentaires et permettant une complexité de décodage raisonnable y sont suggérés. L’inconvénient de cette construction est que la complexité du décodage augmente exponentiel- 8384 CHAPITRE 14. ATTAQUE D’UN MCELIECE CONVOLUTIF lement avec le niveau de sécurité souhaité. Les auteurs donnent cependant un deuxième schéma qui, lui, passe à l’échelle et qui est construit en partant d’un code de Goppa et en l’étendant en y adjoignant la matrice génératrice d’un code convolutif évolutif. Nous étudions la sécurité de ce second schéma. La proposition plaide que la structure convolutive du code ne peut être retrouvée de par la suffisamment grande distance minimale du code dual. Cependant, nous montrons ici que cette défense supplémentaire peut être attaquée en recherchant des mots de code de poids faible dans le code public du schéma. En utilisant une procédure de filtrage adaptée de ces mots de code, nous parvenons à démêler la partie convolutive de la partie Goppa de la matrice publique. L’élément principal qui permet à cette attaque de fonctionner est le phé- nomène suivant : le code public de ce schéma contient des sous-codes de support bien plus petit que celui du code public alors que leurs rendements restent proches de celui du code public. Le support de ces mots peut être facilement trouvé par des algorithmes de recherche de mots de poids faible. Il est intéressant de remarquer que le schéma de signature KKS [39] a été cassé par cette même approche [58]. Le support de ces sous-codes révélant la structure convolutive, il suffit de poinçonner le code public pour ne conserver que la partie Goppa. Après cela, déchiffrer un message chiffré devient possible vis-à-vis des paramètres données dans [47], car ceux-ci sont suffisamment faibles pour que les algorithmes génériques de décodage de codes linéaires fonctionnent en temps raisonnable. En effet, dans ce contexte, l’attaque ne nécessite que quelques heures de calcul. Il semble possible de modifier les paramètres du schéma pour éviter ce genre d’attaque. Afin de donner un aperçu du nouveau niveau de sécurité de ce schéma, une version améliorée de cette attaque est décrite et sa complexité est analysée dans la section 14.5.1. Celle-ci suggère que le schéma pourrait être réparé en le paramétrant de manière plus conservatrice. Quelques indications sur la manière de procéder sont donnée section 14.5.3. 14.2 Un schéma de McEliece basé sur des codes convolutifs Le schéma peut se résumer de la façon suivante : Clé secrète : – Gsec une matrice génératrice k × n construite par blocs telle que montré figure 14.1 ; – P une matrice de permutation n × n ; – S une matrice aléatoire inversible k × k sur F2. Clé publique : Gpub def = SGsecP . Chiffrement : Le chiffré c ∈ F n 2 d’un texte clair m ∈ F k 2 est obtenu14.3. DESCRIPTION DE L’ATTAQUE 85 en tirant aléatoirement e dans F n 2 de poids t et en calculant c def = mGpub + e. Déchiffrement : Il consiste en les étapes suivantes : 1. Calculer c 0 def = cP −1 = mSGsec + eP −1 et utiliser l’algorithme de décodage du code de matrice génératrice Gsec pour retrouver mS partant de c 0 ; 2. Multiplier le résultat du décodage par S −1 pour retrouver m. Ce qui permet à ce schéma de fonctionner est le fait que si t est correctement choisi alors la partie Goppa du mot peut être décodé avec grande probabilité, ce qui permet au décodeur séquentiel du code convolutif évolutif de décoder les erreurs restantes. Nous dénoterons désormais par Cpub le code de matrice génératrice Gpub et par Csec le code de matrice génératrice Gsec. 0 GB Gij 0 b b b b c c c mb Gsec = Lb kB nB Partie Goppa Lc Partie convolutive Partie aléatoire Figure 14.1 – La matrice génératrice secrète. Les zones non-blanches indiquent les éléments non-nuls de la matrice. GB est une matrice génératrice d’un code de Goppa binaire de longueur nB et de dimension kB. À cette matrice est concaténée la matrice génératrice d’un code convolutif évolutif transformant b bits d’information en c bits de donnée (les blocs Gij sont donc de taille b × c) ainsi que c colonnes aléatoires. La dimension du code final est donc k def = kB + Lb et sa longueur est n def = nB + (L + 1)c où L est la taille de la fenêtre de temps sur laquelle s’étend le codage convolutif. 14.3 Description de l’attaque Le but de cette section est d’expliquer l’idée sous-jacente de l’attaque qui est une attaque de récupération de message tirant parti d’une récupération86 CHAPITRE 14. ATTAQUE D’UN MCELIECE CONVOLUTIF partielle de la clé. L’attaque est divisée en deux parties. La première consiste en une récupération partielle de la clé visant à retrouver quelles positions du chiffré correspondent à la partie convolutive du code. La deuxième partie consiste en une attaque de récupération de message tirant parti du fait que si la partie convolutive est révélée, alors un attaquant peut, avec forte probabilité, déchiffrer un message s’il est capable de décoder un mot de code linéaire de longueur nB bruité en moins de tB def = t nB n positions (il s’agit du nombre moyen d’erreur que la partie Goppa doit décoder). 14.3.1 Démêler la structure convolutive Les auteurs de [47] ont choisi les paramètres de leur schéma de telle sorte qu’il soit difficile de trouver des mots de poids faible dans le code dual du code public Cpub. L’article plaide que la seule distinction entre le code public et un code aléatoire est la présence de la structure convolutive en terme d’équation de parité de poids faible. Par exemple, les paramètres (n, k, c, b, t) = (1800, 1200, 30, 20, 45) sont proposés et les auteurs proposent d’écarter les codes ayant des équations de parité de poids inférieur à 125 lors de la construction. Cependant, le fait que la structure de Cpub mène de façon naturelle à des mots de poids faible dans le code lui-même n’est pas pris en compte. En effet, le nombre de mots de codes de poids inférieur ou égal à c est très grand (≈ 2 b−1 ). Cela provient du fait que le sous-code généré par les c dernières lignes de Gsec (et permuté par P ) a un support de taille 2c et une dimension b. Par conséquence, tout algorithme cherchant des mots de poids inférieur à c devrait trouver les mots de ce sous-code. Le support de ces mots révèle les 2c dernières positions de G. En poinçonnant ces colonnes, nous obtenons un code contenant un sous-code de dimension b et de support de taille c, généré par les pénultièmes lignes de Gsec. On peut donc répéter le processus précédent mais en cherchant cette fois des mots de poids inférieur à c/2 pour révéler les c colonnes du bloc précédent. En d’autres termes, nous récupérons un premier sous-code de dimension b et ayant pour support les 2c dernières positions de Csec. Puis nous récupérons un deuxième sous-code de dimension b ayant pour support les 3c dernières positions de Csec et ainsi de suite jusqu’à obtenir, en échangeant les colonnes appropriées, la matrice génératrice G0 d’un code équivalent à Cpub qui aurait la forme présentée figure 14.2. Plus formellement, l’algorithme 13 permet de retrouver une matrice gé- nératrice d’un tel code. Nous supposons ici que : – la fonction MatriceGénératriceCodePoinçonné prend en entrée un code C de longueur n et un ensemble ordonné de positions L, sous-ensemble de J1, nK, et retourne une matrice génératrice du code C poinçonné en les positions appartenant ) L;14.3. DESCRIPTION DE L’ATTAQUE 87 0 GB b b b b 2c c G0 = Lb kB nB Partie Goppa Lc + c Partie convolutive+aléatoire Figure 14.2 – La matrice génératrice d’un code équivalent obtenu par notre approche. G0 B est la matrice génératrice d’un code de Goppa équivalent au code de matrice génératrice GB. – ChoisirW est une fonction ajustant le poids des mots recherchés en fonction de l’itération (ce paramétrage est détaillé section 14.4) ; – Support(C ) retourne le support (ordonné) du code C – l’opérateur || est l’opérateur de concaténation de listes ; – la fonction PoidsFaible prend en entrée un code C et un poids w. Elle retourne une matrice génératrice d’un sous-code de C obtenu en cherchant des mots de code de poids inférieur ou égaux à w. Un certain nombre de mots de code de poids ≤ w sont produits et les positions impliquées dans au moins t mots de codes sont placés dans une liste L (ou t est un seuil dépendant de w, de la longueur n et de la dimension k du code, ainsi que du nombre de mots de codes produits par l’appel précédent à cette fonction). Cela signifie que la position i est sélectionnée dès qu’au moins t éléments c dans C pour lesquels ci = 1 (voir algorithme 14). – la fonction MatriceGénératriceÉtendue prend en entrée une matrice génératrice d’un code C 0 , un ensemble ordonné de position L et un code C tels que C 0 est le résultat du poinçonnage de C en les positions appartenant à L. Elle retourne une matrice génératrice de C 00, sous-code permuté de C dont les positions sont réordonnées de telle façon que les premières positions correspondent au code C 0 et les autres positions à la liste ordonnée L. Ce code C 00 correspond aux mots du code C 0 qui sont étendues comme étant des mots du code C sur les position appartenant à L d’une façon linéaire arbitraire.88 CHAPITRE 14. ATTAQUE D’UN MCELIECE CONVOLUTIF Algorithme 13 Un algorithme pour trouver G0 . Entrée : La matrice génératrice publique Gpub. Sortie : Une matrice génératrice G0 d’un code équivalent à Cpub ayant la forme présentée fig. 14.2. Fonction ConstruireCodeÉquivalent(Gpub) L ← [] Pour i = L, . . . , 1 G ← MatriceGénératriceCodePoinçonné(Cpub,L) G ← PoidsFaible(G, w) w ← ChoisirW(i) Gi ← MatriceGénératriceÉtendue(G,L, Cpub) L ← Support(G)||L G ← MatriceGénératriceCodePoinçonné(Cpub,L) G0 ← MatriceGénératriceÉtendue(G,L, Cpub) G0 est la concaténation des lignes de G0, G1, . . . , GL. Retourner G0 14.3.2 Décoder les messages Si nous sommes capables de décoder le code généré par la matrice G0 B, alors les algorithmes standard de décodage de code convolutifs pourront décoder les (L + 1)c dernières positions. Soit G0 B la matrice génératrice d’un code équivalent au code de Goppa secret choisi pour le schéma spécifié figure 14.2. Un tel code peut être décoder par des algorithmes de décodage de code linéaires génériques (présentés partie II). Ces algorithmes fonctionnent en temps raisonnable vis-à-vis des paramètres proposés dans [47]. 14.4 Mise en œuvre de l’attaque pour les paramètres proposés Nous avons appliqué l’attaque sur les paramètres proposés dans [47]. Ceux-ci sont reporté dans le tableau 14.1. Table 14.1 – Paramètres pour le deuxième schéma proposés dans [47]. n nB k kB b c L m t (nombre d’erreurs) 1800 1020 1160 660 20 30 25 12 45 Ajuster correctement le paramètre w de la fonction PoidsFaible est la14.4. MISE EN ŒUVRE DE L’ATTAQUE 89 Algorithme 14 La fonction PoidsFaible Entrée : Une matrice G de taille k × n génératrice d’un code C , un entier w. Sortie : une matrice G0 génératrice d’un sous-code de C obtenu à partir des supports d’un sous-ensemble de mots de C de poids ≤ w. Fonction PoidsFaible(G, w) C ← RechercheMotsPoidsFaible(G, w) Initialiser un tableau tab de taille n à zéro t ← Seuil(w, n, k, |C |) Pour tout c ∈ C Pour i ∈ [1..n] Si ci = 1 tab[i] ← tab[i] + 1 L ← [] Pour i ∈ [1..n] Si tab[i] ≥ t L ← L||{i} G0 ← CodeRaccourci(G,L) Retourner G0 . Commentaires : RechercheMotsPoidsFaible(G, w) produit un ensemble de combinaisons linéaire de ligne de G de poids ≤ w CodeRaccourci(G,L) produit une matrice génératrice du sous-code de C formé des mots de C dont les coordonnées hors de L sont nulles. clé permettant de trouver les 60 dernières positions du code. Si w est choisi trop grand, les mots retrouvés ne permettent pas de discriminer comme souhaité les dernières positions du code. Par exemple, la figure 14.3 donne les fréquences des positions impliqués dans les supports des mots de codes de poids inférieur à 22 trouvés par l’algorithme de Dumer [26] (voir partie II) On peut voir sur cette figure que ces fréquences discriminent les 90 dernières positions du code et non les 60 désirées. Par contre, choisir w = 18 discrimine correctement ces positions, comme montré figure 14.4. La figure 14.4 a été produite à partir de 3900 mots de code générés en une heure et trente minutes par le programme présenté chapitre 12 sur un Intel Xeon W3550 (3 GHz). La récupération d’un message, consistant à décoder une moyenne de 25.5 erreurs dans un code de dimension 660 et de longueur 1020, a une complexité en temps ≈ 2 42. Celle-ci peut être exécutée par ce même programme sur cette même machine en 6.5 heures en moyenne.90 CHAPITRE 14. ATTAQUE D’UN MCELIECE CONVOLUTIF 1600 1650 1700 1750 1800 Frequency Column index Figure 14.3 – Les fréquences des positions du code impliquées dans le support des mots de codes de poids ≤ 22 générés par l’algorithme de Dumer. 14.5 Analyse de la sécurité du schéma 14.5.1 Une attaque améliorée Le but de cette section est de donner une analyse brute de la sécurité du schéma. Nous n’analyserons pas l’attaque détaillée section 14.3 puisque, même si elle suffit à casser le deuxième schéma proposé dans [47], elle n’est pas la plus efficace. Nous donnerons un aperçu d’une meilleure attaque ainsi qu’une ébauche d’analyse. Le problème fondamental du schéma est l’existante d’un sous-code C de Cpub de support très restreint (de taille 2c ici), à savoir le code généré par les b dernière lignes de G permuté par la matrice de permutation secrète P . Par exemple, il existe ≈ 2 b−1 mots de code c de poids inférieur à c qui peuvent être trouvé par un algorithme de recherche de mots de poids faible et qui révèlent le support de C . C’est là l’idée sous-jacente de notre attaque. Cependant, il existe d’autres sous-codes de support plutôt restreint qui donnent des mots de code de poids faible, à savoir les codes Cs générés par les s × b dernières lignes de G pour s allant de 2 à L. Le support de Cs est de taille (s + 1)c. On peut remarquer que leur rendement s’approche du rendement 2 3 (qui est plus ou moins le rendement du code final) lorsque s augmente. Ce phénomène aide les algorithmes de recherche14.5. ANALYSE DE LA SÉCURITÉ DU SCHÉMA 91 1600 1650 1700 1750 1800 Frequency Column index Figure 14.4 – Les fréquences des positions du code impliquées dans le support des mots de codes de poids ≤ 18 générés par l’algorithme de Dumer. de mots de petit poids. Une amélioration de notre attaque consiste à utiliser un algorithme de recherche de mots de code de poids faible pour trouver l’un des mots de Cs puis d’utiliser ce mot pour amorcer la recherche du support entier de Cs. Cela correspond à l’idée de l’attaque du schéma de signature KKS expliquée par l’algorithme 2 de la section 4.4 de [58]. Cette approche utilise le mot de code trouvé c pour trouver de nouveaux mots appartenant au même souscode de support restreint en imposant à l’algorithme de recherche de mot de petit poids le choix un ensemble d’information sans intersection avec le support de c La complexité de l’attaque est donc dominée par le coût de la recherche d’un seul mot de code de C , lorsqu’il est possible d’identifier efficacement les candidats (en vérifiant leur poids ici). Remarquons qu’il est vraisemblable que C soit le sous-code C de dimension b ayant le plus petit support. Cela est précisément la notion retranscrite par le poids de Hamming généralisé d’un code [72], wi étant défini comme la taille du plus petit support d’un sous-code de dimension i. En d’autres termes, w1 est la distance minimale du code et dans notre cas il est vraisemblable que wb = 2c (et plus généralement wsb = (s + 1)c pour s = 1..L). Exprimé différemment, le problème qui devrait être difficile est le suivant Problem 1. Trouver l’un des sous-codes de dimension s × b dont la taille92 CHAPITRE 14. ATTAQUE D’UN MCELIECE CONVOLUTIF du support est le s × b-ième poids de Hamming généralisé de Cpub. Nous allons maintenant nous concentrer sur l’approche suivante pour résoudre ce problème. Considérons un algorithme recherchant des mots de poids faible dans un code de dimension k tel que ceux présentés dans la partie II. Nous exécutons un tel algorithme et nous intéressons à la complexité de retrouver un mot appartenant à C . Cette approche est celle qui a permis de casser avec succès le schéma KKS [58] et qui est le candidat naturel pour casser le schéma proposé dans [47]. Pour analyser un tel algorithme, nous utiliserons les hypothèses simpli- ficatrices suivantes : – Le coût de vérification d’un des ensembles d’information I est de l’ordre de O  L + L 2 2 l  où L = q k+l p  . Nous négligeons ici le coût de mise sous forme systématique de la matrice de parité et ne considérons pas les améliorations récentes [49, 8]. Cette approximation est faite à des fins de simplicité. – Dénotons par k 0 la dimension du sous-code C , par n 0 la taille de son support J . Nous supposons que le code résultant du poinçonnage de C en toutes les positions n’appartenant pas à J se comporte comme un code aléatoire de dimension k 0 et de longueur n 0 . La complexité d’un tel algorithme est donnée par la proposition suivante. Proposition 1. Soit – f(x) la fonction définie sur les nombres réels positifs par f(x) def = max  x(1 − x/2), 1 − 1 x  ; – π(s) def = ( n 0 s )( n−n 0 k+l−s ) ( n k+l ) ; – λ(s) def = s p  2 k 0−s ; – C(k, l, p) def = L + L 2 2 l où L def = q k+l p  ; – Π def = Pn 0 s=1 π(s)f(λ(s)). Le coût de la recherche d’un mot de poids faible appartenant à C est alors de l’ordre de O  C(k, l, p) Π  . 14.5.2 Preuve de la proposition 1 Notre premier outil est une borne inférieure sur la probabilité qu’a un ensemble donné X ⊆ F n 2 ait une intersection non-nulle avec un code linéaire aléatoire Crand de dimension k et de longueur n tiré uniformément. Ce lemme donne une borne inférieure fine même lorsque X est très grand et quand il existe un grand écart entre les quantités prob(X ∩Crand 6= ∅) = prob(∪x∈X{x ∈ Crand}) et P x∈X prob(x ∈ Crand).14.5. ANALYSE DE LA SÉCURITÉ DU SCHÉMA 93 Lemme 2. Soit X un sous-ensemble de F n 2 de taille m et f la fonction définie par f(x) def = max  x(1 − x/2), 1 − 1 x  . Si l’on nomme x la quantité m 2n−k , alors prob(X ∩ Crand 6= ∅) ≥ f(x). Ce lemme est donné et prouvé dans [58]. Terminons désormais la preuve de la proposition 1. Dénotons J le support de C : J def = supp(C ). Commençons par calculer le nombre attendu d’ensemble I qu’il faut prendre en compte avant de trouver un élément de C . Un tel évènement se produit précisément lorsque il y a un mot non-nul dans C dont la restriction à I ∩ J est de poids p. Soit CI∩J la restriction des mots de C aux positions appartenant à I ∩ J , c’est-à-dire CI∩J def = {(ci)i∈I∩J : (ci)1≤i≤n ∈ C }. Soit X l’ensemble des mots binaires non-nuls de support I ∩ J et de poids p. Dénotons W la taille de I ∩ J . La probabilité qu’a W d’être égal à s est précisément CI∩J def = {(ci)i∈I∩J : (ci)1≤i≤n ∈ C }. La probabilité Π qu’a le choix d’un certain I de donner, parmi les mots de codes examinés par l’algorithme, un mot de C peut s’exprimer Π = nX0 s=1 prob(W = s)prob(X ∩ CI∩J 6= ∅) ≥ nX0 s=1 π(s)f(λ(s)) 14.5.3 Réparer le schéma Une réparation possible consiste à augmenter la taille de la partie aléatoire (correspondant ici aux c dernières colonnes de G). Plutôt que de prendre cette taille égale à c comme suggéré dans [47], sa taille peut être augmentée afin de contrecarrer l’algorithme décrit section 14.5.1. Notons r le nombre de colonnes aléatoires ajoutées à la fin de la partie convolutive de Gsec. Si l’on choisit r = 140, alors l’attaque susmentionnée est capable94 CHAPITRE 14. ATTAQUE D’UN MCELIECE CONVOLUTIF de retourner un élément de C (le sous-code permuté correspondant aux b dernières lignes de Gsec) en ≈ 2 80 opérations. Comme précédemment, notons Cs le sous-code permuté de Cpub généré par les s×b dernières lignes de Gsec. Nous pouvons utiliser l’analyse précédente pour estimer la complexité de l’obtention d’un élément de Cs par l’algorithme précédent. Les résultats sont réunis dans le tableau 14.2. Table 14.2 – Complexité d’obtention d’au moins un élément de Cs par l’algorithme décrit section 14.5.1 s 1 5 10 15 20 21 22 25 complexité (bits) 80.4 72.1 65.1 61.0 59.4 59.3 59.4 59.8 Ce tableau montre que, dans ce cas, la menace principale ne vient pas de la recherche de mot de poids faible provenant de C1, mais des mots de poids modéré provenant de C20. Les mots de C20 ont un poids moyen de r+20c 2 = 370. Conserver tous les candidats de poids inférieur à cette quantité lors de l’exécution de l’algorithme décrit section 14.5.1 permet vraisemblablement de filtrer la vaste majorité des mauvais candidats et de conserver avec forte probabilité les éléments de C20. De tels candidats peuvent être utilisés tel que décrit section 14.5.1 pour vérifier si ils appartiennent ou non à un sous-code de grande dimension et de support restreint. Il existe une façon simple d’expliquer ce phénomène. Il faut remarquer que le rendement de C vaut b c+r , ce qui est bien plus faible que le rendement du schéma global qui est proche de b c . Cependant, lorsque s augmente, le rendement de Cs s’approche de b c , puisque son rendement est sb sc+r = b c+r/s . Supposons un instant que le rendement de Cs soit b c . Dans ce cas, mettre Gpub sous forme systématique (ce qui revient à utiliser l’algorithme précé- dent avec p = 1 et l = 0) va vraisemblablement révéler une grande partie du support de Cs puisqu’il suffit d’examiner le support des lignes ayant un poids proche de sc+r 2 (ce phénomène a déjà été observé dans [59]). Cela peut s’expliquer de la façon suivante. Choisissons I de taille k, la dimension de Cpub, comme ensemble d’information de Cpub. Alors, puisque le rendement de Cs est égal à celui de Cpub, la taille de I ∩ J (où J est le support de Cs) a de bonnes chances d’être inférieure ou égale à la dimension de Cs. Cela implique qu’il est possible d’obtenir des mots de Cs en choisissant n’importe quel ensemble d’information I de poids 1 non nul sur I ∩J (et donc de poids 1 ici). Plus généralement, même si I ∩ J est légèrement plus grand que la dimension de Cs nous espérons être capables d’obtenir des mots de Cs dès que p est plus grand que la distance de Gilbert-Varshamov de la restriction C 0 s de Cs à I ∩ J , car il y a dans ce cas de bonne chance que ce code poin- çonné ait des mots de poids p. Cette distance de Gilbert-Varshamov sera14.5. ANALYSE DE LA SÉCURITÉ DU SCHÉMA 95 petite dans ce cas, car le rendement de Cs est très proche de 1 (on s’attend à ce qu’elle vaille dim(Cs) |I∩J | ). Quoi qu’il en soit, il est clair qu’il est possible de paramétrer le schéma (en particulier en augmentant r) de telle façon que les algorithmes de recherche de mots de poids faible soient incapables de trouver les sous-codes Cs avec une complexité inférieure à un certain seuil. Cependant, tous ces codes doivent être pris en compte. De plus, les attaques sur le code dual doivent également être reconsidérée ; [47] ne considère que les attaques sur le dual cherchant des mots de code de poids faible, mais il est évident que la technique utilisé pour trouver les sous-codes Cs fonctionne également sur le code dual. Qui plus est, même si par construction la restriction de C = C1 à son support devrait se comporter comme un code aléatoire, cela n’est plus vrai pour Cs avec s supérieur à un, à cause de la structure convolutive. L’analyse esquissée section 14.5.1 devrait être adaptée légèrement pour ce cas et devrait prendre en compte les améliorations récentes dans le domaine des algorithmes de recherche de mots de poids faible [49, 8]. Pour finir, le choix des paramètres nécessite également une étude soigneuse de la probabilité d’échec du décodage séquentiel.96 CHAPITRE 14. ATTAQUE D’UN MCELIECE CONVOLUTIFBibliographie [1] M. Baldi, M. Bianchi, F. Chiaraluce, J. Rosenthal, and D. Schipani. Enhanced public key security for the McEliece cryptosystem. submitted, 2011. arxiv :1108.2462v2[cs.IT]. [2] M. Baldi, M. Bodrato, and G. Chiaraluce. A New Analysis of the McEliece Cryptosystem Based on QC-LDPC Codes. In Security and Cryptography for Networks (SCN), pages 246–262, 2008. [3] M. Baldi and G. F. Chiaraluce. Cryptanalysis of a new instance of McEliece cryptosystem based on QC-LDPC codes. In IEEE International Symposium on Information Theory, pages 2591–2595, Nice, France, Mar. 2007. [4] G. Bard and M. Albrecht. M4RI(e)- Linear Algebra over F2 (and F2 e ). Free Open Source Software. http://m4ri.sagemath.org/index.html. [5] E. Barker and A. Roginsky. Transitions : Recommendation for transitioning the use of cryptographic algorithms and key lengths, 2011. Published as NIST Special Publication 800-131A, http://csrc.nist. gov/publications/nistpubs/800-131A/sp800-131A.pdf. [6] A. Becker. The representation technique - Applications to hard problems in cryptography. Thèse de doctorat, Université de Versaille SaintQuentin-en-Yvelines, 2012. [7] A. Becker, A. Joux, A. May, and A. Meurer. Decoding Random Binary Linear Codes in 2 n/20 : How 1+1=0 Improves Information Set Decoding. In D. Pointcheval and T. Johansson, editors, Advances in Cryptology - EUROCRYPT 2012, volume 7237 of LNCS, pages 520–536. Springer, 2012. [8] A. Becker, A. Joux, A. May, and A. Meurer. Decoding Random Binary Linear Codes in 2 n/20 : How 1 + 1 = 0 Improves Information Set Decoding. In Eurocrypt 2012, LNCS. Springer, 2012. [9] T. P. Berger, P. Cayrel, P. Gaborit, and A. Otmani. Reducing Key Length of the McEliece Cryptosystem. In B. Preneel, editor, Progress in Cryptology - Second International Conference on Cryptology in Africa (AFRICACRYPT 2009), volume 5580 of Lecture Notes in Computer Science, pages 77–97, Gammarth, Tunisia, June 21-25 2009. 9798 BIBLIOGRAPHIE [10] T. P. Berger and P. Loidreau. How to Mask the Structure of Codes for a Cryptographic Use. Designs Codes and Cryptography, 35(1) :63–79, 2005. [11] E. Berlekamp. Algebraic Coding Theory. Aegen Park Press, 1968. [12] E. Berlekamp, R. McEliece, and H. van Tilborg. On the inherent intractability of certain coding problems. IEEE Transactions on Information Theory, 24(3) :384–386, May 1978. [13] D. Bernstein. Minimum number of bit operations for multiplication, 2009. [14] D. Bernstein, J. Buchmann, and J. Ding, editors. Post-Quantum Cryptography. Springer, 2009. [15] D. J. Bernstein, T. Lange, and C. Peters. Attacking and Defending the McEliece Cryptosystem. In PQCrypto, volume 5299 of LNCS, pages 31–46, 2008. [16] D. J. Bernstein, T. Lange, and C. Peters. Cryptanalytic challenges for wild McEliece, 2011. [17] D. J. Bernstein, T. Lange, and C. Peters. Smaller decoding exponents : ball-collision decoding. In Proceedings of Crypto 2011, volume 6841 of LNCS, pages 743–760, 2011. [18] D. J. Bernstein, T. Lange, and C. Peters. Wild McEliece Incognito. In PQCrypto, pages 244–254, 2011. [19] J.-L. Beuchat, N. Sendrier, A. Tisserand, and G. Villard. FPGA Implementation of a Recently Published Signature Scheme. Rapport de recherche 5158, INRIA, 2004. [20] B. Biswas and V. Herbert. Efficient Root Finding of Polynomials over Fields of Characteristic 2. In WEWoRC 2009, LNCS. Springer-Verlag, 2009. [21] B. H. Bloom. Space/time trade-offs in hash coding with allowable errors. Commun. ACM, 13 :422–426, 1970. [22] N. Courtois, M. Finiasz, and N. Sendrier. How to Achieve a McEliecebased Digital Signature Scheme. In Advances in Cryptology – Asiacrypt’2001, volume 2248 of Lecture Notes in Computer Science, pages 157–174, Gold Coast, Australia, 2001. Springer. [23] N. Courtois, M. Finiasz, and N. Sendrier. How to achieve a McEliecebased Digital Signature Scheme. In C. Boyd, editor, Advances in Cryptology - ASIACRYPT 2001, volume 2248 of LNCS, pages 157–174. Springer, 2001. [24] A. Couvreur, P. Gaborit, V. Gauthier, A. Otmani, and J. Tillich. Distinguisher-Based Attacks on Public-Key Cryptosystems Using ReedSolomon Codes. In Proceedings of WCC 2013, Apr. 2013. to appear, see also arxiv.BIBLIOGRAPHIE 99 [25] W. Diffie and M. Hellman. New Directions in Cryptography. IEEE Transactions on Information Theory, 22(6) :644–654, Nov. 1976. [26] I. Dumer. On minimum distance decoding of linear codes. In Proc. 5th Joint Soviet-Swedish Int. Workshop Inform. Theory, pages 50–52, Moscow, 1991. [27] I. Dumer. On Minimum Distance Decoding of Linear Codes. In Proc. 5th Joint Soviet-Swedish Int. Workshop Inform. Theory, pages 50–52, Moscow, 1991. [28] J.-C. Faugère, V. Gauthier, A. Otmani, L. Perret, and J.-P. Tillich. A Distinguisher for High Rate McEliece Cryptosystems. In ITW 2011, pages 282–286, Paraty, Brazil, Oct. 2011. [29] J.-C. Faugère, V. Gauthier, A. Otmani, L. Perret, and J.-P. Tillich. A Distinguisher for High Rate McEliece Cryptosystems. In Proceedings of the Information Theory Workshop 2011, ITW 2011, pages 282–286, Paraty, Brasil, 2011. [30] J.-C. Faugère, A. Otmani, L. Perret, and J.-P. Tillich. Algebraic cryptanalysis of McEliece variants with compact keys. In H. Gilbert, editor, Advances in Cryptology - EUROCRYPT 2010, volume 6110 of LNCS, pages 279–298. Springer, 2010. [31] C. Faure and L. Minder. Cryptanalysis of the McEliece cryptosystem over hyperelliptic curves. In Proceedings of the eleventh International Workshop on Algebraic and Combinatorial Coding Theory, pages 99– 107, Pamporovo, Bulgaria, June 2008. [32] M. Finiasz. Parallel-CFS : Strengthening the CFS McEliece-Based Signature Scheme. In A. Biryukov, G. Gong, and D. Stinson, editors, Selected Areas in Cryptography, volume 6544 of LNCS, pages 159–170. Springer, 2010. [33] M. Finiasz and N. Sendrier. Security Bounds for the Design of Codebased Cryptosystems. In M. Matsui, editor, Advances in Cryptology - ASIACRYPT 2009, volume 5912 of LNCS, pages 88–105. Springer, 2009. [34] V. Gauthier, A. Otmani, and J.-P. Tillich. A Distinguisher-Based Attack on a Variant of McEliece’s Cryptosystem Based on Reed-Solomon Codes. CoRR, abs/1204.6459, 2012. [35] N. Howgrave-Graham and A. Joux. New Generic Algorithms for Hard Knapsacks. In H. Gilbert, editor, Advances in Cryptology - EUROCRYPT 2010, volume 6110 of LNCS, pages 235–256. Springer, 2010. [36] H. Janwa and O. Moreno. McEliece Public Key Cryptosystems Using Algebraic-Geometric Codes. Designs Codes and Cryptography, 8(3) :293–307, 1996.100 BIBLIOGRAPHIE [37] T. Johansson and F. Jönsson. On the Complexity of Some Cryptographic Problems Based on the General Decoding Problem. IEEE-IT, 48(10) :2669–2678, Oct. 2002. [38] A. Joux. Algorithmic Cryptanalysis. Chapman & Hall/CRC Cryptography and Network Security Series. Taylor & Francis, 2009. [39] G. Kabatianskii, E. Krouk, and B. J. M. Smeets. A Digital Signature Scheme Based on Random Error-Correcting Codes. In IMA Int. Conf., volume 1355 of Lecture Notes in Computer Science, pages 161–167. Springer, 1997. [40] D. Kravitz. Digital signature algorithm. US patent 5231668, July 1991. [41] G. Landais. Implementation of several CSD solving algorithms. Free Open Source Software. https://gforge.inria.fr/projects/collision-dec/. [42] G. Landais and N. Sendrier. McEliece based signature scheme. Free Open Source Software. https://gforge.inria.fr/projects/cfs-signature/. [43] G. Landais and N. Sendrier. Implementing CFS. In S. Galbraith and M. Nandi, editors, Indocrypt 2012, volume 7668 of LNCS, pages 474– 488. Springer, Dec. 2012. [44] G. Landais and J. Tillich. An efficient attack of a McEliece cryptosystem variant based on convolutional codes. In Proceedings of PQCrypto 2013, LNCS, jun 2013. to appear. [45] P. Lee and E. Brickell. An observation on the security of McEliece’s public-key cryptosystem. In C. Günther, editor, Advances in Cryptology - EUROCRYPT ’88, volume 330 of LNCS, pages 275–280. Springer, 1988. [46] J. Leon. A Probabilistic Algorithm for Computing Minimum Weights of Large Error-Correcting Codes. IEEE Transactions on Information Theory, 34(5) :1354–1359, Sept. 1988. [47] C. Löndahl and T. Johansson. A New Version of McEliece PKC Based on Convolutional Codes. In ICICS, pages 461–470, 2012. [48] J. Massey. Shift-Register Synthesis and BCH Decoding. IEEE Transactions on Information Theory, 15(1) :122–127, Jan. 1969. [49] A. May, A. Meurer, and E. Thomae. Decoding random linear codes in O(20.054n ). In D. H. Lee and X. Wang, editors, Asiacrypt 2011, volume 7073 of LNCS, pages 107–124. Springer, 2011. [50] R. McEliece. A public-key cryptosystem based on algebraic coding theory. DSN Prog. Rep., Jet Prop. Lab., California Inst. Technol., Pasadena, CA, pages 114–116, Jan. 1978.BIBLIOGRAPHIE 101 [51] R. J. McEliece. A Public-Key System Based on Algebraic Coding Theory, pages 114–116. Jet Propulsion Lab, 1978. DSN Progress Report 44. [52] L. Minder and A. Shokrollahi. Cryptanalysis of the Sidelnikov cryptosystem. In Eurocrypt 2007, volume 4515 of Lecture Notes in Computer Science, pages 347–360, Barcelona, Spain, 2007. [53] R. Misoczki and P. S. L. M. Barreto. Compact McEliece Keys from Goppa Codes. In Selected Areas in Cryptography (SAC 2009), Calgary, Canada, Aug. 13-14 2009. [54] R. Misoczki, J.-P. Tillich, N. Sendrier, and P. S. L. M. Barreto. MDPCMcEliece : New McEliece Variants from Moderate Density Parity-Check Codes. IACR Cryptology ePrint Archive, 2012 :409, 2012. [55] N. Nethercote et al. Cachegrind : a cache and branch-prediction profiler, 2002. [56] H. Niederreiter. Knapsack-type cryptosystems and algebraic coding theory. Problems of Control and Information Theory, 15(2) :159–166, 1986. [57] A. Otmani, J. Tillich, and L. Dallot. Cryptanalysis of Two McEliece Cryptosystems Based on Quasi-Cyclic Codes. Special Issues of Mathematics in Computer Science, 3(2) :129–140, Jan. 2010. [58] A. Otmani and J.-P. Tillich. An Efficient Attack on All Concrete KKS Proposals. In B.-Y. Yang, editor, PQCrypto 2011, volume 7071 of LNCS, pages 98–116. Springer, 2011. [59] R. Overbeck. Public Key Cryptography based on Coding Theory. Phd thesis, Technische Universität Darmstadt, 2007. [60] R. Overbeck and N. Sendrier. Code-based cryptography. In D. Bernstein, J. Buchmann, and E. Dahmen, editors, Post-Quantum Cryptography, pages 95–145. Springer, 2009. [61] N. Patterson. The algebraic decoding of Goppa codes. IEEE Transactions on Information Theory, 21(2) :203–207, Mar. 1975. [62] E. Prange. The use of information sets in decoding cyclic codes. IRE Transactions, IT-8 :S5–S9, 1962. [63] R. Rivest, A. Shamir, and L. Adleman. A Method for Obtaining Digital Signatures and Public-Key Cryptosystems. Communications of the ACM, 21(2) :120–126, Feb. 1978. [64] N. Sendrier. Finding the permutation between equivalent codes : the support splitting algorithm. IEEE Transactions on Information Theory, 46(4) :1193–1203, July 2000. [65] N. Sendrier. Decoding One Out of Many. In B.-Y. Yang, editor, PQCrypto 2011, volume 7071 of LNCS, pages 51–67. Springer, 2011.102 BIBLIOGRAPHIE [66] P. W. Shor. Polynomial-Time Algorithms for Prime Factorization and Discrete Logarithms on a Quantum Computer. SIAM J. Comput., 26(5) :1484–1509, 1997. [67] V. Sidelnikov. A public-key cryptosystem based on Reed-Muller codes. Discrete Mathematics and Applications, 4(3) :191–207, 1994. [68] V. Sidelnikov and S. Shestakov. On the insecurity of cryptosystems based on generalized Reed-Solomon codes. Discrete Mathematics and Applications, 1(4) :439–444, 1992. [69] J. Stern. A method for finding codewords of small weight. In G. Cohen and J. Wolfmann, editors, Coding theory and applications, volume 388 of LNCS, pages 106–113. Springer, 1989. [70] V. G. Umana and G. Leander. Practical Key Recovery Attacks On Two McEliece Variants, 2009. IACR Cryptology ePrint Archive 509. [71] D. Wagner. A Generalized Birthday Problem. In M. Yung, editor, Advances in Cryptology - CRYPTO 2002, volume 2442 of LNCS, pages 288–303. Springer, 2002. [72] V. K.-W. Wei and K. Yang. On the generalized Hamming weights of product codes. Trans. Inf. Theory, 39(5) :1709–1713, 1993. [73] C. Wieschebrink. Two NP-complete Problems in Coding Theory with an Application in Code Based Cryptography. In 2006 IEEE International Symposium on Information Theory, pages 1733–1737, 2006. [74] C. Wieschebrink. Cryptanalysis of the Niederreiter Public Key Scheme Based on GRS Subcodes. In PQCrypto, pages 61–72, 2010. M´ethodes de reconstruction tridimensionnelle int´egrant des points cycliques : application au suivi d’une cam´era Lilian Calvet To cite this version: Lilian Calvet. M´ethodes de reconstruction tridimensionnelle int´egrant des points cycliques : application au suivi d’une cam´era. Computer Vision and Pattern Recognition. Institut National Polytechnique de Toulouse - INPT, 2014. French. HAL Id: tel-00981191 https://tel.archives-ouvertes.fr/tel-00981191v3 Submitted on 4 Jun 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.THESE ` En vue de l’obtention du DOCTORAT DE L’UNIVERSITE DE TOULOUSE ´ D´elivr´e par : l’Universit´e Toulouse 3 Paul Sabatier (UT3 Paul Sabatier) Pr´esent´ee et soutenue le 23/01/2014 par : Lilian CALVET Méthodes de reconstruction tridimensionnelle intégrant des points cycliques : application au suivi d’une caméra JURY Peter STURM Directeur de Recherche, INRIA Rhône-Alpes Pr´esident du Jury Richard HARTLEY Professeur, Australian National University Rapporteur Adrien BARTOLI Professeur, Université d’Auvergne Rapporteur David FOFI Professeur, Université de Bourgogne Examinateur Vincent CHARVILLAT Professeur, INPT/ENSEEIHT Examinateur Pierre GURDJOS Ingénieur de recherche CNRS, INPT/ENSEEIHT Examinateur Ecole ´ doctorale et sp´ecialit´e : MITT : Image, Information, Hypermedia Unit´e de Recherche : Institut de Recherche en Informatique de Toulouse (UMR 5505) Directeur(s) de Th`ese : Vincent Charvillat, Professeur, INPT/ENSEEIHT et Pierre Gurdjos, Ingénieur de recherche CNRS, INPT/ENSEEIHT Rapporteurs : Adrien Bartoli, Professeur, Université d’Auvergne et Richard Hartley, Professeur, Australian National UniversityÀ mes parents.Remerciements Je remercie tout d’abord Vincent Charvillat pour m’avoir offert l’opportunité de réaliser cette thèse au sein de son équipe. Je remercie la région Midi-Pyrénées et la communauté de communes de Saint-Laurent-de-Neste pour avoir financé ces travaux. Je souhaite également remercier l’agence nationale de la recherche pour le soutien dont a pu bénéficier le laboratoire durant le projet ANR-ROM. Je remercie mes encadrants Pierre Gurdjos et Vincent Charvillat pour le soutien dont ils ont fait preuve tout au long de cette thèse. C’est avec grand plaisir que j’ai bénéficié de leurs qualités prédagogiques, scientifiques et humaines qui m’ont permises de mener à bien ces travaux de recherche. Un immense merci à Pierre qui m’a guidé tout au long de cette thèse avec beaucoup d’enthousiasme. Je tiens à le remercier pour sa disponibilité, les nombreuses discussions que nous avons eues, son partage de connaissances et sa rigueur scientifique. Je remercie Adrien Bartoli et Richard Hartley pour avoir accepté d’évaluer mon manuscrit, pour leurs remarques à la fois critiques et constructives. Je tiens également à remercier David Fofi et Peter Sturm pour l’intérêt qu’ils ont porté à ce travail en acceptant d’en être les examinateurs. Je remercie les membres permanents : Simone Gasparini et Jean-Denis Durou (surnommé « Maître Capello ») pour leurs précieuses relectures, Sylvie Chambon et Géraldine Morin pour leur soutien. Je remercie Sylvie Eichen et Sylvie Armengaud pour leur support lors des missions et dossiers administratifs. Je remercie l’ensemble des membres de l’équipe pour la bonne humeur apportée au laboratoire : Jean-Denis D. pour ses immanquables pauses café, ses « disciples » Yvain Q., Bastien D., Benjamin R. et Nicolas B., mes collègues de bureau Axel C., Rabih A. et Florent B. avec qui j’ai partagé de très bons moments, Pauline J., Viorica P., Benoît B. et Jérome G. Je tiens à remercier mes amis pour leur soutien et leurs encouragements : Marco K., Olive P., Mickou G., José P., Olive C., Fifou SBS., Mathieu B., Guillaume B., Nath B., Philou M., Marie M., Bastien C., Brice F., Margot L., Cyril D. et mes chers amis Salvetois. Je souhaite enfin exprimer ma gratitude envers mes proches qui m’ont toujours encouragé, Monique et Louis, ma soeur Amandine, et une extrême reconnaissance envers mes parents pour m’avoir donné les moyens de réaliser mes études. Enfin, mes plus profonds remerciements vont à ma compagne Maeva pour sa patience, sa compréhension et son soutien.7 Résumé Cette thèse traite de la reconstruction tridimensionnelle d’une scène rigide à partir d’une collection de photographies numériques, dites vues. Le problème traité est connu sous le nom du « calcul de la structure et du mouvement » (structure-and/from-motion) qui consiste à « expliquer » des trajectoires de points dits d’intérêt au sein de la collection de vues par un certain mouvement de l’appareil (dont sa trajectoire) et des caractéristiques géométriques tridimensionnelles de la scène. Dans ce travail, nous proposons les fondements théoriques pour étendre certaines méthodes de calcul de la structure et du mouvement afin d’intégrer comme données d’entrée, des points d’intérêt réels et des points d’intérêt complexes, et plus précisément des images de points cycliques. Pour tout plan projectif, les points cycliques forment une paire de points complexes conjugués qui, par leur invariance par les similitudes planes, munissent le plan projectif d’une structure euclidienne. Nous introduisons la notion de marqueurs cycliques qui sont des marqueurs plans permettant de calculer sans ambiguïté les images des points cycliques de leur plan de support dans toute vue. Une propriété de ces marqueurs, en plus d’être très « riches » en information euclidienne, est que leurs images peuvent être appariées même si les marqueurs sont disposés arbitrairement sur des plans parallèles, grâce à l’invariance des points cycliques. Nous montrons comment utiliser cette propriété dans le calcul projectif de la structure et du mouvement via une technique matricielle de réduction de rang, dite de factorisation, de la matrice des données correspondant aux images de points réels, complexes et/ou cycliques. Un sous-problème critique abordé dans le calcul de la structure et du mouvement est celui de l’auto-calibrage de l’appareil, problème consistant à transformer un calcul projectif en un calcul euclidien. Nous expliquons comment utiliser l’information euclidienne fournie par les images des points cycliques dans l’algorithme d’auto-calibrage opérant dans l’espace projectif dual et fondé sur des équations linéaires. L’ensemble de ces contributions est finalement utilisé pour une application de suivi automatique de caméra utilisant des marqueurs formés par des couronnes concentriques (appelés C2Tags), où il s’agit de calculer le mouvement tridimensionnel de la caméra dans la scène à partir d’une séquence vidéo. Ce type d’application est généralement utilisé dans l’industrie du cinéma ou de la télévision afin de produire des effets spé- ciaux. Le suivi de caméra proposé dans ce travail a été conçu pour proposer le meilleur compromis possible entre flexibilité d’utilisation et précision des résultats obtenus.89 Abstract The thesis deals with the problem of 3D reconstruction of a rigid scene from a collection of views acquired by a digital camera. The problem addressed, referred as the Structure-fromMotion (SfM) problem, consists in computing the camera motion (including its trajectory) and the 3D characteristics of the scene based on 2D trajectories of imaged features through the collection. We propose theoretical foundations to extend some SfM paradigms in order to integrate real as well as complex imaged features as input data, and more especially imaged circular points. Circular points of a projective plane consist in a complex conjugate point-pair which is fixed under plane similarity ; thus endowing the plane with an Euclidean structure. We introduce the notion of circular markers which are planar markers that allows to compute, without any ambiguity, imaged circular points of their supporting plane in all views. Aside from providing a very “rich” euclidean information, such features can be matched even if they are arbitrarily positioned on parallel planes thanks to their invariance under plane similarity ; thus increasing their visibility compared to natural features. We show how to benefit from this geometric property in solving the projective SfM problem via a rank-reduction technique, referred to as projective factorization, of the matrix whose entries are images of real, complex and/or circular features. One of the critical issues in such a SfM paradigm is the self-calibration problem, which consists in updating a projective reconstruction into an euclidean one. We explain how to use the euclidean information provided by imaged circular points in the self-calibration algorithm operating in the dual projective space and relying on linear equations. All these contributions are finally used in an automatic camera tracking application relying on markers made up of concentric circles (called C2Tags). The problem consists in computing the 3D camera motion based on a video sequence. This kind of application is generally used in the cinema or TV industry to create special effects. The camera tracking proposed in this work in designed in order to provide the best compromise between flexibility of use and accuracy.10TABLE DES MATIÈRES 11 Table des matières 1 Introduction 21 2 Notations et rappels géométriques 25 2.1 Question de notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.2 Rappels de géométrie projective . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.2.1 L’espace projectif et son dual . . . . . . . . . . . . . . . . . . . . . . . . 28 2.2.2 Quadriques projectives . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.2.2.1 Conjugaison et polarité relatives à une quadrique . . . . . . . . 29 2.2.2.2 Tangence à une quadrique . . . . . . . . . . . . . . . . . . . . 29 2.2.3 Quadriques projectives duales . . . . . . . . . . . . . . . . . . . . . . . 29 2.2.4 Quadriques dégénérées des espaces projectifs de dimensions deux et trois 30 2.2.4.1 Enveloppes des quadriques dégénérées lorsque n ∈ {2, 3} . . . 31 2.2.5 Transformation d’une quadrique projective . . . . . . . . . . . . . . . . 31 2.2.6 Signature d’une quadrique projective . . . . . . . . . . . . . . . . . . . 31 2.2.7 Stratifications projectives . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.2.7.1 Structure affine d’un espace projectif. Hyperplan à l’infini. . . 33 2.2.7.2 Structure affine euclidienne de l’espace projectif tridimensionnel. Conique absolue. . . . . . . . . . . . . . . . . . . . . . . 33 3 Calcul de la structure et du mouvement par factorisation projective incorporant des points cycliques 35 3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.2 Calcul de la structure et du mouvement à partir de marqueurs cycliques . . . . . 38 3.2.1 Marqueurs cycliques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 3.2.2 Marqueurs cycliques appariés . . . . . . . . . . . . . . . . . . . . . . . 41 3.3 État de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.4 Complexification de l’espace projectif réel . . . . . . . . . . . . . . . . . . . . . 45 3.4.1 Pourquoi et comment complexifier un espace projectif réel ? . . . . . . . 45 3.4.2 La paire de points cycliques d’un plan projectif . . . . . . . . . . . . . . 46 3.5 Le problème de la factorisation de points complexes . . . . . . . . . . . . . . . . 4812 TABLE DES MATIÈRES 3.5.1 Les données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 3.5.2 Le problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 3.5.3 Mise à l’échelle des blocs de la matrice des données . . . . . . . . . . . 51 3.5.3.1 Les grandes lignes . . . . . . . . . . . . . . . . . . . . . . . . 51 3.5.3.2 Généralisation de la mise à l’échelle d’une donnée réelle à une donnée complexe . . . . . . . . . . . . . . . . . . . . . . . . 52 3.5.4 Réduction du rang de la matrice des données . . . . . . . . . . . . . . . 52 3.6 Premier cas d’usage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 3.6.1 Factorisation d’images de K > 1 points cycliques . . . . . . . . . . . . 53 3.6.1.1 Équation de mise à l’échelle . . . . . . . . . . . . . . . . . . . 54 3.6.1.2 Résolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 3.6.1.3 Prédiction des blocs manquants de la matrice des données . . . 56 3.6.1.4 Heuristique de sélection de vues . . . . . . . . . . . . . . . . 57 3.6.2 Reconstruction euclidienne post-factorisation de la structure et du mouvement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 3.7 Deuxième cas d’usage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 3.7.1 Factorisation d’images de points naturels et de points cycliques . . . . . 60 3.7.1.1 Équations de mise à l’échelle . . . . . . . . . . . . . . . . . . 61 3.7.1.2 Résolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 3.7.1.3 Algorithme de prédiction des blocs manquants de la matrice des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 3.7.1.4 Heuristique de sélection de vues . . . . . . . . . . . . . . . . 67 3.7.2 Reconstruction euclidienne post-factorisation de la structure et du mouvement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 3.8 Résultats expérimentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 3.8.1 Résultats du premier cas d’usage . . . . . . . . . . . . . . . . . . . . . . 68 3.8.2 Résultats du deuxième cas d’usage . . . . . . . . . . . . . . . . . . . . . 68 3.9 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 4 Rectification euclidienne d’une reconstruction projective 73 4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 4.1.1 Notre problème spécifique . . . . . . . . . . . . . . . . . . . . . . . . . 75 4.2 État de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 4.3 Autocalibrage dans l’espace projectif dual . . . . . . . . . . . . . . . . . . . . . 79 4.3.1 Formulation linéaire de [Pollefeys 1999] . . . . . . . . . . . . . . . . . . 79 4.3.1.1 Les équations de base . . . . . . . . . . . . . . . . . . . . . . 80 4.3.1.2 Résolution avec contrainte de signature (3, 0) a posteriori . . . 80 4.3.2 Formation linéaire étendue intégrant une paire de points cycliques . . . . 81 4.3.2.1 Points cycliques et contraintes d’autocalibrage . . . . . . . . . 81 4.3.2.2 Les équations du problème intégrant une paire de points cycliques 82 4.3.3 Équations de base revisitées . . . . . . . . . . . . . . . . . . . . . . . . 85TABLE DES MATIÈRES 13 4.3.3.1 Algorithme d’autocalibrage unifié . . . . . . . . . . . . . . . . 86 4.4 Résultats expérimentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 4.4.1 Résultats sur données synthétiques . . . . . . . . . . . . . . . . . . . . . 89 4.4.2 Résultats sur données réelles . . . . . . . . . . . . . . . . . . . . . . . . 90 4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 5 Le système de marqueurs C2Tags 97 5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 5.2 État de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 5.2.1 Marqueurs 0D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 5.2.2 Marqueurs 2D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 5.2.3 Les codes-barres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 5.3 Le problème et ses motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 5.4 La solution proposée : le motif C2Tag . . . . . . . . . . . . . . . . . . . . . . . 106 5.4.1 Un marqueur circulaire « idéal » . . . . . . . . . . . . . . . . . . . . . . 106 5.4.2 Le C2Tag, support des équipotentielles du motif « idéal » . . . . . . . . 110 5.4.3 Aperçu du système de détection . . . . . . . . . . . . . . . . . . . . . . 113 5.4.4 Détection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 5.4.4.1 Système de vote pour l’ellipse interne . . . . . . . . . . . . . . 114 5.4.4.2 Regroupement des candidats en segments de contour de l’ellipse interne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 5.4.4.3 Estimation initiale de l’ellipse externe . . . . . . . . . . . . . 118 5.4.5 Optimisation de l’image du centre . . . . . . . . . . . . . . . . . . . . . 122 5.4.6 Identification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 5.5 Résultats expérimentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 5.5.1 Résultats sur données de synthèse . . . . . . . . . . . . . . . . . . . . . 129 5.5.1.1 Étude de validité de l’approximation des lignes de champ . . . 129 5.5.1.2 Résultats de l’algorithme de détection . . . . . . . . . . . . . 130 5.5.2 Résultats sur données réelles . . . . . . . . . . . . . . . . . . . . . . . . 131 5.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 5.6.1 Calcul de la circonférence de l’ellipse dans l’image de contours . . . . . 135 6 Application au suivi de caméra 139 6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 6.1.1 Contexte - le projet ANR ROM . . . . . . . . . . . . . . . . . . . . . . 140 6.1.2 État de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 6.1.3 Notre problème spécifique . . . . . . . . . . . . . . . . . . . . . . . . . 145 6.1.4 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 6.1.5 Formulation du problème . . . . . . . . . . . . . . . . . . . . . . . . . . 147 6.2 Suivi de caméra hors ligne basé sur les C2Tags . . . . . . . . . . . . . . . . . . 147 6.2.1 Suivi de caméra à partir de deux C2Tags coplanaires . . . . . . . . . . . 14914 TABLE DES MATIÈRES 6.2.2 Suivi de caméra à partir de N ≥ 2 C 2Tags . . . . . . . . . . . . . . . . . 153 6.2.2.1 Suivi à partir des vues-clés . . . . . . . . . . . . . . . . . . . 154 6.2.2.2 Suivi à partir des vues intermédiaires par resection . . . . . . . 155 6.3 Suivi de caméra en ligne basé sur une base de connaissances 3D . . . . . . . . . 157 6.4 Ajustement de faisceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 6.4.1 Formulation générale du problème . . . . . . . . . . . . . . . . . . . . . 158 6.4.2 Paramétrage 3D euclidien minimal . . . . . . . . . . . . . . . . . . . . . 159 6.4.2.1 Paramétrage d’un C2Tag . . . . . . . . . . . . . . . . . . . . . 159 6.4.2.2 Paramétrage de deux C2Tags coplanaires . . . . . . . . . . . . 161 6.4.3 Paramétrage 3D projectif minimal . . . . . . . . . . . . . . . . . . . . . 162 6.5 Résultats expérimentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 6.5.1 Résultats sur données de synthèse . . . . . . . . . . . . . . . . . . . . . 163 6.5.2 Résultats sur données réelles . . . . . . . . . . . . . . . . . . . . . . . . 164 6.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 7 Conclusion 171TABLE DES FIGURES 15 Table des figures 1.1 Effets spéciaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 3.1 Exemples de marqueurs plans. . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.2 Restriction de la projection centrale à un plan de la scène . . . . . . . . . . . . . 37 3.3 Apport d’un suivi de marqueurs cycliques appariés . . . . . . . . . . . . . . . . 43 3.4 Erreur 3D fournie par la méthode de factorisation projective des images de paires de points cycliques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 3.5 Résultats sur données réelles du calcul de la structure et du mouvement reposant sur la factorisation de points cycliques . . . . . . . . . . . . . . . . . . . . . . . 69 3.6 Résultats sur données réelles du calcul de la structure et du mouvement reposant sur la factorisation de points cycliques . . . . . . . . . . . . . . . . . . . . . . . 70 3.7 Résultats sur données réelles du calcul de la structure et du mouvement reposant sur la factorisation de points naturels et de des points cycliques . . . . . . . . . . 71 4.1 Résultats sur des données réelles de l’utilisation des images des paires de points cycliques pour la calcul de la structure et du mouvement . . . . . . . . . . . . . 77 4.2 Les droites, rétroprojections des images des points cycliques, sont tangentes à la conique absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 4.3 Preuve de la proposition 29 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 4.4 Interprétation géométrique des équations pour l’autocalibrage intégrant les points cycliques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 4.5 Erreur 3D fournie par la méthode proposée utilisant les contraintes liées aux images des points cycliques pour la factorisation projective et pour l’autocalibrage . 91 4.6 Reconstructions denses basées sur des séquences d’images calibrées via la paradigme de reconstruction proposé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 4.7 Reconstruction dense basée sur une séquence d’images calibrées via une méthode de reconstruction incrémentale initialisée avec la reconstruction euclidienne fournie par la méthode proposée . . . . . . . . . . . . . . . . . . . . . . . . . . 94 5.1 Chaîne de traitement de l’ARToolkit . . . . . . . . . . . . . . . . . . . . . . . . 10116 TABLE DES FIGURES 5.2 RUNE-Tag . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 5.3 Codes-barres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 5.4 Un cercle et son centre encode naturellement les points cycliques . . . . . . . . . 104 5.5 Image de vote fournie par la motif M . . . . . . . . . . . . . . . . . . . . . . . 105 5.6 Motif M . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 5.7 Champ du gradient du motif I(M). . . . . . . . . . . . . . . . . . . . . . . . . 109 5.8 C2Tag . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 5.9 Vote le long des lignes de champ . . . . . . . . . . . . . . . . . . . . . . . . . . 112 5.10 Diagramme de flux du système de détection des C2Tags . . . . . . . . . . . . . . 113 5.11 Pyramide d’images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 5.12 Procédure de vote pour l’ellipse interne . . . . . . . . . . . . . . . . . . . . . . 115 5.13 Segmentation de contour convexe . . . . . . . . . . . . . . . . . . . . . . . . . 116 5.14 Loi de conservation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 5.15 Exemples du protocole de vote sur images réelles . . . . . . . . . . . . . . . . . 119 5.16 Un résultat de la procédure de vote . . . . . . . . . . . . . . . . . . . . . . . . . 120 5.17 Expansion d’ellipse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 5.18 Optimisation de l’image du centre . . . . . . . . . . . . . . . . . . . . . . . . . 125 5.19 Sélection des coupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 5.20 Fonctions d’identifications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 5.21 Exemples d’identifications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 5.22 Étude de validité de l’approximation des lignes de champ . . . . . . . . . . . . . 129 5.23 Exemples d’images de synthèse pour l’évaluation de l’algorithme de détection . . 131 5.24 Résultats fournis par l’algorithme de détection appliqué à des images de synthèse 132 5.25 Calcul du périmètre d’une ellipse . . . . . . . . . . . . . . . . . . . . . . . . . . 135 5.26 Quelques résultats de l’algorithme de détection sur images réelles (1) . . . . . . . 136 5.27 Quelques résultats de l’algorithme de détection sur images réelles (2) . . . . . . . 137 6.1 Diagramme de flux de la méthode de suivi de caméra proposée . . . . . . . . . . 142 6.2 Paradigme du suivi de caméra à partir d’un dispositif de deux C2Tags coplanaires 150 6.3 La relation pôle-polaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 6.4 Un cercle 3D dans l’espace projectif dual . . . . . . . . . . . . . . . . . . . . . 159 6.5 Scène composée de deux C2Tags coplanaires . . . . . . . . . . . . . . . . . . . 162 6.6 Erreur 3D issue de l’estimation linéaire de la pose de la caméra à partir de l’image de deux C2Tags . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 6.7 Résultats de simulation pour l’ajustement de faisceaux d’un dispositif de deux C 2Tags coplanaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 6.8 Résultats de simulation pour l’ajustement de faisceaux d’un dispositif de deux C 2Tags coplanaires avec une initialisation peu précise . . . . . . . . . . . . . . . 165 6.9 Résultats sur une séquence vidéo réelle du suivi de caméra à partir de deux C2Tags coplanaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 6.10 Sélection de vues-clés pour un suivi de caméra à partir de deux C2Tags coplanaires 167TABLE DES FIGURES 17 6.11 Photographies utilisées comme données d’entrée de l’algorithme de reconstruction 3D des C2Tags pour la constitution de la base de connaissances 3D . . . . . . . . 168 6.12 Résultats à partir d’images réelles d’un suivi de caméra reposant sur la factorisation intégrant des points cycliques . . . . . . . . . . . . . . . . . . . . . . . . . 16918 TABLE DES FIGURESLISTE DES TABLEAUX 19 Liste des tableaux 3.1 Algorithme de mise à l’échelle des images des points cycliques . . . . . . . . . . 57 3.2 Calcul des images des points cycliques manquantes . . . . . . . . . . . . . . . . 58 3.3 Algorithme de mise à l’échelle des images d’une paire de points cycliques en présence de points naturels. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 3.4 Algorithme du calcul de l’image d’une paire de points cycliques manquante en présence de points naturels. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 4.1 Algorithme d’autocalibrage unifié basé sur les images des points cycliques . . . . 88 4.2 Médianes des erreurs sur la distance focale en faisant varier le nombre de vues . . 90 4.3 Informations relatives aux séquences vidéo réelles . . . . . . . . . . . . . . . . . 92 5.1 Algorithme de vote . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 5.2 Algorithme d’expansion d’ellipse . . . . . . . . . . . . . . . . . . . . . . . . . . 121 5.3 Dimensions moyennes des demi-axes des ellipses externes des images synthétisées des marqueurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 5.4 Analyse du taux de faux positifs de l’algorithme de détection . . . . . . . . . . . 132 5.5 Least Median of Squares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13420 LISTE DES TABLEAUX21 Chapitre 1 Introduction La vision par ordinateur (ou vision par calculateur) est une discipline relativement récente qui trouve ses racines dans la photogrammétrie, dont un des objectifs était au début des années soixante « d’obtenir des mesures précises et fiables, à partir de photographies » [Slama 1980]. Il est communément admis de dire que la vision par ordinateur est la discipline qui étudie les bases théoriques et algorithmiques grâce auxquelles de l’information quantitative ou qualitative sur une scène peut être inférée à partir de photographies prises selon des points de vue différents. Au croisement de l’informatique et des mathématiques appliquées, l’ensemble des tâches qui en dé- coulent est disparate, mais on peut le scinder au moins en deux catégories. On peut distinguer les problèmes géométriques des problèmes photométriques, ces derniers étant des problèmes énergé- tiques où l’énergie mise en jeu est la lumière. Ces tâches opèrent sur les trois entités dont la mise en présence permet de prendre une photographie, à savoir : la scène, les sources lumineuses et l’appareil photographique, appelé de façon générique « caméra », lui-même composé d’un objectif et d’un boîtier muni d’un récepteur photosensible. Ces problèmes sont soit à inconnues continues soit à inconnues discrètes et, généralement, concernent l’estimation de paramètres continus liés à un modèle. Le problème traité dans cette thèse est celui connu sous le nom du « calcul de la structure et du mouvement » (Structure-and-Motion) qui consiste à « expliquer » des « trajectoires » de primitives appariées dans un ensemble de photographies par un certain mouvement de l’appareil (dont sa trajectoire) et des caractéristiques géométriques de la scène photographiée relativement à une certaine représentation tridimensionnelle de l’espace projectif associée à la scène. Contexte et enjeux. Dans le cadre de cette thèse, les enjeux liés à la résolution du problème sont à considérer dans le cadre d’une application de suivi de caméra (les termes anglophones consacrés sont camera tracking ou matchmoving) dont l’objectif est de calculer le mouvement de l’appareil dans un certain référenciel de la scène à partir d’une séquence vidéo. Le calcul de la structure de la scène est dans ce cas secondaire, et peut se limiter au strict minimum permettant un repérage tridimensionnel. Cette application est en général utilisée dans les phases de post-production audiovisuelle pour la création d’effets spéciaux, dont le but est d’incruster de façon réaliste les images22 Chapitre 1. INTRODUCTION d’objets 3D virtuels dans une photographie existante en respectant les paramètres géométriques et photométriques de l’appareil (cf. figure 1.1). On parle de réalité augmentée lorsque cette opération doit être effectuée en temps réel. Bien que les ordinateurs permettent aujourd’hui de produire des images dont la qualité et le réalisme rivalisent avec celles que produisent nos appareils photos et nos caméras, combiner les deux de manière cohérente et imperceptible est loin d’être simple et constitue une des tâches de la vision par ordinateur. Ce réalisme ne peut être obtenue que si le mouvement de l’appareil est précisément calculé afin de garantir que l’objet incrusté soit correctement positionné dans les images réelles. Les autres tâches de la vision par ordinateur pour ce problème sont l’augmentation du degré d’automatisme et du degré de flexibilité lié à la diversité des scènes filmées et/ou des mouvements de la caméra. FIGURE 1.1: Exemple d’utilisation du suivi de caméra dans la chaîne de traitement pour la réalisation d’effets spéciaux. Calcul de la structure et du mouvement. Nous supposons disposer d’une séquence de photographies, aussi appelées vues, produites par un appareil non calibré d’un point de vue géométrique, c.-à-d. dont les paramètres internes sont inconnus. Ce calibrage pourrait être obtenu à partir d’un traitement hors ligne nécessitant l’utilisation d’un équipement spécial, précédant le lancement de l’application proprement dite. Cependant, dans notre contexte, nous n’envisageons pas d’étape préalable et nous souhaitons proposer une solution automatique ne nécessitant pas d’avoir accès à la caméra. Les données d’entrée pour le calcul de la structure et du mouvement sont des correspondances de primitives image, c.-à-d. les images d’une même primitive 3D. Le paradigme général reposant sur l’analyse d’une collection d’images non calibrées se compose des trois étapes principales suivantes : – extraction et mise en correspondance des primitives image ; – calcul d’une reconstruction projective de la structure et du mouvement ; – rectification de la reconstruction projective obtenue en une reconstruction euclidienne. Bien qu’un très grand nombre de travaux aient été proposés sur le sujet, il n’en reste pas moins que ces méthodes présentent des limitations inhérentes au problème, telles que : i. le possible manque de texture de l’environnement ou la présence de motifs répétitifs qui rendent très difficile les tâches d’extraction et de mise en correspondance des primitives images ; ii. les singularités de la géométrie de la scène et/ou du mouvement de la caméra pour le calcul projectif de la structure et du mouvement et pour sa mise à jour euclidienne.23 Dans ce manuscrit, nous tentons de répondre au mieux à ces limitations à travers la conception d’un système de marqueurs, dont le principe consiste à disposer dans la scène des objets artificiels de modèle 3D connus, ceci dans l’optique de proposer une solution de suivi de caméra présentant le meilleur compromis entre flexibilité et performances. Ainsi, lors de la conception de ce système, les questions qui ce sont naturellement posées sont les suivantes : – De quelles caractéristiques géométriques doit disposer le marqueur pour rendre son image facilement détectable et identifiable afin de répondre au mieux aux problèmes (i) ? – Quelle information géométrique de référence pour le calcul de la structure et du mouvement doit fournir l’image d’un marqueur afin de répondre au mieux aux problèmes (ii) ? Lignes directrices. Nous souhaitons résoudre le problème du calcul de la structure et du mouvement en utilisant simultanément toutes les correspondances dans toutes les vues, c.-à-d. toutes les contraintes garantissant la rigidité de la scène. Ceci est exactement ce qui fait l’objet des mé- thodes de reconstruction par factorisation. Dans cette thèse, nous nous sommes ainsi intéressés aux méthodes de factorisation en proposant des extensions de certains paradigmes « classiques » du calcul de la structure et du mouvement à partir de données d’entrée intégrant points d’intérêt réels et points d’intérêt virtuels, c.-à-d. les images de points situés sur une conique virtuelle. Cette approche est motivée par l’utilisation de ces extensions aux points cycliques, points virtuels dont les images sont en général utilisées par les méthodes de « calibrage plan », c.-à-d. les méthodes de calibrage interne de la caméra à partir d’homographies induites par des primitives planes. En effet, les propriétés géométriques de ces primitives images présentent un grand intérêt pour le calcul de la structure et du mouvement reposant sur une factorisation projective à travers la notion de marqueur cyclique. Ce type de marqueur à la propriété d’être invariant par les déplacements parallèles à son plan de support. Ainsi, l’intérêt majeur d’une telle primitive est une mise en correspondance très flexible qui va nous permettre de pallier à un des problèmes critiques des méthodes de calcul de la structure et du mouvement par factorisation, à savoir le problème des données manquantes, c.-à-d. lorsque les primitives ne sont pas visibles dans toutes les vues. Un des sous-problèmes critiques abordé dans le calcul de la structure et du mouvement est celui de l’autocalibrage de la caméra, problème consistant à transformer un calcul projectif de la structure et du mouvement en un calcul euclidien. Nous expliquons comment, dans le cas des points cycliques, utiliser l’information euclidienne fournie par les images de ces points d’intérêt virtuels, très « riches » en information euclidienne, dans l’algorithme d’autocalibrage opérant dans l’espace projectif dual et fondé sur des équations linéaires. Dans notre cas, ces points d’intérêt virtuels sont en relation directe avec la notion de C2Tags qui sont des marqueurs plans formés d’un ensemble de couronnes circulaires concentriques. Nous montrons en quoi ce type de marqueur comporte des propriétés intrinsèques « idéales » pour sa détection, son suivi et le calcul des images des points cycliques de son plan de support. Organisation du manuscrit. Dans cette introduction, nous avons donné les idées générales sur le sujet étudié dans ce manuscrit. Dans le chapitre 3, nous proposons des extensions du calcul de la structure et du mouvement24 Chapitre 1. INTRODUCTION reposant sur un schéma de factorisation à partir de données d’entrée intégrant des points d’intérêt virtuels. Nous motivons notre approche via l’utilisation des images des points cycliques et fournissons l’intégralité du paradigme du calcul de la structure et du mouvement reposant sur de telles primitives image. Dans le chapitre 4, nous traitons du problème de l’autocalibrage en proposant, d’une part, de nouvelles contraintes 3D linéaires reposant sur les images des points cycliques pour le problème de l’autocalibrage et, d’autre part, un algorithme d’autocalibrage unifié opérant dans l’espace 3D projectif dual. Dans le chapitre 5, nous présentons le système de marqueurs C2Tags ainsi que ses algorithmes de traitement, à savoir les algorithmes de détection et d’identification de leurs images. Enfin, dans le chapitre 6, l’ensemble de ces contributions est mis au profit d’une méthode de suivi automatique de caméra.25 Chapitre 2 Notations et rappels géométriques Dans ce chapitre, nous présentons les notations employées dans cette thèse, à savoir les représentations des différentes entités géométriques mises en jeu ainsi que la plupart des opérateurs utilisés. Quelques rappels de géométrie projective sont également fournis.26 Chapitre 2. NOTATIONS ET RAPPELS GÉOMÉTRIQUES 2.1 Question de notations Dans cette thèse, nous essaierons de distinguer le plus souvent possible les entités géométriques de leur représentation algébrique. Pour éviter une trop grande lourdeur d’écriture, nous nous autoriserons parfois à faire de telles confusions, si elles n’introduisent aucune ambiguïté dans le texte. Par exemple, dans le chapitre 3, aucune différence n’est faite entre un point et son vecteur de coordonnées ni entre une quadrique/conique et sa matrice de coefficients. – Un vecteur est représenté par un caractère gras, par exemple v, et une matrice par un caractère sans empattement (de typologie sans serif), par exemple M. La composante j du vecteur v sera notée vj et l’élément (j, k) de la matrice M sera noté Mjk. – Le vecteur nul de taille s est désigné par 0s et la matrice nulle de dimension r × c —aussi notée (r, c)— est désignée par 0r×c ou 0s dans le cas d’une matrice carrée d’ordre s. La matrice identité d’ordre s est représentée par Is. – Les angles sont représentés par des caractères grecs minuscules, en général φ, θ, ψ, etc. – Le caractère i est réservé à l’entité complexe telle que i 2 = −1. – L’opérateur diag est utilisé pour désigner les matrices diagonales tel que diag(v) représente la matrice diagonale dont les éléments diagonaux sont les composantes du vecteur v. – Le signe ∧ représente l’opérateur du produit vectoriel et [e]∧ la matrice anti-symétrique associée au vecteur e = (e1 e2 e3) > tel que e ∧ x = [e]∧x. La matrice [e]∧ s’écrit [e]∧ =    0 −e3 e2 e3 0 −e1 −e2 e1 0    (2.1) – La valeur det(A) représente le déterminant de la matrice A. – L’opérateur > désigne l’opérateur de transposition (matrice ou vecteur) et −> l’opérateur de transposition de l’inverse d’une matrice (régulière). – La notation v/p représente le vecteur v privé de sa p-ème composante. – L’opérateur ⊗ représente le produit de Kronecker. – L’opération de vectorisation par colonne d’une matrice est notée vec. Par exemple, si l’on définit la matrice A = h c1 . . . cc i alors vec(A) =     c1 . . . cc     . – Afin de procéder à la vectorisation des éléments uniques d’une matrice symétrique, nous utiliserons l’opérateur de semi-vectorisation par colonne, noté vech. Pour une matrice symétrique2.2 RAPPELS DE GÉOMÉTRIE PROJECTIVE 27 A d’ordre n, on a :        A11 . . . A21 . . . . . . · · · A(n−1)(n−1) An1 An2 · · · An(n−1) Ann        | {z } A vech 7−→                       A11 . . . An1 A21 . . . An2 . . . A(n−1)(n−1) An(n−1) Ann                       | {z } vech(A) où vech(A) désigne le vecteur colonne de taille n(n + 1)/2 obtenu par vectorisation de la partie triangulaire inférieure de A. – Nous désignons par matrice de duplication Pn l’unique matrice de dimension n 2 × n(n + 1)/2 qui associe vech(A) à vec(A) telle que vec(A) = Pn vech(A). (2.2) – L’évaluation de certains algorithmes présentés dans ce manuscrit est faite via l’expression de la racine carrée de l’erreur quadratique moyenne REQM = s 1 n X j (ˆx (k) j − xj ) 2 (2.3) avec n le nombre de paramètres estimés, xˆ (k) j le j ème paramètre, calculé à l’itération k lorsqu’il s’agit d’algorithmes d’optimisation itératifs, et xj le paramètre exact associé. 2.2 Rappels de géométrie projective Il est indéniable que c’est grâce à l’apport de la géométrie projective que la vision par ordinateur a atteint une maturité qui a permis la conception d’algorithmes fiables et performants permettant de résoudre ses principales tâches, notamment celles de la reconstruction 3D. Le but des prochaines sections n’est pas de donner un cours complet sur la géométrie projective et la vision par ordinateur mais de définir certaines bases utilisées par la suite. De nombreux ouvrages très complets existent déjà et pour disposer d’informations complémentaires, nous invitons le lecteur à se reporter aux ouvrages [Semple 1952, Hartley 2004b].28 Chapitre 2. NOTATIONS ET RAPPELS GÉOMÉTRIQUES 2.2.1 L’espace projectif et son dual L’espace projectif. Soit Kn+1 un espace vectoriel de dimension n + 1. Soit la relation d’équivalence ∼ définie sur Kn+1\{0n+1} par ∀X, Y ∈ Kn+1\{0n+1} X ∼ Y ⇔ ∃λ ∈ K\{0} | X = λY. Dans ce qui suit, la relation d’équivalence ∼ est appelée égalité projective et sera généralisée aux matrices. On définit l’application P qui à tout vecteur de Kn+1\{0n+1} lui associe sa classe d’équivalence modulo l’égalité projective ∼. L’ensemble P(Kn+1\{0n+1}), c’est-à-dire l’ensemble quotient de Kn+1\{0} suivant ∼, est appelé espace projectif déduit de Kn+1 et est noté Pn(K). Par définition, dim(Pn(K)) = dim(K n+1) − 1 = n. Pour tout X ∈ Kn+1\{0n+1}, l’élément P(X) est appelé point projectif de Pn(K) et s’identi- fie à la droite vectorielle de Kn+1\{0} de vecteur directeur X. Ainsi il est usuel de dire que Pn(K) est l’ensemble des droites vectorielles de Kn+1 auquel on aurait soustrait le vecteur 0n+1. Tout sous-espace vectoriel F ⊂ Kn+1\{0n+1} de dimension r + 1 engendre un sous-espace projectif P(F) ⊂ Pn(K) de dimension r. Dual d’un espace projectif. Le dual de l’espace projectif Pn(K) est un espace projectif de même dimension, noté P ∗ n (K). La dualité vient de la relation bijective existant entre tout espace vectoriel et son dual : à tout point projectif de ce nouvel espace est associé un hyperplan de Pn(K), de même qu’à tout hyperplan de P ∗ n (K) est associé un point projectif de Pn(K). Un hyperplan de Pn(K) est donc un « point » de P ∗ n (K) et peut être ainsi représenté par un vecteur h ∈ Kn+1\{0n+1}. Il s’ensuit que les points de Pn(K), de vecteur X ∈ Kn+1\{0n+1}, appartenant à cet hyperplan vérifient : h >X = 0. 2.2.2 Quadriques projectives Définition 1 (Quadrique projective) Toute forme quadratique Q non nulle sur Kn+1 définit une quadrique projective Q˜ de Pn(K) qui est l’ensemble des points de Pn(K), appelé lieu de la quadrique, dont les vecteurs X ∈ Kn+1 satisfont l’équation Q(X) = 0. La matrice non nulle, symétrique et d’ordre n + 1 Q =   Q1,1 1 2Q1,2 · · · 1 2Q1,n+1 1 2Q1,2 Q2,2 · · · 1 2Q2,n+1 . . . . . . . . . . . . 1 2Q1,n+1 1 2Q2,n+1 · · · Qn+1,n+1  2.2 RAPPELS DE GÉOMÉTRIE PROJECTIVE 29 associée à la forme quadratique Q(X) = nX +1 i=1 nX +1 j=i Qi,jxixj = X>QX définit une quadrique projective Q˜ dont le lieu a pour équation X>QX = 0. On appelle matrice de la quadrique Q˜ toute matrice (non nulle, symétrique et d’ordre n + 1) proportionnelle à Q. 2.2.2.1 Conjugaison et polarité relatives à une quadrique Deux points X˜ et Y˜ , de vecteurs X et Y, sont conjugués relativement à une quadrique Q˜ de matrice Q si et seulement si X>QY = 0. L’ensemble des points conjugués à X˜, relativement à Q˜ est un hyperplan U˜ dont le vecteur U est donné par U ∼ QX. (2.4) Définition 2 L’hyperplan U˜, de vecteur (2.4), formé par l’ensemble des points conjugués à un point X˜, relativement à Q˜, est appelé hyperplan polaire de X˜, et le point X˜ est appelé pôle de U˜. 2.2.2.2 Tangence à une quadrique Soit Q˜ une quadrique et soient X˜ et Y˜ deux points, non situés sur Q˜. Soient A˜ et B˜ les deux points où la droite passant par X˜ et Y˜ intersecte Q˜. Si A˜ et B˜ coïncident en un même point, alors la droite est dite droite tangente à la quadrique Q˜ en ce point, et celui-ci est dit point de contact. On notera les points suivants : – Le point de contact de la droite tangente à la quadrique Q˜ passant par deux points X˜ et Y , ˜ non situés sur Q˜, est conjugué à X˜ et Y˜ , relativement à Q˜. – Pour X˜ (ou Y˜ ) fixé, l’ensemble des points de contact, relatif aux droites passant par X˜ (ou Y˜ ) qui sont tangentes à la quadrique Q˜, est inclus dans le plan polaire de X˜ (ou Y˜ ). Si A˜ appartient au lieu de la quadrique, alors l’ensemble des droites tangentes à Q˜ au point A˜ forme un hyperplan. Ainsi, l’hyperplan formé par l’ensemble des droites tangentes à Q˜ en un point de contact est appelé hyperplan tangent à la quadrique Q˜ en ce point. 2.2.3 Quadriques projectives duales Définition 3 Toute forme quadratique Q∗ non nulle sur (Kn+1) ∗définit une quadrique projective Q˜∗ de P ∗ n (K), dite quadrique projective duale, qui est l’ensemble des hyperplans de Pn(K), appelé enveloppe de la quadrique, dont les vecteurs U satisfont l’équation Q∗ (U) = 0.30 Chapitre 2. NOTATIONS ET RAPPELS GÉOMÉTRIQUES La matrice non nulle, symétrique et d’ordre n + 1 Q ∗ =   Q∗ 1,1 1 2Q∗ 1,2 · · · 1 2Q∗ 1,n+1 1 2Q∗ 1,2 Q∗ 2,2 · · · 1 2Q∗ 2,n+1 . . . . . . . . . . . . 1 2Q∗ 1,n+1 1 2Q∗ 2,n+1 · · · Q∗ n+1,n+1   , associée à la forme quadratique sur (Kn+1) ∗ Q ∗ (U) = nX +1 i=1 nX +1 j=i Q ∗ i,juiuj = U>Q ∗U. définit une quadrique projective Q˜ dont l’enveloppe a pour équation U>Q ∗U = 0. On appelle matrice de la quadrique de Q˜∗ toute matrice (non nulle, symétrique et d’ordre n + 1) proportionnelle à Q∗ . Si Q˜ est une quadrique de Pn(K), dont la matrice Q est de rang plein, alors l’ensemble des hyperplans tangents à Q˜ définit l’enveloppe d’une quadrique projective Q˜∗ de P ∗ n (K) dont la matrice Q∗ vérifie Q ∗ ∼ Q −1 . (2.5) Ainsi, puisqu’on identifie les hyperplans de Pn(K) aux points de P ∗ n (K), la quadrique Q∗ de P ∗ n (K) identifiée à Q est la quadrique projective de matrice (2.5) et, pour cette raison, est parfois appelée quadrique duale de Q. 2.2.4 Quadriques dégénérées des espaces projectifs de dimensions deux et trois Nous nous plaçons maintenant dans le cadre des espaces projectifs de dimensions deux et trois même si les définitions 4 et 5 restent valides pour les espaces projectifs de toute dimension. Nous restreindrons le cadre de notre travail aux formes quadratiques à coefficients dans K = R et ainsi nous ne considérerons que les quadriques projectives de matrices réelles. Dans le cas général, une quadrique a n(n+3) 2 degrés de liberté correspondant aux (n+1)(n+2) 2 éléments de sa matrice moins le facteur constant non nul : – si n = 2, les quadriques (qui sont alors appelées coniques) ont cinq degrés de liberté ; – si n = 3, les quadriques ont neuf degrés de liberté. Définition 4 On appelle rang d’une quadrique projective le rang de sa matrice associée. Une quadrique de rang plein est dite quadrique propre. Définition 5 Une quadrique projective dégénérée est une quadrique projective qui n’est pas de rang plein, c.-à-d. une quadrique projective dont la matrice a un rang strictement inférieur à n+1 dans un espace projectif de dimension n.2.2 RAPPELS DE GÉOMÉTRIE PROJECTIVE 31 2.2.4.1 Enveloppes des quadriques dégénérées lorsque n ∈ {2, 3} Nous nous restreignons à l’interprétation géométrique des quadriques dégénérées de P ∗ 3 (K) dans la proposition 6 ; celle-ci ne se déduit pas trivialement par dualité de l’interprétation géométrique des quadriques dégénérées de P3(K). Proposition 6 n = 3 et rang Q˜∗ = 3 : l’enveloppe d’une quadrique projective Q˜∗ de P ∗ 3 (K) de rang 3 est formée par l’ensemble des faisceaux de plans de P3(K) dont les axes sont des droites contenues dans un plan p de P3(K) et tangentes à une quadrique non dégénérée A˜ de P3(K). On dira que Q˜∗ est le « cône dual » d’une conique projective. Si p est le vecteur de p et si A ∗ est la matrice de la quadrique duale A˜∗ alors la matrice Q de Q˜∗ , de rang 3, admet la décomposition suivante : Q ∗ ∼ (p >A ∗p)A ∗ − (A ∗p)(A ∗p) >. n ∈ {2, 3} et rang Q˜∗ = 2 : l’enveloppe d’une quadrique projective Q˜∗ de P ∗ n (K) de rang 2 est formée par l’ensemble des droites de P ∗ n (K) passant par au moins un point d’une paire de points distincts de Pn(K). Si u et v sont les vecteurs de ces points, alors la matrice Q∗ de Q˜∗ , de rang 2, admet la décomposition suivante : Q ∗ ∼ uv>+vu>. n ∈ {2, 3} et rang Q˜∗ = 1 : l’enveloppe d’une quadrique projective Q˜∗ de P ∗ n (K) de rang 1 est formée par un point de P ∗ n (K). Si u est le vecteur de ce point alors la matrice Q∗ de Q˜∗ , de rang 1, admet la décomposition suivante : Q ∗ ∼ uu>. 2.2.5 Transformation d’une quadrique projective Soit H la matrice d’une homographie quelconque H de l’espace projectif. La transformation de toute quadrique projective de matrice Q par l’homographie H s’écrit Q 0 ∼ H −T QH−1 . Dans l’espace projectif dual, la transformation par H de toute quadrique projective duale de matrice Q∗ s’écrit Q ∗0 ∼ HQ∗H >. 2.2.6 Signature d’une quadrique projective Nous appelonsinvariant projectif toute quantité qui reste inchangée quelle que soit la représentation projective considérée de l’espace. L’unique invariant projectif des quadriques projectives à32 Chapitre 2. NOTATIONS ET RAPPELS GÉOMÉTRIQUES coefficients dans C est le rang de leur matrice. Puisque nous ne considérons que les quadriques à coefficients dans R, il est possible de définir un autre invariant projectif appelé signature de la quadrique. Définition 1 La signature d’une quadrique projective de matrice Q (respectivement Q∗ sous sa forme duale) est défini par (ξ1, ξ2), où : ξ1 = max(ρ, ν) et ξ2 = min(ρ, ν), avec ρ et ν qui dénombrent respectivement les valeurs propres positives et les valeurs propres négatives de Q (respectivement Q∗ ). Proposition 7 La signature d’une quadrique projective à coefficients dans R est projectivement invariante. La démonstration de cette proposition est immédiate à établir à partir de la signature d’une forme quadratique et de la loi d’inertie de Sylvester [Golub 1996, p. 403]. On notera que ξ1 + ξ2 = rank Q, ce qui confirme que le rang de Q∗ est aussi invariant projectivement. Définition 8 On appelle quadrique virtuelle toute quadrique projective de signature (ξ1, ξ2) = (R, 0) où R désigne le rang de la quadrique, c’est-à-dire dont la matrice réelle de rang R à R valeurs propres de même signe. Il est facile de montrer qu’une quadrique virtuelle ne contient pas de points réels (représentés par des vecteurs réels) mais uniquement des points complexes conjugués (représentés par des vecteurs complexes conjugués). Plus généralement, la signature définie précédemment permet d’établir la classification suivante des quadriques projectives. Nous dirons que deux quadriques sont projectivement équivalentes s’il existe une homographie transformant l’une en l’autre et vice-versa. Pour les quadriques projectives Q et Q∗ de matrices réelles respectives Q et Q∗ = Q−1 , on a : (ξ1, ξ2) =    (4, 0) : Q, Q∗ projectivement équivalentes à une sphère virtuelle (3, 1) : Q, Q∗ projectivement équivalentes à une sphère réelle (2, 2) : Q, Q∗ projectivement équivalentes à un hyperboloïde à une nappe (2.6) On peut remarquer qu’il n’existe pas d’homographie qui transforme une sphère (virtuelle ou non) en un hyperboloïde à une nappe. Pour les signatures d’une quadrique duale Q∗ de rang 3 on a : (ξ1, ξ2) = ( (3, 0) : Q, Q∗ projectivement équivalentes à un cercle virtuel (2, 1) : Q, Q∗ projectivement équivalentes à un cercle réel (2.7)2.2 RAPPELS DE GÉOMÉTRIE PROJECTIVE 33 2.2.7 Stratifications projectives 2.2.7.1 Structure affine d’un espace projectif. Hyperplan à l’infini. Hyperplan à l’infini. Si F désigne un hyperplan vectoriel de R n+1, alors Pn(R)\P(F) possède une structure d’espace affine de dimension n ; P(F) est alors appelé hyperplan à l’infini de Pn(R) et est noté H∞. On dit que la donnée de l’hyperplan à l’infini munit l’espace projectif d’une structure affine car on montre que Pn(R)\P(F) a de facto une structure affine. Représentation affine. Une représentation affine de l’espace projectif correspond au choix d’un système de coordonnées homogènes dans lequel l’hyperplan à l’infini est H∞ = P(Kn × {0}) c.-à-d. dont le vecteur s’écrit H∞ = [0, ..., 0, 1]> . Une représentation affine de Pn(K) s’obtient par le plongement de l’espace affine Kn associé à lui-même dans l’espace projectif par la bijection de Kn sur P(Kn × {1}) (x1, · · · , xn) > ↔ P(x1, · · · , xn, 1)>. De l’égalite P(Kn × {1}) = Pn(K) \ P(Kn × {0}), on en déduit que P(Kn × {1}) correspond aux points de Pn(K) à l’exception de ceux contenus dans l’hyperplan projectif P(Kn × {0}) c.- à-d. aux droites vectorielles de Kn+1 à l’exception de celles contenues dans l’hyperplan vectoriel d’équation xn+1 = 0. Le plongement étant une bijection de Kn sur P(Kn × {1}), nous concluons que P(Kn × {1}) possède une structure d’espace affine de dimension n. De plus, – les points projectifs de P(Kn × {0}) sont dits points à l’infini et s’identifient aux droites vectorielles de l’espace vectoriel Kn , c.-à-d. aux directions des droites de l’espace affine Kn ; – les points projectifs de P(Kn × {1}) sont dits, par opposition, points finis, et s’identifient aux points de l’espace affine Kn . 2.2.7.2 Structure affine euclidienne de l’espace projectif tridimensionnel. Conique absolue. Soit Pn(K) l’espace projectif de dimension n = 3 associé à une représentation affine, c.- à-d. tel que l’ensemble de ses points finis soit P(Kn × {1}). La partie Kn × {1} de Kn+1 est un hyperplan affine de Kn+1 que l’on peut munir d’une structure euclidienne en définissant le produit scalaire via la relation de conjugaison par rapport à un certain cône Λ∞, ayant l’origine pour sommet et circonscrit à une conique virtuelle Ω∞ de l’hyperplan à l’infini de signature (3, 0). Dans toute représentation affine de Pn(K), la matrice du cône s’écrit Λ∞ = " Ω∞ 0n 0 > n 0 # où Ω∞ est une matrice réelle d’ordre n et définie positive.34 Chapitre 2. NOTATIONS ET RAPPELS GÉOMÉTRIQUES Le produit scalaire sur Kn s’écrit alors : hx, yiΩ∞ = (¯x >, 1)Λ∞ ¯y 1 ! = ¯x >Ω∞y où ¯x et ¯y sont les vecteurs de coordonnées cartésiennes de deux points finis de Pn(K). Conique absolue. La conique Ω∞ est appelée conique absolue. Comme toute conique virtuelle, elle ne contient aucun point réel, uniquement des points conjugués complexes. Le cercle absolu est l’unique conique de l’espace projectif qui est invariant par les similitudes de l’espace affine euclidien Pn(K)\P(H∞). On dira que la donnée de la conique absolue munit l’espace projectif affine Pn(K) d’une structure euclidienne. Représentation affine euclidienne. Une représentation affine euclidienne de l’espace projectif est une représentation affine dans laquelle Ω∞ = In c.-à-d. dans laquelle la conique absolue est un cercle absolu de rayon √ −1. Quadrique absolue duale. La conique absolue peut être définie dans l’espace projectif dual comme l’enveloppe d’une quadrique duale virtuelle, dégénérée de rang 3, notée Q∗ ∞. Cette enveloppe est le cône dual à la conique absolue et est communément désignée par le terme quadrique absolue duale. C’est l’unique quadrique duale qui est invariante par les similitudes de l’espace projectif, c.-à-d. par des homographies dont les matrices sont de la forme T = " sR t 0 > n 1 # où s est un scalaire non nul, R une matrice orthogonale (représentant une rotation si det R = 1) et t un vecteur de translation. La matrice de Q∗ ∞ a la forme canonique suivante : Q ∗ ∞ = " In 0n 0 > n 0 # pour toute représentation affine euclidienne de l’espace projectif et son rayon est √ −1. L’invariance du cercle absolu par toute similitude de matrice T se traduit ici simplement par l’égalité : TQ∗ ∞T > ∼ Q ∗ ∞. Le fait que H∞ ∈ ker Q∗ ∞ indique que Q∗ ∞ « encode » simultanément les données de l’hyperplan à l’infini et du cercle absolu.35 Chapitre 3 Calcul de la structure et du mouvement par factorisation projective incorporant des points cycliques Dans ce chapitre, nous proposons d’utiliser les images de points cycliques, points virtuels situés sur la conique absolue, dans le calcul de la structure et du mouvement. Nous commençons par présenter les avantages liés à l’utilisation de telles primitives pour ce problème en introduisant la notion de marqueur cyclique. Nous montrons ensuite comment intégrer les images de points complexes dans un schéma de factorisation projective. Une méthode de factorisation projective inté- grant les images des points cycliques est présentée, résolvant notamment les problèmes de mise à l’échelle des entrées de la matrice des données et de prédiction des données manquantes, et ceci, avec ou sans la présence d’images de points « naturels » réels.36 Chapitre 3. CALCUL DE LA STRUCTURE ET DU MOUVEMENT PAR FACTORISATION PROJECTIVE INCORPORANT DES POINTS CYCLIQUES 3.1 Introduction Le calcul de la structure et du mouvement fait ici référence au problème consistant à « expliquer » un ensemble « suffisamment grand » d’images de K points dans V vues, représentées par des vecteurs xvk ∈ R 3 , par une reconstruction tridimensionnelle des V caméras, représentées par des matrices de projection Pv ∈ R 3×4 , et des K points, représentés par des vecteurs Xk ∈ R 4 , conformément à l’équation de projection xvk ∼ PvXk, (3.1) où ∼ désigne l’égalité projective. La spécialisation euclidienne de ce calcul consiste à obtenir une représentation euclidienne de l’espace projectif tridimensionnel dans laquelle : (i) les matrices de projection sont de la forme [Hartley 2004b, p. 156] Pv = KvRv h I | −cv i (3.2) où Kv désigne la matrice de calibrage [Hartley 2004b, p. 154], Rv désigne la matrice de rotation et cv le vecteur de translation qui déterminent la « pose » de la caméra ; (ii) les vecteurs Xk ont pour composantes les « coordonnées cartésiennes augmentées » des points. Nous différencions ici les méthodes qui résolvent le problème du calcul de la structure et du mouvement selon qu’elles considèrent comme données d’entrée des correspondances intervues de points et/ou des matrices fondamentales et/ou des matrices d’homographies associées à la restriction de la projection centrale à un plan de la scène. Le paradigme que nous proposons a pour ambition d’unifier les méthodes de calcul de la structure et du mouvement à partir de données contenant – des images de primitives (planes) associées à des marqueurs plans [Bergamasco 2011, Kim 2005, Fiala 2005, Poupyrev 2000], cf. figure 3.1, – et/ou des correspondances inter-vues d’images de points « naturels », c.-à-d. les images de primitives ponctuelles présentes naturellement dans la scène. FIGURE 3.1: Exemples de marqueurs plans. Ce paradigme repose sur un schéma de factorisation des images de points complexes. Dans ce chapitre, nous appelons technique de factorisation toute technique de calcul fondée sur la réduction du rang de la matrice par blocs obtenue par concaténation des représentations matricielles de toutes les données, où la connaissance du rang théorique correspond à une contrainte de résolution, exprimant par exemple une contrainte de rigidité liée à la scène. Les techniques3.1 INTRODUCTION 37 de factorisation présentent un grand intérêt car elles considèrent de manière uniforme l’ensemble des données issues de toutes les vues. Le champ d’application de ces techniques est vaste et on trouvera dans [Wang 2011] un grand nombre de problèmes de vision par ordinateur résolus par factorisation. Les techniques de factorisation introduisent néanmoins des sous-problèmes délicats à résoudre : il faut « mettre à l’échelle » les données et traiter le cas (très courant en pratique) de celles manquantes, c.-à-d. lorsque les primitives ne sont pas visibles dans toutes les vues. Calcul de la structure et du mouvement à partir de marqueurs plans. Les méthodes existantes de calcul de la structure et du mouvement à partir de marqueurs plans, comme ceux de [Fiala 2005, Poupyrev 2000], utilisent comme données principales les homographies du plan p de support d’un marqueur dans le plan pixélique d’une vue v, dont les matrices sont décomposables sous la forme Hpv = KvR > v w1 p | w2 p | qp − cv (3.3) où, relativement au repère orthonormé de la scène, le couple (Rv, cv) détermine la « pose » de la caméra, conformément à l’équation générale de projection (3.2), et où  qp; w1 p , w2 p définit un repère orthonormé bidimensionnel du plan p ; qp ∈ R 3 représente l’origine et w1 p , w2 p  ∈ R 3×R 3 est la paire de vecteurs orthonormés associée à la direction du plan. La restriction de la projection centrale au plan p est illustrée sur la figure 3.2. FIGURE 3.2: Restriction de la projection centrale à un plan de la scène. Ces méthodes ont pour clef de voûte le « calibrage plan » [Hartley 2004b, p. 211], c.-à-d. le calibrage interne de la caméra à partir de ces homographies, dont les équations de base sont (h 1 pv) >ωvh 2 pv = 0 (3.4) (h 1 pv) >ωvh 1 pv − (h 2 pv) >ωvh 2 pv = 0 (3.5) où h j pv représente la colonne numéro j de Hpv. Le prérequis d’avoir comme données d’entrée les matrices Hpv oblige à connaître exactement la géométrie du marqueur, par exemple à connaître les coordonnées cartésiennes (x, y) de tout point du marqueur dans un repère orthonormé bidimen- Typologies textuelles et partitions musicales : dissimilarit´es, classification et autocorr´elation. Christelle Cocco To cite this version: Christelle Cocco. Typologies textuelles et partitions musicales : dissimilarit´es, classification et autocorr´elation.. Methods and statistics. Universit´e de Lausanne, 2014. French. HAL Id: tel-01074904 https://tel.archives-ouvertes.fr/tel-01074904 Submitted on 16 Oct 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.FACULTÉ DES LETTRES SECTION DES SCIENCES DU LANGAGE ET DE L’INFORMATION Typologies textuelles et partitions musicales : dissimilarités, classification et autocorrélation. THÈSE DE DOCTORAT présentée à la Faculté des lettres de l’Université de Lausanne pour l’obtention du grade de Docteur ès lettres en Informatique et Méthodes Mathématiques par Christelle Cocco Directeur de thèse François Bavaud Jury Frédéric Kaplan, EPFL Ludovic Lebart, TELECOM-ParisTech Aris Xanthos, UNIL LAUSANNE 2014FACULTÉ DES LETTRES SECTION DES SCIENCES DU LANGAGE ET DE L’INFORMATION Typologies textuelles et partitions musicales : dissimilarités, classification et autocorrélation. THÈSE DE DOCTORAT présentée à la Faculté des lettres de l’Université de Lausanne pour l’obtention du grade de Docteur ès lettres en Informatique et Méthodes Mathématiques par Christelle Cocco Directeur de thèse François Bavaud Jury Frédéric Kaplan, EPFL Ludovic Lebart, TELECOM-ParisTech Aris Xanthos, UNIL LAUSANNE 2014Résumé Axée dans un premier temps sur le formalisme et les méthodes, cette thèse est construite sur trois concepts formalisés : une table de contingence, une matrice de dissimilarités euclidiennes et une matrice d’échange. À partir de ces derniers, plusieurs méthodes d’Analyse des données ou d’apprentissage automatique sont exprimées et développées : l’analyse factorielle des correspondances (AFC), vue comme un cas particulier du multidimensional scaling ; la classification supervisée, ou non, combinée aux transformations de Schoenberg ; et les indices d’autocorrélation et d’autocorrélation croisée, adaptés à des analyses multivariées et permettant de considérer diverses familles de voisinages. Ces méthodes débouchent dans un second temps sur une pratique de l’analyse exploratoire de différentes données textuelles et musicales. Pour les données textuelles, on s’intéresse à la classification automatique en types de discours de propositions énoncées, en se basant sur les catégories morphosyntaxiques (CMS) qu’elles contiennent. Bien que le lien statistique entre les CMS et les types de discours soit confirmé, les résultats de la classification obtenus avec la méthode K-means, combinée à une transformation de Schoenberg, ainsi qu’avec une variante floue de l’algorithme K-means, sont plus difficiles à interpréter. On traite aussi de la classification supervisée multi-étiquette en actes de dialogue de tours de parole, en se basant à nouveau sur les CMS qu’ils contiennent, mais aussi sur les lemmes et le sens des verbes. Les résultats obtenus par l’intermédiaire de l’analyse discriminante combinée à une transformation de Schoenberg sont prometteurs. Finalement, on examine l’autocorrélation textuelle, sous l’angle des similarités entre diverses positions d’un texte, pensé comme une séquence d’unités. En particulier, le phénomène d’alternance de la longueur des mots dans un texte est observé pour des voisinages d’empan variable. On étudie aussi les similarités en fonction de l’apparition, ou non, de certaines parties du discours, ainsi que les similarités sémantiques des diverses positions d’un texte. Concernant les données musicales, on propose une représentation d’une partition musicale sous forme d’une table de contingence. On commence par utiliser l’AFC et l’indice d’autocorré- lation pour découvrir les structures existant dans chaque partition. Ensuite, on opère le même type d’approche sur les différentes voix d’une partition, grâce à l’analyse des correspondances multiples, dans une variante floue, et à l’indice d’autocorrélation croisée. Qu’il s’agisse de la partition complète ou des différentes voix qu’elle contient, des structures répétées sont effectivement détectées, à condition qu’elles ne soient pas transposées. Finalement, on propose de classer automatiquement vingt partitions de quatre compositeurs différents, chacune représentée par une table de contingence, par l’intermédiaire d’un indice mesurant la similarité de deux configurations. Les résultats ainsi obtenus permettent de regrouper avec succès la plupart des œuvres selon leur compositeur. iAbstract Focused on formalism and methods in its first part, this thesis is constructed from three basic formalised concepts, namely : a contingency table, an Euclidean dissimilarity matrix and an exchange matrix. Those concepts permit the expression and development of several Data Analysis or Machine Learning methods : Correspondence Analysis (CA), interpreted as a particular case of Multidimensional Scaling ; classification and clustering, combined with Schoenberg transformations ; and the autocorrelation and cross-autocorrelation indices, adapted to multivariate analysis and allowing the consideration of various neighbourhood families. In the second part of the thesis, these methods lead to an Exploratory Data Analysis of textual and musical data of various types. For textual data, we are interested in clustering clauses into discourse types, based upon the distribution of part-of-speech (POS) tags in the clauses. Although the statistical link between POS tags and discourse types is significant, the results obtained with the K-means algorithm or a fuzzy variant of it, possibly combined with a Schoenberg transformation, remain difficult to interpret. We also deal with multi-label classification into dialog acts of turns, again based on the POS tags they contain, but also on lemmas and on the meaning of verbs. Results obtained by means of discriminant analysis combined with a Schoenberg transformation are promising. Finally, we examine the textual autocorrelation, in terms of similarities between various positions in a text, thought as a sequence of localized units. In particular, the phenomenon of word length alternation in a text is studied for a family of neighbourhoods of variable span. We also consider presence-absence similarities, according to the apparition of specific POS, as well as the semantic similarities between textual positions. Regarding musical data, we propose to represent a musical score as a contingency table. We begin by using CA and the autocorrelation index to discover underlying structures within each score. Then, we apply the same approach on the different voices in a musical score, with a procedure alike to a fuzzy variant of multiple correspondence analysis and making use of the cross-autocorrelation index. Whether in the whole musical scores or in different voices they contain, repeated structures are actually detected, provided they are not transposed. Finally, we propose to cluster twenty musical scores by four different composers, each represented by a contingency table, by introducing a similarity index between the pairs of configurations. A majority of scores turn out to be thus successfully regrouped according to their composer. iiiRemerciements J’aimerais remercier tous les gens que j’ai rencontrés durant cette thèse, ceux avec qui j’ai pu échanger, même brièvement, ainsi que ceux qui m’ont donné leur avis ou qui m’ont motivée. Parmi toutes ces personnes, et j’espère que vous serez nombreux à vous reconnaître dans cette description, un grand merci à ma famille et mes amis. Pour rester succincte, je ne vais pas nommer tout le monde, mais simplement revenir sur les gens sans qui cette thèse n’aurait pas pu exister. Pour commencer, j’aimerais remercier Pathé Barry, un ami de longue date, et Jérémie Mariller, mon compagnon, sans qui je ne me serais jamais lancée dans l’aventure d’une thèse. Ils m’ont tous deux encouragée à postuler pour ce doctorat en informatique et méthodes mathématiques de la faculté des Lettres, domaine relativement éloigné de mes études de master. J’aimerais particulièrement remercier Jérémie pour m’avoir soutenue durant tout mon doctorat. Merci encore à François Bavaud et Aris Xanthos sans qui rien n’aurait commencé. Ils ont tous deux consacré beaucoup de temps à partager leurs expériences avec moi, ce qui m’a permis de me familiariser avec ce nouveau domaine, la recherche et le monde académique. En particulier, je remercie François pour sa disponibilité, ses conseils et ses nombreuses relectures. J’aimerais aussi remercier tous les membres de l’ancienne section d’Informatique et Méthodes Mathématiques, ainsi que tous ceux de la nouvelle section des Sciences du Langage et de l’Information. Parmi eux, je voudrais en particulier remercier Jérôme Jacquin avec qui le projet qui m’a permis d’écrire le chapitre 4 a débuté. Concernant ce même chapitre, mes remerciements vont à Gilles Merminod pour ses conseils et nos discussions qui m’ont éclairée sur la dimension linguistique de ce sujet. Merci aussi à Guillaume Guex et Théophile Emmanouilidis avec qui nous avons non seulement partagé un bureau, mais aussi des idées, des avis et des discussions. Concernant les chapitres 7 et 8, j’aimerais remercier Jamil Alioui, qui m’a aidée à me familiariser avec les fichiers MIDI ; ainsi que le Dr. Daniel Müllensiefen, pour les différentes pistes de départ à propos des recherches actuelles dans le domaine, et surtout des formats symboliques, qu’il a proposées à François et dont j’ai bénéficié. Merci aussi à l’équipe de la Formation Doctorale Interdisciplinaire de la faculté des Lettres, et à l’équipe des Humanités Digitales de l’UNIL et l’EPFL, pour m’avoir donné l’occasion de présenter mon travail et d’échanger des idées. Merci enfin, particulièrement, aux membres du jury, dont les remarques, toutes pertinentes, m’ont permis de prendre du recul sur ma thèse, d’améliorer différents points et d’aboutir à un ensemble plus clair et cohérent. J’espère que vous aurez du plaisir à lire cette thèse. vTable des matières Introduction 1 I Méthodes et formalisme 7 1 Table de contingence et analyse factorielle des correspondances 9 1.1 Table de contingence et matrice documents-termes . . . . . . . . . . . . . 9 1.2 Lien entre deux variables catégorielles. . . . . . . . . . . . . . . . . . . 10 1.2.1 Test d’indépendance du khi2 . . . . . . . . . . . . . . . . . . . . 10 1.2.2 Cas des variables binaires . . . . . . . . . . . . . . . . . . . . . 10 1.3 Dissimilarité du χ 2 et dissimilarités euclidiennes carrées . . . . . . . . . . . . 12 1.3.1 Dissimilarité du χ 2 et dualité. . . . . . . . . . . . . . . . . . . . 12 1.3.2 Dissimilarités euclidiennes carrées . . . . . . . . . . . . . . . . . . 12 1.3.3 Principe de Huygens . . . . . . . . . . . . . . . . . . . . . . . 14 1.3.4 Transformations de Schoenberg. . . . . . . . . . . . . . . . . . . 15 1.4 Analyse factorielle des correspondances . . . . . . . . . . . . . . . . . . 15 1.4.1 MDS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2 Classification supervisée et non supervisée 17 2.1 Classification non supervisée . . . . . . . . . . . . . . . . . . . . . . 17 2.1.1 Classification ascendante hiérarchique, critère de Ward . . . . . . . . . . 19 2.1.2 K-means sur les dissimilarités . . . . . . . . . . . . . . . . . . . 20 2.1.3 K-means flou sur les dissimilarités . . . . . . . . . . . . . . . . . . 21 2.2 Classification supervisée . . . . . . . . . . . . . . . . . . . . . . . . 22 2.2.1 Analyse discriminante sur les dissimilarités. . . . . . . . . . . . . . . 23 2.3 Évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.3.1 Accord entre partitions . . . . . . . . . . . . . . . . . . . . . . 24 2.3.2 Précision, rappel et F-mesure . . . . . . . . . . . . . . . . . . . 25 3 Indices d’autocorrélation et d’autocorrélation croisée 29 3.1 Matrice d’échange . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.1.1 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.2 Indice d’autocorrélation . . . . . . . . . . . . . . . . . . . . . . . . 31 3.2.1 Test d’autocorrélation . . . . . . . . . . . . . . . . . . . . . . 32 3.3 Indice d’autocorrélation croisée . . . . . . . . . . . . . . . . . . . . . 32 viiviii TABLE DES MATIÈRES II Applications textuelles 35 4 Classification non supervisée en types de discours 37 4.1 Données. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 4.1.1 Types de discours et annotation . . . . . . . . . . . . . . . . . . 38 4.1.2 Corpus . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 4.1.3 Prétraitement . . . . . . . . . . . . . . . . . . . . . . . . . 43 4.1.4 Analyse préliminaire . . . . . . . . . . . . . . . . . . . . . . . 44 4.2 Visualisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4.2.1 Propositions et CMS . . . . . . . . . . . . . . . . . . . . . . . 48 4.2.2 Types de discours et CMS avec bootstrap . . . . . . . . . . . . . . . 51 4.3 Classification non supervisée et résultats. . . . . . . . . . . . . . . . . . 55 4.3.1 K-means . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.3.2 K-means flou. . . . . . . . . . . . . . . . . . . . . . . . . . 58 4.4 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 5 Classification supervisée multi-étiquette en actes de dialogue 67 5.1 Données. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 5.2 Liens entre étiquettes . . . . . . . . . . . . . . . . . . . . . . . . . 69 5.2.1 Traitements . . . . . . . . . . . . . . . . . . . . . . . . . . 69 5.2.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 5.3 Classification supervisée . . . . . . . . . . . . . . . . . . . . . . . . 71 5.3.1 Prétraitements et caractéristiques . . . . . . . . . . . . . . . . . . 71 5.3.2 Traitements . . . . . . . . . . . . . . . . . . . . . . . . . . 72 5.3.3 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 5.4 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 6 Autocorrélation textuelle 81 6.1 Longueur des mots. . . . . . . . . . . . . . . . . . . . . . . . . . 81 6.1.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 6.1.2 Traitements et résultats. . . . . . . . . . . . . . . . . . . . . . 81 6.2 Parties du discours . . . . . . . . . . . . . . . . . . . . . . . . . . 84 6.2.1 Dissimilarités binaires relatives à une partie du discours . . . . . . . . . . 84 6.2.2 Traitements et résultats. . . . . . . . . . . . . . . . . . . . . . 84 6.3 Sens des mots selon WordNet. . . . . . . . . . . . . . . . . . . . . . 85 6.3.1 Dissimilarités sémantiques . . . . . . . . . . . . . . . . . . . . . 85 6.3.2 Autocorrélation sémantique . . . . . . . . . . . . . . . . . . . . 87 6.3.3 MDS et autocorrélation sur les premiers facteurs . . . . . . . . . . . . 89 6.4 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 III Applications musicales 97 7 Formats symboliques de données musicales 99 7.1 Partitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 7.2 Format MIDI en bref . . . . . . . . . . . . . . . . . . . . . . . . . 101 7.3 Formats « textuels » . . . . . . . . . . . . . . . . . . . . . . . . . 101 7.3.1 Le format Melisma . . . . . . . . . . . . . . . . . . . . . . . 101 7.3.2 Le format ABC . . . . . . . . . . . . . . . . . . . . . . . . . 104 7.3.3 Le format Humdrum . . . . . . . . . . . . . . . . . . . . . . . 105 7.3.4 Comparaison de ces trois formats . . . . . . . . . . . . . . . . . . 107TABLE DES MATIÈRES ix 8 Analyse de données musicales 109 8.1 Représentation des données . . . . . . . . . . . . . . . . . . . . . . 109 8.1.1 Formalisme . . . . . . . . . . . . . . . . . . . . . . . . . . 109 8.1.2 Pré-traitement . . . . . . . . . . . . . . . . . . . . . . . . . 111 8.2 Analyses d’une partition . . . . . . . . . . . . . . . . . . . . . . . . 112 8.2.1 Traitements . . . . . . . . . . . . . . . . . . . . . . . . . . 112 8.2.2 Partition monophonique . . . . . . . . . . . . . . . . . . . . . 113 8.2.3 Partitions polyphoniques avec un seul instrument . . . . . . . . . . . . 115 8.2.4 Partition polyphonique avec plusieurs instruments . . . . . . . . . . . . 119 8.3 Analyses inter-voix . . . . . . . . . . . . . . . . . . . . . . . . . . 121 8.3.1 Traitements . . . . . . . . . . . . . . . . . . . . . . . . . . 121 8.3.2 Un canon . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 8.3.3 Un quatuor à cordes . . . . . . . . . . . . . . . . . . . . . . . 124 8.4 Analyses inter-partitions . . . . . . . . . . . . . . . . . . . . . . . . 126 8.4.1 Données . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 8.4.2 Traitement et résultat . . . . . . . . . . . . . . . . . . . . . . 127 8.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 Conclusion et discussion 131 Annexes 139 A Textes de Maupassant annotés 141 A.1 L’Orient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 A.2 Le Voleur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 A.3 Un Fou ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 A.4 Un Fou . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 B Liens entre types de discours et CMS 179 B.1 Tables des effectifs croisés . . . . . . . . . . . . . . . . . . . . . . . 180 B.2 Khi2 ponctuel. . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 C Classification non supervisée en types de discours 185 C.1 K-means. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 C.1.1 Indices d’accord entre partitions . . . . . . . . . . . . . . . . . . 186 C.1.2 V de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . 188 C.2 K-means flou . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 Bibliographie 202Introduction Cette thèse se propose d’étudier et de révéler certaines structures existant dans des données de type textuel ou musical, par l’intermédiaire de méthodes standard ou novatrices en Analyse des données. En d’autres termes, elle adopte essentiellement l’approche de l’analyse exploratoire des données, par opposition aux approches inférentielles ou basées sur des modèles a priori. Alors que ces dernières sont basées sur des hypothèses ou des postulats a priori qu’il s’agira de confirmer ou de rejeter, le but est ici de « laisser parler les données » à l’aide d’algorithmes et d’ordinateurs, i.e. d’extraire la structure des données qui pourra être ensuite interprétée. En d’autres termes : [...] La notion de forme ou de modèle devrait émerger d’une mer de données, non par des postulats nominalistes ou des axiomes a priori, ni par des mesures trop fragmentaires de faits isolés, en eux-mêmes dénués de sens puisqu’ils dépendent du milieu ambiant et se ré- organisent sans cesse, mais par la synthèse simultanée (synthèse pris au sens éthymologique [sic] : mettre ensemble) d’un bon nombre de faits élémentaires qui nous aide à gravir les échelons de la hiérarchie des causes. Mais un cerveau humain ne peut accomplir une synthèse multidimensionnelle sans faire de nombreux choix arbitraires qui ôtent souvent toute signification au résultat. Il faut donc l’aide d’une calculatrice pour appliquer aux données préalablement rassemblées un ensemble de calculs ou plutôt de transformations telles qu’on puisse lire avec sûreté à la sortie ce qui, à l’entrée, était indéchiffrable. (Benzécri et al., 1973, pp. 15-16) Dans le passage ci-dessus, extrait de Benzécri et al. (1973), on trouve une expression centrale pour l’analyse des données : « synthèse multidimensionnelle ». Effectivement, le terme d’Analyse des données regroupe plusieurs méthodes, toutes basées sur des statistiques multidimensionnelles et descriptives, avec pour objectif de synthétiser l’information contenue dans les données en réduisant le nombre de dimensions effectives, grâce à la redondance générée par les relations entre les descripteurs. L’ensemble de ces méthodes peut être divisé en deux grandes familles principales. La première famille de méthodes permet de représenter graphiquement l’information synthétisée, en deux dimensions par exemple, ce qui la rend intelligible pour un être humain. Quant à la seconde famille de méthodes, elle vise à classifier automatiquement les observations en les regroupant de la manière la plus homogène possible, selon leurs profils. Benzécri et al. (1973) les commentent ainsi lorsqu’ils abordent la question de la reconnaissance de formes dans l’introduction générale du premier tome sur « L’Analyse des Données » : [...] C’est le problème de la reconnaissance des formes : traiter mécaniquement des informations qui ne soient ni réduites à une expression logique séquentielle et définie à l’avance [...], ni représentées analogiquement par des grandeurs physiques [...], mais gardent la multidimensionnalité présente presque partout dans la nature. [...] La portée de telles recherches dépasse en fait l’objectif initial limité que nous leur avons assigné : réussir dans une ambiance multidimensionnelle et d’abord confus [sic], des tâches 12 INTRODUCTION de discrimination accessibles aux moins doués des hommes ou aux animaux. On ne résoudra sur machine de tels problèmes qu’au moyen d’algorithmes de classification et de réduction du nombre de dimensions, i.e. d’algorithmes qui à partir d’un vaste ensemble d’individus (de nature quelconque...), chacun décrit par un grand nombre de mesures numériques ou de relations, reconnaissent les propriétés structurellement importantes et les dimensions selon lesquelles se répartissent continûment les membres de l’ensemble étudié : or, ces propriétés et ces dimensions ne sont généralement aucune de celles que comportait la description initiale, elles en sont des fonctions souvent complexes [...] (Benzécri et al., 1973, pp. 3-4) Pour pouvoir exprimer les méthodes d’Analyse des données spécifiques qui seront utilisées dans cette thèse, il est nécessaire de définir clairement un formalisme. Le formalisme mathématique adopté ici est relativement succinct et repose sur trois concepts formalisés, à savoir : — une table de contingence, — une matrice de dissimilarités euclidiennes carrées et — une matrice d’échange. Techniquement, chaque objet est caractérisé par un certain nombre d’attributs (ou caracté- ristiques). La table de contingence, connue aussi sous le terme de table documents-termes en statistique textuelle, compte le nombre de chacun des attributs contenu dans chaque objet et constitue ainsi le premier concept du formalisme. Le second concept consiste en une matrice de similarités ou de dissimilarités construite entre les objets en fonction de leurs attributs. Concernant la matrice d’échange, elle sert à modéliser le voisinage spatial ou temporel qui peut exister entre les différents objets. Partant de ces trois concepts, trois types de méthodes sont développés, les deux premiers correspondant aux deux grandes familles de méthodes d’Analyse des données décrites ci-dessus. Premièrement, pour visualiser l’information synthétisée que contient une table de contingence, on utilisera l’analyse factorielle des correspondances qui permet de représenter simultanément les objets (ou documents) et les attributs (ou termes) sur un graphique. Ainsi, il est possible de visualiser les correspondances des objets par rapport aux attributs, et inversement. Cette méthode, spécifique aux tables de contingence, est très connue et très populaire, comme en témoignent Benzécri et al. (1980) qui y consacrent la totalité de leur deuxième tome sur « L’Analyse des Données » et déclarent : [...] l’analyse des correspondances, méthode qui bien mieux que toute autre nous a permis de découvrir les faits de structure que recèle un tableau de données quel qu’il soit. (Benzécri et al., 1980, p. VII) Deuxièmement, on traitera de la classification en se basant sur la matrice de dissimilarités euclidiennes carrées. Alors que l’Analyse des données vise, comme il a déjà été mentionné, à faire émerger la structure des données sans a priori, ce qui correspond à ce que l’on appelle la classification non supervisée, on traitera en plus de classification supervisée. Dans ce deuxième cas, l’information contenue dans les données est également synthétisée, mais le but est alors de créer un algorithme capable d’identifier l’appartenance à des groupes définis a priori, en se basant sur un échantillon d’apprentissage. Troisièmement, on s’intéressera à mesurer la proximité entre des objets, en fonction des attributs qui les composent, du point de vue de leur voisinage spatial ou temporel. Pour ce faire, on utilise deux des concepts formalisés présentés plus haut : la matrice de dissimilarités euclidiennes carrées et la matrice d’échange. Leur interaction est à la base de la construction des indices d’autocorrélation et d’autocorrélation croisée. Si le formalisme et les méthodes associées sont centraux dans ce travail, leurs applications textuelles et musicales le sont également. La suite de l’étude vise ainsi à extraire des structures existant dans les données, structures qui peuvent être attendues, ou au contraire nouvelles, justement découvertes grâce au formalisme. Dans certains cas, l’analyse a été poussée au-delà de la phase exploratoire stricte : il s’agit alors de s’assurer que les structures révélées ne soient pas le fruit du hasard en recourant alors à l’approche inférentielle.INTRODUCTION 3 Sans être spécialiste de l’étude des textes ou de la musique, on se positionne ici un peu comme le microscope d’un biologiste qui lui permet d’observer un objet ou une substance de plus près et différemment, donc d’un autre point de vue. Cette thèse n’ambitionne donc pas de développer ou de proposer de nouvelles théories dans des domaines, tels que la littérature, la linguistique, la musicologie ou encore la psychologie, mais plutôt d’offrir un nouveau point de vue à l’une ou l’autre de ces disciplines. En effet, pour reprendre encore les mots de Benzécri et ses collaborateurs dans l’avant-propos de leur premier tome : [...] La puissance du calcul électronique permet au statisticien d’aborder d’un point de vue unique les ensembles de faits les plus vastes et les plus divers. Aussi ne s’étonnera-t-on pas qu’il doive être traité ici tant des sciences de la nature [...], que des sciences de l’homme : Psychologie, Linguistique, Economie, Politique [...] ; cependant que la méthode même de la connaissance est l’objet ultime de cette recherche. Dans chaque volume, on s’efforcera de placer simultanément des exposés théoriques, des programmes de calcul, des exemples d’application. Nous ne croyons pas devoir dissimuler que c’est à ces exemples que va notre prédilection. Nous sommes en effet convaincu que le statisticien a tout à apprendre de la nature et que la statistique, refrénant son vol mathématique, doit s’honorer d’être une science expérimentale. Bien mieux qu’à des modèles conjecturaux, c’est à l’observation qu’on doit demander quel est l’ordre de la réalité : le mérite du calculateur étant de découvrir sans parti pris, sans a priori, quels courants de lois traversent l’océan des faits. (Benzécri et al., 1973, p. V) Ou encore, lorsque Lebart, Morineau et Piron (1995) expliquent la différence qu’il existe entre statistique descriptive et statistique descriptive multidimensionnelle dans l’introduction de leur ouvrage : Mais le passage au multidimensionnel induit un changement qualitatif important. On ne dit pas en effet que des microscopes ou des appareils radiographiques sont des instruments de description, mais bien des instruments d’observation ou d’exploration, et aussi de recherche. La réalité multidimensionnelle n’est pas seulement simplifiée parce que complexe, mais aussi explorée parce que cachée. Le travail de préparation et de codage des données, les règles d’interprétation et de validation des représentations fournies par les techniques utilisées dans le cas multidimensionnel n’ont pas la simplicité rencontrée avec la statistique descriptive élémentaire. Il ne s’agit pas seulement de présenter, mais d’analyser, de découvrir, parfois de vérifier et prouver, éventuellement de mettre à l’épreuve certaines hypothèses. (Lebart et al., 1995, p. 1) En résumé, il s’agira donc de revisiter, à partir de leur définition de base, des méthodes bien connues en Analyse des Données, tout en les combinant avec des éléments théoriques moins balisés ou plus originaux ; et, aussi, de les appliquer sur de nouveaux types de données, c’est- à-dire sur des données sur lesquelles ces analyses n’ont pas (ou peu) encore été pratiquées, à notre connaissance. En particulier, on s’intéressera, pour les applications textuelles, à la classification automatique (ou non supervisée) de propositions énoncées en types de discours, à la classification supervisée de tours de parole en actes de dialogue, ainsi qu’à la mesure de l’indice d’autocorrélation sur différents textes, en considérant différents attributs et différents voisinages. Concernant la musique, on se concentrera sur trois niveaux différents. Premièrement, on observera la structure existant dans des partitions considérées séparément. Deuxièmement, on s’intéressera à la structure des différentes voix qui composent une partition, ainsi qu’aux liens qui existent entre elles. Troisièmement, on traitera plusieurs partitions que l’on regroupera à l’aide d’une méthode de classification non supervisée. Il faut remarquer que le nombre d’applications présenté ici est clairement restreint par rapport aux possibilités du formalisme et des méthodes exposées. C’est pourquoi ces derniers ont volontairement était présentés de manière systématique, avec un effort de clarté et de simplicité, pour pouvoir être envisagés sur d’autres données. Plus précisément, ces méthodes se veulent entièrement transparentes, tout à l’opposé des « boîtes noires ».4 INTRODUCTION Afin de mener à bien ce programme, la thèse est structurée ainsi : la partie I présente les méthodes principales utilisées dans ce travail, toutes basées sur des dissimilarités euclidiennes carrées, extraites le plus souvent à partir d’une table de contingence. Ensuite, la partie II expose plusieurs applications de ces méthodes sur diverses données textuelles. Finalement, la partie III présente une exploration de ces méthodes sur des données musicales. En particulier, la Partie I expose les définitions et le formalisme utilisés dans le reste de la thèse. Bien que cette première partie expose des concepts généraux, elle n’a pas pour ambition de donner une revue complète des méthodes existantes, mais plutôt de définir les méthodes essentielles qui serviront de base aux applications présentées dans le reste de la thèse. Elle se compose de trois chapitres. Pour commencer, le chapitre 1 rappelle les notions relatives à une table de contingence, telles que le quotient d’indépendance ou les dissimilarités du khi2. Plus précisément, les dissimilarités du khi2 constituent des dissimilarités euclidiennes carrées, dont les propriétés fondamentales qui en découlent sont rappelées, parmi lesquelles deux éléments essentiels : d’une part la notion de transformations de Schoenberg, transformant des dissimilarités euclidiennes carrées en d’autres dissimilarités euclidiennes carrées dans un espace de plus haute dimensionnalité ; d’autre part l’analyse factorielle des correspondances, obtenue comme un cas particulier du multi-dimensional scaling. Ces deux derniers points, sans être entièrement originaux, s’écartent toutefois des exposés couramment rencontrés dans la littérature « ordinaire ». Ensuite, le chapitre 2 expose différentes techniques de classification, supervisée ou non, toutes basées sur les dissimilarités euclidiennes carrées présentées précédemment, ainsi que les approches permettant d’évaluer ces différentes classifications. En particulier, un autre point original de ce travail est qu’en exposant les différentes techniques de classification à partir du concept formalisé de la matrice des dissimilarités, il est possible de les combiner aux transformations de Schoenberg et donc d’en étendre la portée. Finalement, le chapitre 3 introduit le concept de matrice d’échange, issue de la notion de poids spatiaux en statistique spatiale et formalisant la notion de voisinage. Deux mesures peuvent alors être définies, à savoir l’indice d’autocorrélation, basé sur la relation entre une matrice de dissimilarités euclidiennes carrées et une matrice d’échange, ainsi que l’indice d’autocorrélation croisée. Ces deux indices permettent, d’une part, d’étendre les notions d’autocorrélation et de corrélation croisée des séries temporelles ordinaires à des séries multivariées ; et, d’autre part, de généraliser la notion de décalage à une notion de voisinage. Bien que ces deux indices ne soient pas complétement originaux, ils n’ont été que très peu utilisés sous cette forme en analyse textuelle ou musicale multivariée. Trois types d’applications textuelles sont étudiées dans la Partie II. Les chapitres 4 et 5 s’intéressent à la classification d’unités linguistiques. Plus exactement, le chapitre 4 traite de la classification non supervisée de propositions énoncées en types de discours ; et le chapitre 5, de la classification supervisée multi-étiquette de tours de parole en actes de dialogue. Dans ces deux chapitres, les données sont représentées sous la forme de tables de contingence inédites. Le chapitre 6 s’intéresse à mesurer les similarités entre diverses positions d’un texte, compris comme une séquence d’unités, par l’intermédiaire de l’indice d’autocorrélation, ce qui semble constituer un point de vue novateur. Enfin, la Partie III comprend deux chapitres : le chapitre 7, qui présente différents formats symboliques de données musicales, et le chapitre 8, qui propose une analyse exploratoire de partitions musicales polyphoniques. Dans ce dernier, les partitions polyphoniques sont repré- sentées, une fois de plus, par des tables de contingence (peu ou pas exploitées sous la forme spécifique présentée dans le chapitre pour des données musicales symboliques), ce qui permet d’utiliser le formalisme et les méthodes de la partie I. Spécifiquement, les partitions seront d’abord étudiées dans leur ensemble, grâce à l’analyse factorielle des correspondances et à l’indice d’autocorrélation, pour une unité temporelle donnée. Ensuite, les différentes voix d’une même partition seront analysées, à l’aide de l’indice d’autocorrélation croisée et d’une varianteINTRODUCTION 5 de l’analyse des correspondances multiples. Finalement, à partir de la représentation en tables de contingence, une approche originale de classification non supervisée de plusieurs partitions est proposée. Il faut encore préciser que le matériel exposé dans ce travail reprend, en bonne partie, du matériel déjà publié ou en voie de l’être, à savoir : — Cocco, C., Pittier, R., Bavaud, F. et Xanthos, A. (2011). Segmentation and Clustering of Textual Sequences: a Typological Approach. In Proceedings of the International Conference Recent Advances in Natural Language Processing 2011, pp. 427–433. Hissar, Bulgaria: RANLP 2011 Organising Committee. — Cocco, C. (2012a). Catégorisation automatique de propositions textuelles en types de discours. In Lire demain : des manuscrits antiques à l’ère digitale = Reading tomorrow : from ancient manuscripts to the digital era, pp. 689–707. Lausanne: PPUR. — Cocco, C. (2012b). Discourse Type Clustering using POS n-gram Profiles and HighDimensional Embeddings. In Proceedings of the Student Research Workshop at the 13th Conference of the European Chapter of the Association for Computational Linguistics, pp. 55–63. Avignon, France: Association for Computational Linguistics. — Bavaud, F., Cocco, C. et Xanthos, A. (2012). Textual autocorrelation: formalism and illustrations. In JADT 2012: 11èmes Journées internationales d’Analyse statistique des Données Textuelles, pp. 109–120. — Cocco, C. (2014). Classification supervisée multi-étiquette en actes de dialogue : analyse discriminante et transformations de schoenberg. In JADT 2014: 12èmes Journées internationales d’Analyse statistique des Données Textuelles, pp. 147–160. — Cocco, C. et Bavaud, F. (accepté pour publication). Correspondence Analysis, CrossAutocorrelation and Clustering in Polyphonic Music. In Data Analysis, Learning by Latent Structures, and Knowledge Discovery, Studies in Classification, Data Analysis, and Knowledge Organization. Berlin; Heidelberg: Springer. — Bavaud, F., Cocco, C. et Xanthos, A. (accepté pour publication). Textual navigation and autocorrelation. In G. Mikros et J. Mačutek (Eds.), Sequences in Language and Text, Quantitative Linguistics. Berlin: De Gruyter. Bien qu’il ne soit que très peu exploité dans cette thèse, du matériel connexe aux méthodes utilisées dans ce travail a également été développé : — Bavaud, F. et Cocco, C. (accepté pour publication). Factor Analysis of Local Formalism. In Data Analysis, Learning by Latent Structures, and Knowledge Discovery, Studies in Classification, Data Analysis, and Knowledge Organization. Berlin; Heidelberg: SpringerPartie I MÉTHODES ET FORMALISME 7CHAPITRE 1 Table de contingence et analyse factorielle des correspondances Ce premier chapitre, dont le but est de fixer les notations, traite des tables de contingence et de l’analyse factorielle des correspondances. Cette dernière permet d’analyser les dépendances entre deux variables catégorielles tout en les visualisant. Alors que la plupart des ouvrages proposent de pratiquer l’analyse des correspondances directement sur les tables de contingences, la méthode exposée ici (section 1.4) se base sur un MDS (multi-dimensional scaling) pondéré des dissimilarités du khi2 (section 1.3.1) obtenues sur la table de contingence (section 1.1). Bien que ces deux méthodes aboutissent au même résultat, la seconde permettra d’introduire plus simplement les concepts des prochains chapitres et d’exploiter les transformations de Schoenberg (section 1.3.4). On reviendra aussi sur les différentes mesures possibles du lien entre deux variables catégorielles (section 1.2) et sur les propriétés des dissimilarités du khi2 (section 1.3) qui sont aussi euclidiennes carrées (section 1.3.2). 1.1 Table de contingence et matrice documents-termes Soit deux variables catégorielles X et Y avec, respectivement, m1 et m2 modalités. La table de contingence N = (njk) compte les effectifs njk de la modalité j = 1, . . . , m1 de X et de la modalité k = 1, . . . , m2 de Y . Le profil marginal de la ligne j est défini comme nj• = P k njk ; celui de la colonne k, comme n•k = P j njk ; et la taille de l’échantillon, comme n•• = P jk njk. La table 1.1 propose un résumé de ces différentes notations. Modalités de Y 1 . . . k . . . m2 Modalités de X 1 n11 . . . n1k . . . n1m2 n1• . . . . . . . . . . . . . . . . . . . . . j nj1 . . . njk . . . njm2 nj• . . . . . . . . . . . . . . . . . . . . . m1 nm11 . . . nm1k . . . nm1m2 nm1• n•1 . . . n•k . . . n•m2 n•• Table 1.1 – Vue synthétique des notations d’une table de contingence N = (njk). La matrice documents-termes, qui est souvent utilisée en analyse textuelle, est un cas particulier de la table de contingence. Dans ce cas, les modalités j de X représentent différents documents ; et les modalités k de Y , différents termes (voir par exemple Lebart et Salem, 1994, 910 1. TABLE DE CONTINGENCE ET AFC section 2.4.5 sur les tableaux lexicaux et chapitre 3 sur l’analyse des correspondances des tableaux lexicaux). Les njk représentent généralement les effectifs, soit le nombre d’occurences de chaque terme dans chaque document. Cependant, en statistique textuelle, ils peuvent aussi correspondre à la présence ou l’absence (1/0) de chaque terme dans chaque document ou encore à différents poids de chaque terme dans chaque document, comme, par exemple, la fréquence inverse de document (idf - inverse document frequency) (voir par exemple Salton et McGill, 1983, figure 1-12 et chapitre 3). 1.2 Lien entre deux variables catégorielles A partir d’une table de contingence, il est possible de tester si les deux variables catégorielles sont significativement liées. Le test le plus utilisé est celui du khi2 (section 1.2.1). Cependant, il existe d’autres coefficients et tests, spécifiques à la quantification du lien entre deux variables catégorielles binaires (section 1.2.2). 1.2.1 Test d’indépendance du khi2 Les effectifs de la table de contingence sous indépendance théorique sont définis comme n th jk = nj•n•k n•• . Ainsi, l’écart des effectifs observés à l’indépendance est mesuré par la variable de décision du khi-carré : khi2 = Xm1 j=1 Xm2 k=1 (njk − n th jk) 2 n th jk (1.1) Pour en tester la significativité (hypothèse H0 : X et Y sont indépendantes) la variable de décision est comparée à la valeur critique χ 2 1−α [(m1 − 1)(m2 − 1)], c’est-à-dire au (1 − α)ème quantile de la loi du χ 2 à (m1 − 1)(m2 − 1) degrés de liberté. 1.2.1.1 Quotient d’indépendance Alors que le khi2 mesure le lien entre les variables X et Y , le quotient d’indépendance, aussi connu sous le nom de quotient de localisation (location quotient) en géographie et en économie (voir par exemple Hildebrand et Mace, 1950), permet de mesurer le lien entre deux modalités j et k. Il se calcule comme : qjk = njk n th jk = njkn•• nj•n•k (1.2) Les deux modalités sont en attraction mutuelle si qjk > 1, en répulsion mutuelle si qjk < 1 et en neutralité mutuelle si qjk ∼= 1. 1.2.2 Cas des variables binaires Les variables binaires (ou bimodales) sont des variables pour lesquelles il n’y a que deux modalités possibles. Ceci engendre un tableau de contingence de taille 2 × 2. Fréquemment, on utilise une variable binaire pour représenter une modalité et son complémentaire, i.e. l’ensemble des autres modalités, et ce sera toujours le cas dans ce qui suit (table 1.2). Ainsi, chacune des modalités de la table 1.1 peut être transformée en modalité binaire (cf. table 1.3). Pour quantifier le lien entre deux variables binaires, il est possible d’utiliser les mêmes coeffi- cients que ceux proposés ci-dessus. Alors que le quotient d’indépendance reste identique (pour une formulation basée sur le principe de la table 1.2, voir Li, Luo et Chung, 2008, équation 6), le khi2 peut être reformulé (section 1.2.2.1). Il existe aussi d’autres indices particulièrement adaptés au calcul de l’accord entre deux partitions binaires (voir par exemple Warrens, 2008), dont deux seront présentés ici : le coefficient phi (section 1.2.2.2) et le Q de Yule (section 1.2.2.3).1.2. Lien entre deux variables catégorielles 11 Y Présence de k Absence de k X Présence de j n11 n10 Absence de j n01 n00 n•• Table 1.2 – Table de contingence pour deux variables binaires, avec n•• = n11+n00+n10+n01. 1.2.2.1 Khi2 ponctuel En appliquant la formule du khi2 (1.1) à une table de contingence 2 × 2, on obtient, avec les notations de la table 1.2, le khi2 ponctuel entre les paires de modalités j de X et k de Y (voir par exemple Yang et Pedersen, 1997 ; Saporta, 2006, p.152 ; Li et al., 2008) : χ 2 jk = n••(n11n00 − n01n10) 2 (n11 + n01)(n10 + n00)(n11 + n10)(n01 + n00) (1.3) Ce dernier est significatif lorsqu’il est plus grand que χ 2 1−α [1]. Par exemple : χ 2 1−0.001[1] = 10.83. Pour pourvoir calculer ce khi2 ponctuel pour toutes les paires de modalités d’une table de contingence et obtenir ainsi une matrice du khi2, les termes de (1.3) sont remplacés par ceux de la table 1.3, ce qui permet finalement de trouver : χ 2 jk = n••(njk − n th jk) 2 n th jk(n•• − nj• − n•k + n th jk) = n••(qjkn th jk − n th jk) 2 n th jk(n•• − nj• − n•k + n th jk) = n••(qjk − 1)2 n th jk n•• − nj• − n•k + n th jk Y Présence de k Absence de k X Présence de j njk nj• − njk nj• Absence de j n•k − njk n•• − nj• − n•k + njk n•• − nj• n•k n•• − n•k n•• Table 1.3 – Transformation d’une paire de modalités (j et k) de deux variables multimodales en variables binaires (présence/absence). Les termes écrits en gras sont ceux identiques aux termes de la table de contingence multimodale (table 1.1). Les autres termes se déduisent des termes en gras. 1.2.2.2 Coefficient phi Le coefficient phi équivaut à la corrélation de Pearson appliquée à deux variables binaires (Yule, 1912). Cet indice, en rapport avec le chi carré (φ 2 jk = χ 2 jk n•• , voir (1.3) et (1.17)) se définit comme : φjk = p n11n00 − n10n01 (n11 + n10)(n01 + n00)(n11 + n01)(n10 + n00) (1.4) φjk = 1 si et seulement si chaque élément présent (respectivement absent) dans X est présent (respectivement absent) dans Y (n01 = 0 et n10 = 1). Inversement, φjk = −1, indique que les éléments présents dans X ne le sont pas dans Y , et vice-versa (n11 = 0 et n00 = 1). Lorsque φjk = 0, il n’y a pas de lien entre les deux variables X et Y . La significativité de ce coefficient peut être testée en le comparant à q χ 2 1− α 2 [1], qui vaut 0.059 pour α = 0.05.12 1. TABLE DE CONTINGENCE ET AFC 1.2.2.3 Q de Yule Le Q de Yule et est défini comme (Yule, 1900) : Qjk = n11n00 − n10n01 n11n00 + n10n01 (1.5) Si Qjk = 1, tous les éléments présents dans X sont présents dans Y ou/et inversement (n01 = 0 ou/et n10 = 1). Tandis que si Qjk = −1, soit aucun élément n’est simultanément présent dans les deux variables X et Y (n11 = 0), soit tous les éléments sont présents dans au moins une des deux variables (n00 = 0), ou les deux. Qjk = 0 a la même interprétation que φjk = 0. 1.3 Dissimilarité du χ 2 et dissimilarités euclidiennes carrées En se basant sur une table de contingence (section 1.1), il est possible de calculer des dissimilarités entre les modalités (section 1.3.1). Ces dissimilarités ont la propriété d’être des dissimilarités euclidiennes carrées (section 1.3.2). Ce dernier point permet d’utiliser le principe de Huygens (section 1.3.3) et d’appliquer les transformations de Schoenberg à ces dissimilarités (section 1.3.4). 1.3.1 Dissimilarité du χ 2 et dualité La dissimilarité du χ 2 entre les modalités i et j de X se calcule comme : Dˆ χ ij = Xm2 k=1 ρk(qik − qjk) 2 (1.6) avec ρk := n•k n•• , le poids des colonnes. Par la dualité existant entre les lignes et les colonnes d’une table de contingence, il est possible de calculer la dissimilarité du χ 2 entre les modalités k et l de Y de manière analogue, soit : Dˇ χ kl = Xm1 j=1 fj (qjk − qjl) 2 (1.7) avec, cette fois, fj := nj• n•• , le poids des lignes. Dans la suite de ce chapitre, les équations en prise avec cette dualité seront toujours données par paire, soit celle pour les lignes de la table de contingence et sa duale pour les colonnes. 1.3.2 Dissimilarités euclidiennes carrées Soit un ensemble d’individus i = 1, . . . , n possédant des caractéristiques k = 1, . . . , p et dont les coordonnées sont représentées par X = (xik). Les individus sont munis de poids fi positifs (fi > 0) et normalisés (P i fi = 1) 1 ; la pondération uniforme s’obtient avec fi = 1/n. On définit la matrice D = (Dij ) des dissimilarités euclidiennes carrées entre des individus i et j comme 2 : Dij := X p k=1 (xik − xjk) 2 = kxi − xjk 2 (1.8) 1. Dans le cas particulier de la table de contingence, les poids, fj pour les lignes et ρk pour les colonnes, sont définis selon les équations de la section 1.3.1. 2. Dans cette thèse, Dij désignera toujours une dissimilarité euclidienne carrée entre les objets i et j.1.3. Dissimilarité du χ 2 et dissimilarités euclidiennes carrées 13 La dissimilarité du khi2 est aussi une distance euclidienne carrée, car les équations (1.6) et (1.7) peuvent être reformulées comme (voir par exemple Bavaud, 2004) : Dˆ ij = Xm2 k=1 ( x ∗ ik − x ∗ jk) 2 Dˇ kl = Xm1 j=1 ( y ∗ jk − y ∗ jl) 2 (1.9) où x ∗ ik = √ ρk(qik − 1) et y ∗ jk = p fj (qjk − 1) (1.10) sont les coordonnées brutes ou de haute dimensionnalité. Celles-ci, directement calculées à partir de la table de contingence, s’opposent aux coordonnées factorielles (1.25) qui ont la propriété d’exprimer une proportion maximale d’inertie (1.17) dans les basses dimensions. La matrice B = (bij ) des produits scalaires entre i et j, pour les dissimilarités euclidiennes carrées (1.8) et relativement à la pondération f, se définit comme : bij = X p k=1 (xik − x¯ f k )(xjk − x¯ f k ) avec x¯ f k = Xn i=1 fixik (1.11) Dans le cas particulier des dissimilarités du khi2, les produits scalaires entre les lignes Bˆ = (bij ) et entre les colonnes Bˇ = (bkl) peuvent, par conséquent, s’écrire comme : ˆbij = Xm2 k=1 ρk(qik − 1)(qjk − 1) ˇbkl = Xm1 j=1 fj (qjk − 1)(qjl − 1) Aussi, il est possible de reformuler toute dissimilarité euclidienne carrée (1.8) en se basant sur les produits scalaires correspondant (1.11) 3 : Dij = bii + bjj − 2bij (1.12) Cette dernière relation peut aussi s’obtenir à partir du théorème du cosinus. Ce denier peut se reformuler, avec des distances et des produits scalaires, de la manière suivante (Young et Householder, 1938) : Dij = Dif + Djf − 2bij (1.13) où Dif = Dix¯f = P k (xik − x¯ f k ) 2 est la dissimilarité euclidienne carrée entre un point i et la moyenne pondérée des points x¯ f k (1.11). Comme Dif = P k (xik−x¯ f k ) 2 = P k (xik−x¯ f k )(xik−x¯ f k ) = bii, alors (1.13) est équivalente à (1.12). L’équation (1.13) permet aussi de déterminer les produits scalaires à partir des distances (Young et Householder, 1938) : bij = 1 2 (Dif + Djf − Dij ) (1.14) Young et Householder (1938) montrent, en partant de l’équation (1.14), que la matrice D représente des dissimilarités euclidiennes carrées si et seulement si la matrice B est semi-définie positive. 3. Preuve pour des dissimilarités euclidiennes carrées entre i et j : Dij = Xp k=1 (xik − xjk) 2 = Xp k=1 ((xik − x¯ f k ) − (xjk − x¯ f k ))2 = Xp k=1 (xik − x¯ f k ) 2 − 2 Xp k=1 (xik − x¯ f k )(xjk − x¯ f k ) +Xp k=1 (xjk − x¯ f k ) 2 = bii − 2bij + bjj14 1. TABLE DE CONTINGENCE ET AFC 1.3.3 Principe de Huygens Étant donné que les distances du khi2 sont euclidiennes carrées (1.9), le principe de Huygens s’applique. Le principe (fort) de Huygens, également connu sous le nom de « théorème de Steiner » en mécanique des solides, s’écrit, pour toute matrice de dissimilarités euclidiennes carrées (1.8) et un formalisme pondéré, comme : Xn j fjDij = ∆f + Dif (1.15) En d’autres termes, la dispersion du nuage de points par rapport à un point i équivaut à la dispersion du nuage de point (par rapport au centre) ∆f , additionné de la dissimilarité entre le point i et le centre de gravité de l’ensemble des points. À partir de ce premier principe, découle le principe (faible) de Huygens qui définit l’inertie (ou la variance, ou la dispersion) de l’ensemble des individus comme : ∆ := ∆f = 1 2 X ij fifjDij = X i fiDif (1.16) Ainsi, la dispersion du nuage de points peut s’exprimer de manière équivalente comme la dissimilarité moyenne entre toutes les paires de points ou comme la dissimilarité moyenne entre chaque point et le centre de gravité de l’ensemble des points. Dans le cas particulier du khi2, l’inertie est égale au khi2 divisé par l’effectif total de la table de contingence n••, nommé φ 2 : ∆ = 1 2 X ij fifjDˆ ij = X i fiDˆ if = 1 2 X kl ρkρlDˇ kl = X k ρkDˇ kρ = 1 n•• X jk (njk − n th jk) 2 n th jk = khi2 n•• = φ 2 (1.17) où Dˆ if est la dissimilarité du khi2 entre la modalité i et la moyenne des modalités de X, soit x¯ ∗ f k = P i fi x ∗ ik ; et Dˇ kρ, la dissimilarité du khi2 entre la modalité k et la moyenne des modalités de Y , soit x¯ ∗ ρ i = P k ρk x ∗ ik. Soit un groupe g et une matrice d’appartenance Z = (zig) qui détermine la probabilité 4 que l’individu i appartienne au groupe g, telle que P g zig = 1. Alors, le poids du groupe vaut ρg = P i fizig, tel que P g ρg = 1 ; et la distribution des individus i du groupe, f g i = fizig/ρg, telle que P i f g i = 1. Avec x¯ g k = P i f g i xik pour la moyenne du groupe et Dig = Dix¯ g , le principe fort de Huygens (1.15) devient : Xn j f g j Dij = Dig + ∆g (1.18) et le principe faible de Huygens (1.16), pour l’inertie du groupe g : ∆g = 1 2 X ij f g i f g j Dij = X i f g i Dig (1.19) Ce qui précède, et en particulier (1.15) et (1.16), permet de trouver que la dissimilarité euclidienne carrée Df g entre les moyennes x¯ f k = P i fixik et x¯ g k = P i gixik de deux groupes ou deux 4. Dans le cas particulier d’un partitionnement dur des données, la matrice d’appartenance détermine la présence zig = 1 ou l’absence zig = 0 d’un individu dans un groupe.1.4. Analyse factorielle des correspondances 15 distributions f et g peut se calculer uniquement grâce aux distributions et aux dissimilarités entre les individus Dij , soit (Bavaud, 2011) : Df g = Dx¯ f x¯ g = − 1 2 X ij (fi − gi)(fj − gj )Dij (1.20) En remplaçant les termes de (1.14) par ceux des principes de Huygens (1.15) et (1.16), on peut facilement montrer que, avec une matrice de dissimilarités euclidiennes carrées, la matrice des produits scalaires, relativement à f, (1.11) peut aussi s’obtenir matriciellement par 5 : B = − 1 2 HfD(Hf ) 0 avec Hf = (h f ij ) = I − 1f 0 (1.21) 1.3.4 Transformations de Schoenberg Les transformations de Schoenberg (Schoenberg, 1938) transforment les dissimilarités euclidiennes carrées originales, D, en d’autres dissimilarités euclidiennes carrées, D˜ = ϕ(D) (Bavaud, 2011, et références y incluses). Tout comme les méthodes à noyaux, les transformations de Schoenberg s’appuient sur un plongement de haute dimensionnalité des objets de départ. Une liste non exhaustive des diverses transformations de Schoenberg possibles se trouve dans l’article de Bavaud (2011). Parmi ces possibilités, une seule est envisagée dans la suite de ce travail, à savoir, la transformation de puissance (Schoenberg, 1937), telle que : ϕ(D) = D˜ = Dq (1.22) où 0 < q ≤ 1. Cette transformation permet de rappeler que toute distance euclidienne est aussi une dissimilarité euclidienne carrée 6 , mais que l’inverse n’est pas toujours vrai. 1.4 Analyse factorielle des correspondances Soit cik = √ fi x ∗ c ik = √ fi( x ∗ ik − x¯ f k ), avec x ∗ ik, les coordonnées de haute dimensionnalité, telles que définies dans l’équation (1.10). Il existe alors deux méthodes afin de pratiquer l’analyse factorielle des correspondances (AFC) permettant de visualiser simultanément les modalités de X et de Y . La première se base sur la décomposition spectrale de la matrice des variances-covariances, soit Σ = C 0C. Cette technique est largement décrite dans la littérature (voir par exemple Greenacre, 1984, en particulier le chapitre 4, pp. 83-125 ; Lebart et al., 1995, section 1.3, pp. 67- 107 ; Le Roux et Rouanet, 2004, chapitre 2, pp. 23-74 ; Saporta, 2006, chapitre 9, pp. 201-217). En outre, dans le logiciel R (R Core Team, 2013), il existe plusieurs packages qui produisent des AFC, tels que « ca » (Nenadic et Greenacre, 2007) ou « FactoMineR » (Husson, Josse, Le et Mazet, 2013). Une seconde méthode consiste à appliquer un MDS et se base alors sur la décomposition spectrale de la matrice des produits scalaires pondérés K = CC0 . Elle sera exposée dans la section suivante. Les deux matrices Σ et K étant duales (Bavaud et Cocco, accepté pour publication), ces deux méthodes produisent des résultats complètement équivalents. Cependant, la seconde a l’intérêt d’être plus générale, car applicable à toute dissimilarité euclidienne carrée, et d’introduire des quantités utiles dans la suite de ce travail. 5. Dans le cas des dissimilarités du khi2, la matrice des produits scalaires entre les modalités de X se calcule de manière analogue comme Bˆ = − 1 2HfDˆ(Hf ) 0 . Par dualité, la matrice des produits scalaires entre les modalités de Y est définie comme Bˇ = − 1 2HρDˇ(Hρ ) 0 , avec Hρ = I − 1ρ 0 , la matrice de centration. 6. Soit dij , la distance euclidienne entre deux individus i et j, alors dij = p (dij ) 2 = p Dij = D 0.5 ij . Comme ϕ(Dij ) = D˜ij = D 0.5 ij est aussi une dissimilarité euclidienne carrée, alors dij est une dissimilarité euclidienne carrée.16 1. TABLE DE CONTINGENCE ET AFC 1.4.1 MDS Le but du MDS est de reconstituer les coordonnées d’un nuage de points dont on connaît les dissimilarités. Le MDS classique (ou métrique), contrairement au MDS ordinal (ou nonmétrique), s’applique exclusivement à des dissimilarités euclidiennes carrées et va créer des coordonnées qui reproduisent exactement ces dissimilarités. Pour pouvoir appliquer le MDS classique, la matrice des produits scalaires B, calculée par exemple par (1.21), doit donc être semi-définie positive (cf. section 1.3.2), ce qui est bien le cas des dissimilarités du khi2 (cf. 1.11), étant donné qu’elles sont euclidiennes carrées (1.9). Le MDS, dans sa version ordinaire, (voir par exemple Mardia, Kent et Bibby, 1979) se base sur la décomposition spectrale de B = UΛU 0 dont découlent les nouvelles coordonnées de l’objet j sur le facteur α, soit xjα = √ λαujα. Par extension, le MDS pondéré (voir par exemple Cuadras et Fortiana, 1996; Bavaud, 2010) est effectué grâce à la matrice K = (kij ) des produits scalaires pondérés définis comme : kij = p fifj bij (1.23) La décomposition spectrale de K = UΛU 0 , qui est semi-définie positive ssi B l’est aussi, permet alors de calculer les nouvelles coordonnées comme xjα = √ √ λα fj ujα. Dans le cas particulier des dissimilarités du khi2, les produits scalaires entre les modalités de X, Kˆ = (ˆkij ), et ceux entre les modalités de Y , Kˇ = (ˇkkl), sont définis, de manière analogue à (1.23), comme : ˆkij = p fifj ˆbij ˇkkl = √ ρkρl ˇbkl (1.24) La décomposition spectrale de Kˆ (respectivement de Kˇ ) engendre les vecteurs propres ujα (respectivement vkα) et les valeurs propres λα (identiques pour les deux matrices de produits scalaires), où α = 1, . . . , r et r ≤ min(m1, m2)−1. Avec ces derniers, les coordonnées factorielles des modalités de X et de Y sont reliées par des formules de transition et calculées comme :    ykα = √ λα √ρk vkα = 1 √ λα Xm1 j=1 fjqjkxjα (1.25a) xjα = √ p λα fj ujα = 1 √ λα Xm2 k=1 ρkqjkykα (1.25b) Avec les coordonnées factorielles, il est alors possible de réécrire les dissimilarités du χ 2 , (1.6) et (1.7), comme les distances euclidiennes carrées entre ces nouvelles coordonnées : Dij = Xr α=1 (xiα − xjα) 2 Dkl = Xr α=1 (ykα − ylα) 2CHAPITRE 2 Classification supervisée et non supervisée Il existe de nombreuses méthodes de classification, supervisée ou non, et de nombreuses distinctions entre ces méthodes. Plutôt que d’en donner une vue exhaustive, ce chapitre vise à expliciter quelques méthodes de classification (section 2.1 et 2.2) ainsi que des méthodes d’évaluation des résultats obtenus (section 2.3), toutes utilisées dans les applications des parties II et III. Les méthodes de classification peuvent se diviser en deux groupes principaux : les méthodes dites supervisées (section 2.2) et celles dites non supervisées (section 2.1). Ces deux types de méthodes se distinguent par le fait que les groupes (ou classes) sont connus a priori dans le premier cas, alors qu’ils ne le sont pas pour le second. Ainsi, l’avantage de la méthode supervisée est que les groupes de départ ont, par construction, un sens clair pour l’utilisateur, ce qui n’est pas garanti avec les méthodes non supervisées. En contre-partie, l’inconvénient principal de la méthode supervisée est la nécessité de disposer de données dont on connaît le groupe. Cela implique, pour le traitement informatique des textes, de créer un corpus annoté conséquent, tâche exigente en ressources. L’avantage de la seconde méthode est donc de pouvoir être appliquée directement aux corpus avec un minimum de traitement. Généralement, ces méthodes considèrent un jeu de données X = (xik) multivarié, donnant les caractéristiques k = 1, . . . , p des individus i = 1, . . . , n. La classification supervisée contient une colonne supplémentaire spécifiant le groupe g = 1, . . . , m auquel appartient l’individu i. Dans ce chapitre, toutes les méthodes de classification seront présentées en utilisant une matrice de dissimilarités euclidiennes carrées D = (Dij ) entre les individus. Cette dernière peut, typiquement, être calculée par (1.8) si les données de départ sont sous la forme d’un jeu de données numériques X, ou par (1.6) ou (1.7) si elles sont sous la forme d’une table de contingence. Les données sous forme de table de contingence seront les plus courantes dans l’ensemble de ce travail. Ce choix, consistant à travailler sur des dissimilarités euclidiennes carrées, va permettre de combiner les méthodes de classification abordées ici avec les transformations de Schoenberg présentées dans la section 1.3.4. 2.1 Classification non supervisée Comme déjà mentionné, pour les méthodes de classification non supervisée (clustering), les groupes ne sont pas connus a priori. Il existe de nombreuses méthodes de classification non supervisée (voir par exemple Jain, Murty et Flynn, 1999). Pour résumer celles qui sont utilisées dans cette thèse, on peut d’abord 1718 2. CLASSIFICATION (NON-)SUPERVISÉE classification non supervisée ✓ ✓ ✓ ✓ ✓ ✓ ✓ ✓ partitionnement hiérarchique ❙ ❙ ❙ ❙ ❙ ❙ ❙ ❙ partitionnement non hiérarchique ascendant ❅ ❅ ❅ ❅ descendant K-means (dur) section 2.1.2 ❅ ❅ ❅ ❅ K-means flou section 2.1.3 ❛❛❛❛❛❛❛❛❛❛ ... ✚ ✚ ✚ ✚ ✚ ✚ ✚ ✚ saut maximal ✔ ✔ ✔ ✔ ✔ ✔ saut minimal saut moyen ❚ ❚ ❚ ❚ ❚ ❚ ... ❩ ❩ ❩ ❩ ❩ ❩ ❩ ❩ critère de Ward section 2.1.1 Figure 2.1 – Principales méthodes de classification non supervisée, avec, en gras, les méthodes traitées dans ce travail, et, en italique, celles qui ne le sont pas. opposer les algorithmes de partitionnement hiérarchique à ceux de partitionnement non hiérarchique (figure 2.1). Parmi les méthodes de partitionnement hiérarchique, on peut distinguer deux grandes familles : la classification ascendante hiérarchique et la classification descendante hiérarchique. La première est agglomérative, c’est-à-dire que l’on commence avec les n individus qui sont successivement regroupés à chaque étape jusqu’à n’obtenir finalement plus qu’un seul groupe. À l’inverse, la seconde est divisive : l’ensemble des individus est successivement fractionné à chaque étape, pour aboutir finalement à n groupes formés chacun d’un seul individu. Seule la première de ces familles sera traitée ici, et plus particulièrement la classification ascendante hiérarchique avec le critère de Ward (section 2.1.1). Concernant le partionnement non hiérarchique, seules deux méthodes seront abordées ici : la méthode K-means (section 2.1.2) et la méthode K-means flou (section 2.1.3). La différence principale entre ces deux méthodes est que la première effectue un partitionnement dur des individus i en groupes g, alors que la seconde effectue un partitionnement flou. Pour rappel (cf. section 1.3.3), dans le cas d’une matrice d’appartenance Z = (zig) dure, zig vaut 1 ou 0 selon que l’individu i appartient ou non au groupe g ; alternativement, pour une matrice d’appartenance floue, zig est la probabilité que l’individu i appartienne au groupe g. Il existe deux distinctions importantes entre la classification ascendante hiérarchique et la méthode K-means (flou ou non). Premièrement, l’algorithme K-means implique de choisir un nombre de groupes initial, contrairement à la classification ascendante hiérarchique. Deuxiè- mement, la classification ascendante hiérarchique s’appuie avant tout sur une matrice de dissimilarités entre paires d’objets, alors que pour la méthode K-means, c’est une matrice de dissimilarités objet-groupe. Dans le premier cas, les données les plus similaires seront regroupées dans les mêmes groupes et, par suite, les plus dissimilaires seront classées dans des groupes différents (section 2.1.1). Pour les dissimilarités objet-groupe, un nombre de centroïdes (ou2.1. Classification non supervisée 19 centres de gravité), correspondant au nombre de groupes choisis initialement, sera sélectionné. Ensuite, itérativement, les données seront attribuées au groupe le plus proche et les centroïdes re-positionnés (sections 2.1.2 et 2.1.3). Au final, le point commun de toutes ces méthodes est qu’elles ont pour but de minimiser l’inertie intra-groupe (ou intra-classe), et donc de maximiser l’inertie inter-groupe (ou interclasse), créant ainsi des groupes homogènes. L’inertie (1.16) s’écrit aussi : ∆ = ∆W + ∆B (2.1) où ∆W , pour des groupes g = 1, . . . , m, est l’inertie intra-groupe : ∆W = Xm g=1 ρg∆g (2.2) avec ∆g, l’inertie du groupe g, définie en (1.19) ; et ∆B est l’inertie inter-groupe, soit : ∆B = Xm g=1 ρgDgf (2.3) Dans cette équation, Dgf est la dissimilarité euclidienne carrée entre le centroïde du groupe g, x¯ g k = P i f g i xik, et la moyenne pondérée de l’ensemble des individus, x¯ f k = P i fixik. De plus, pour rappel (cf. section 1.3.3), ρg = P i fizig est le poids du groupe g ; et f g i = fizig/ρg, la distribution des individus i dans le groupe g. 2.1.1 Classification ascendante hiérarchique, critère de Ward Soit une matrice de dissimilarités, euclidiennes ou non, de composantes dij . La classification ascendante hiérarchique regroupe les individus (ou objets) les plus similaires, qui vont former de nouveaux individus agrégés, dont les plus similaires sont à nouveau regroupés pour créer, au final, un dendrogramme. Le point crucial consiste à définir la dissimilarité entre le nouvel individu formé par le regroupement de deux individus a et b, et un autre individu i, noté comme d((a, b), i). Plusieurs critères d’agrégation, bien connus, ont été proposés pour calculer cette nouvelle dissimilarité, tels que le saut maximal, le saut minimal, la moyenne des distances, etc. (voir par exemple Lebart et al., 1995, section 2.2 ; Jain et al., 1999, section 5.1 ; Le Roux et Rouanet, 2004, section 3.6 ; Saporta, 2006, section 11.3). Toutes ces méthodes constituent des cas particuliers de la formule de Lance et Williams généralisée (voir par exemple Saporta, 2006, section 11.3.2.2). Parmi ces dernières, seul le critère de Ward, utilisé dans le chapitre 8, est présenté ici. Étant donné une matrice de dissimilarités euclidiennes carrées D = (Dij ), le critère de Ward consiste à minimiser l’inertie intra-groupe et donc à maximiser l’inertie inter-groupe à chaque étape. À la première étape, tous les individus représentent un groupe, et donc l’inertie intragroupe est nulle (∆0 W = 0) et l’inertie inter-groupe est égale à l’inertie totale (∆0 B = ∆). Après la première agrégation, l’inertie intra-groupe ∆1 W augmente, et l’inter-groupe ∆1 B diminue, et ce jusqu’à la dernière étape, r, lorsque tous les individus ne forment plus qu’un groupe. L’inertie intra-groupe est alors maximale (∆r W = ∆) ; et l’inter-groupe, minimale (∆r B = 0). Plus précisément, si à la première étape, les individus a et b sont regroupés, alors la différence d’inertie intra-groupe vaudra ∆1 W − ∆0 W qui, en vertu de (2.1), sera équivalente à ∆0 B − ∆1 B . Cette différence s’écrit, avec (2.3), comme : ∆0 B − ∆1 B = ρ1D1f + ρ2D2f + · · · + ρaDaf + ρbDbf − ρ1D1f − ρ2D2f − · · · − (ρa + ρb)D(ab)f = ρaDaf + ρbDbf − (ρa + ρb)D(ab)f (2.4)20 2. CLASSIFICATION (NON-)SUPERVISÉE Par le principe fort de Huygens (1.15), avec f = (f1, f2) =  ρa ρa+ρb , ρb ρa+ρb  , on obtient le théorème de la médiane : D(ab)f = 1 ρa + ρb (ρaDaf + ρbDbf − ρaρb ρa + ρb Dab) En remplaçant D(ab)f dans (2.4), la perte d’inertie inter-groupe, qui s’exprime finalement comme : δ(a, b) = ρaρb ρa + ρb Dab (2.5) constitue le critère d’agrégation de la méthode de Ward. Pratiquement, à la première étape, la matrice des dissimilarités, D, est transformée en une nouvelle matrice de pertes d’inertie inter-groupe, D0 = (δ(i, j)), qui donne, pour chaque paire d’individus (i, j), la valeur du critère d’agrégation (2.5). Comme avec les autres critères, la paire d’individus dont la valeur est la plus petite (a et b par exemple) sont regroupés pour former un nouvel individu. Puis, pour recalculer D1 , on peut soit recalculer δ((a, b), i) par (2.5) en obtenant D(ab)i par (1.20), soit utiliser la formule de Lance et Williams avec les paramètres adéquats (voir par exemple Le Roux et Rouanet, 2004, équation 3.14 ; Saporta, 2006, p. 259 ; Murtagh et Legendre, 2011). Il existe de légères variantes de cette méthode (Murtagh et Legendre, 2011). Il faut noter qu’avec la fonction « hclust » du logiciel R et l’option « method = "ward" », qui a été utilisée dans ce travail, les dissimilarités transmises à la fonction doivent être euclidiennes carrées (Murtagh et Legendre, 2011). 2.1.2 K-means sur les dissimilarités La méthode K-means (ou méthode des centres mobiles), déjà brièvement présentée avec les dissimilarités objet-groupe au début de cette section, est relativement intuitive et sa paternité n’est pas clairement établie. Lebart et al. (1995) proposent cependant quelques pistes dans l’introduction de leur section 2.1. On peut, entre autres, noter que l’algorithme K-means présenté par MacQueen (1967) diffère de la procédure ci-dessous, car la position des centroïdes (ou centres de gravité) est recalculée après chaque nouvelle attribution d’un individu, et non après l’attribution de tous les individus à tous les centroïdes. Généralement, l’algorithme K-means est proposé en travaillant directement sur la table des coordonnées X = (xik) et se compose de quatre étapes (voir par exemple Lebart et al., 1995, section 2.1 ; Manning et Schütze, 1999, section 14.2.1 ; Saporta, 2006, section 11.2.1). La première opération, étape 0), consiste à choisir un nombre de groupes m. Ensuite, les m centres provisoires sont positionnés aléatoirement, bien que souvent sélectionnés parmi les individus. Puis, l’algorithme se poursuit itérativement : 1) les distances entre les individus et les centroïdes (ou centres provisoires lors du premier tour), Dig, sont calculées, 2) chaque individu est attribué au centroïde le plus proche, 3) les positions des centroïdes (moyennes pondérées x¯ g k = P i f g i xik ou non des individus attribués à un groupe) sont recalculées. L’itération se poursuit jusqu’à convergence de la solution. Pour une justification de l’algorithme montrant que l’inertie intra-groupe diminue à chaque itération, voir, par exemple, la section 2.1.2 de Lebart et al. (1995). Avec le formalisme choisi ici, qui se base sur D = (Dij ), une matrice de dissimilarités qui doivent être euclidiennes carrées , les étapes sont un peu différentes. Lors de l’initialisation, soit lors de l’étape 0), on commence par décider d’un nombre de groupes m, comme dans la version « ordinaire » de l’algorithme. Puis, une matrice d’appartenance dure Z de taille n×m est créée,2.1. Classification non supervisée 21 où chaque individu est attribué aléatoirement à un des m groupes (d’autres variantes existent). À ce stade, on décide d’opérer deux vérifications supplémentaires pour effectivement avoir m groupes à la fin des itérations. Premièrement, on contrôle qu’aucun groupe ne soit vide et on réinitialise la procédure avec une nouvelle matrice Z le cas échéant. Deuxièmement, on vérifie qu’il n’y ait pas une configuration des positions des centroïdes particulière qui engendrerait la disparition d’un ou plusieurs groupes au premier tour d’itération. Pour ce faire, une première itération est exécutée et si l’un des groupes disparaît, la matrice Z est recréée. Pendant cette étape d’initialisation, on calcule aussi la matrice des dissimilarités euclidiennes carrées D = (Dij ) entre tous les individus. Les dissimilarités euclidiennes carrées entre les individus et le centroïde d’un groupe de l’étape 1) sont déduites indirectement des dissimilarités Dij et de l’inertie d’un groupe (1.19) grâce au principe fort de Huygens (1.18) : Dig = X j f g j Dij − ∆g (2.6) Ces valeurs sont calculées pour chaque groupe, produisant ainsi une matrice de taille n × m. Puis, l’étape 2) consiste à actualiser la matrice d’appartenance comme : zig =    1 si g = argmin h Dih 0 sinon (2.7) Quant à l’étape 3), elle n’est plus nécessaire dans ce formalisme, car la position des centroïdes est indirectement déduite de (2.7) dans (2.6). Pour terminer, on choisit d’arrêter l’algorithme soit quand la matrice Z n’est plus modifiée, soit lorsqu’un certain nombre d’itérations Nmax est atteint. Il faut noter que la solution finale dépend de la position initiale des centres à l’étape 0). Finalement, il est possible de combiner simplement la méthode K-means avec les transfomations de Schoenberg (cf. section 1.3.4) en remplaçant, lors de l’initalisation, D par D˜ = ϕ(D). Comme déjà mentionné, la seule transformation utilisée dans ce travail est celle de la puissance (1.22). 2.1.3 K-means flou sur les dissimilarités Les étapes de l’algorithme K-means flou sont presque identiques à celles de l’algorithme Kmeans présenté ci-dessus. Une première différence est qu’à l’étape 0), au lieu de créer une matrice d’appartenance dure, on décide de créer un matrice d’appartenance Z floue. Pour ce faire, une matrice de taille n × m est créée avec des valeurs aléatoires extraites d’une loi uniforme et comprises entre 0 et 1. Puis, les lignes sont normalisées pour que P g zig = 1. Pour le reste, cette étape est identique à celle de la méthode K-means, i.e. il faut aussi choisir un nombre de groupes m et calculer les dissimilarités euclidiennes carrées Dij . L’étape 1) est strictement identique à l’étape 1) décrite en 2.1.2. Naturellement, à l’étape 2), l’actualisation de la matrice d’appartenance est différente, soit (voir par exemple Rose, Gurewitz et Fox, 1990; Bavaud, 2009) : zig = ρg exp(−βDig) Xm h=1 ρh exp(−βDih) (2.8) où Dig est défini par (2.6), ρg est le poids relatif du groupe g (cf. section 1.3.3) et β s’interprète comme une « température inverse » ou l’inverse d’une variance, paramétrée comme β := 1/(trel× ∆) (Bavaud, 2010). Pour cette dernière, ∆ représente l’inertie, telle que définie par (1.16) à partir22 2. CLASSIFICATION (NON-)SUPERVISÉE des dissimilarités Dij ; et trel, la température relative qui doit être fixée par l’utilisateur en amont, tout comme le nombre de groupes de départ m. Il se trouve que les valeurs « intéressantes » de trel se situent dans un intervalle compris entre 0.02 et 0.3 environ (cf. section 4.3.2), des valeurs plus basses de trel générant des instabilités numériques. À l’inverse, des valeurs plus élevées ne produisent qu’un seul groupe final, suite à l’agrégation effectuée lors de l’étape 4) décrite ci-dessous. L’équation (2.8) découle de la minimisation de l’inertie intra-groupe ∆W (2.2), régularisée par un terme d’entropie (Rose et al., 1990) ou d’information mutuelle (Bavaud, 2009). Elle peut aussi être dérivée de l’algorithme d’espérance-maximisation (EM) associé au modèle gaussien multivarié isotrope (Celeux et Govaert, 1992; McLachlan et Krishnan, 1997). À nouveau, on choisit d’itérer les étapes 1) et 2) jusqu’à la convergence de la solution ou jusqu’à ce qu’un nombre maximum d’itérations, Nmax, soit atteint. Ensuite, une étape supplémentaire d’agrégation entre les groupes dont les profils sont assez similaires est effectuée, soit l’étape 4), réduisant le nombre de groupes de m à M. En effet, la valeur de β contrôle l’étendue moyenne de chaque groupe et donc le nombre de groupes final M. Ainsi, avec m ≤ n choisi assez grand, le nombre de groupes est indirectement, mais entièrement, déterminé par le choix de trel. Plus précisément, plus β sera élevé, plus M le sera aussi. Concrètement, à l’étape 4), l’agrégation entre deux groupes similaires s’effectue en additionnant les appartenances des individus, i.e. z [g∪h] i = z g i +z h i . Pour déterminer si deux groupes sont assez similaires, on peut utiliser, comme critère de fusion des groupes : θgh/ p θggθhh ≥ 1−10−5 , où θgh = Pn i=1 fiz g i z h i mesure le chevauchement entre g et h (Bavaud, 2010). Cette approche produit généralement de bons résultats, sans toutefois empêcher l’apparition d’instabilités numériques pour quelques valeurs de trel (voir section 4.3.2). Finalement, une dernière étape 5) consiste à attribuer chaque individu au groupe le plus probable, soit argmin g zig. Cette méthode floue, un peu plus complexe à implémenter que la méthode K-means (dur), est plus robuste par rapport au choix de la partition initiale. Elle a de plus l’avantage de ramener le problème épineux de la détermination du nombre de groupes à celui de la dispersion β de ces mêmes groupes, un paramètre plus facile à interpréter et indépendant de la taille des données. 2.2 Classification supervisée Pour la classification supervisée (classification en anglais), on dispose d’un ensemble de données (échantillon d’objets ou d’individus) dont on connaît les profils ou caractéristiques, ainsi que le groupe (ou classe ou étiquette) de chaque individu. Dans un premier temps (phase d’apprentissage), l’algorithme « apprend » des règles sur l’ensemble des données. Ensuite (phase de test), on soumet de nouvelles données à l’algorithme, sans lui spécifier les groupes auxquels ces données appartiennent, et il attribue un groupe à chaque donnée selon les règles élaborées durant la phase d’apprentissage. Puisque l’on connaît les groupes auxquels les nouvelles données appartiennent, la phase de test permet de vérifier si l’algorithme fonctionne correctement ou, en d’autres termes, sa capacité à produire des règles généralisables. Parmi les nombreuses méthodes de classification supervisée existantes, telles que le « classi- fieur Bayésien naïf », les « séparateurs à vastes marges » (Support Vector Machine), les arbres de décisions, les réseaux de neurones, la méthode des k plus proches voisins (kNN ), etc. (voir par exemple Yang, 1999; Sebastiani, 2002, et références y incluses), seule l’analyse discriminante (Fisher, 1936) sera présentée ici.2.2. Classification supervisée 23 2.2.1 Analyse discriminante sur les dissimilarités Soit, comme ensemble d’apprentissage, un jeu de données, X = (xik), donnant les caracté- ristiques k = 1, ..., p des individus i = 1, ..., n. Alors les dissimilarités euclidiennes carrées, Dij , entre deux individus i et j peuvent être caculées par (1.8) . L’ensemble de test est formé d’individus supplémentaires. Les dissimilarités euclidiennes carrées Dxj entre un individu x de l’ensemble de test et un individu j de l’ensemble d’apprentissage sont, à nouveau, calculées selon (1.8). Dans le cas particulier d’une table de contingence, dont les modalités en lignes sont des individus i = 1, ..., n ; et celles en colonnes, des caractéristiques k = 1, ..., p, les dissimilarités du khi2 entre deux individus de l’ensemble d’apprentissage ou entre un individu de l’ensemble de test et un autre de l’ensemble d’apprentissage sont calculées par (1.6). Il est important de remarquer que, dans ces deux cas, les poids des caractéristiques, ρk, sont déterminés à partir de l’ensemble d’apprentissage uniquement. Ainsi, les colonnes qui ne seraient présentes que dans l’ensemble de test devraient être supprimées. k i,j x Dij Dxj Figure 2.2 – Principe du calcul des dissimilarités entre deux individus de l’ensemble d’apprentissage, Dij , et entre un individu de l’ensemble de test et un autre de l’ensemble d’apprentissage, Dxj . Il est possible d’utiliser deux critères d’analyse discriminante. Le premier (plus proches voisins) attribue le nouvel individu x de l’ensemble de test au groupe contenant les individus d’apprentissage les plus proches de x en moyenne (Cocco, 2014), i.e. : argmin g Xng j=1 f g j Dxj (2.9) où f g j = 1(j ∈ g)/ng est la distribution des individus j dans le groupe g, contenant ng individus 1 . Le second critère (plus proche centroïde) attribue l’individu test x au groupe d’apprentissage dont le centroïde est le plus proche (Bavaud, 2011; Cocco, 2014), soit : argmin g Dxg (2.10) où g est le profil moyen des ng individus constituant le groupe g. Ces deux critères sont liés par le théorème de Huygens (1.18) qui permet de calculer les dissimilarités Dxg à partir des dissimilarités Dxj et de l’inertie du groupe ∆g, calculée sur l’ensemble d’apprentissage (Dij ) par (1.19). Ainsi, si les inerties de tous les groupes sont égales, alors les critères (2.9) et (2.10) sont identiques ; sinon, l’attribution d’un nouvel individu au groupe g dépend tant de la position du centroïde que de l’inertie du groupe pour le critère des plus proches voisins, alors qu’il ne dépend que de la position du centroïde pour le critère du plus proche centroïde Comme pour l’algorithme K-means, les deux critères ci-dessus peuvent être étendus en considérant des transformations de Schoenberg (section 1.3.4), et en particulier la transformation 1. 1(A) représente la fonction caractéristique de A qui vaut 1 si A est vrai, et 0 sinon.24 2. CLASSIFICATION (NON-)SUPERVISÉE de puissance (1.22). Cette transformation est appliquée, pour le premier critère (2.9), sur Dxj transformé en D˜ xj = ϕ(Dxj ); et pour le second critère (2.10), sur Dxj et Dij , transformés en D˜ xj = ϕ(Dxj ) et D˜ ij = ϕ(Dij ). Il faut noter que D˜ ij := ϕ(Dij ), donc ∆˜ g := 1/2 P ij f g i f g j D˜ ij , mais que D˜ xg := P j f g j D˜ xj − ∆˜ g 6= ϕ(Dxg). En d’autres termes, appliquer la transformation de Schoenberg sur Dij et sur Dxj , avant d’utiliser le principe de Huygens pour obtenir Dxg, n’est pas équivalent à utiliser le principe de Huygens pour déterminer Dxg, puis à y appliquer la transformation de Schoenberg. 2.3 Évaluation Il est souvent nécessaire de pouvoir évaluer une classification, qu’elle soit supervisée ou non. En général, dans le cas d’une classification non supervisée, les groupes auxquels appartiennent les individus ne sont pas connus a priori et les méthodes d’évaluation, basées sur des critères internes (internal criteria), consistent alors principalement à vérifier l’homogénéité des groupes (voir par exemple Estivill-Castro, 2002; Halkidi, Batistakis et Vazirgiannis, 2002). Elles ne seront pas présentées ici. Cependant, pour une des applications présentée dans ce travail (chapitre 4), basée sur un corpus restreint, une classification non supervisée a été effectuée, bien que les groupes soient connus a priori. Dans ce cas, les groupes créés par l’algorithme ne possèdent pas de signification particulière et ne sont pas forcément de même nombre que les groupes « recherchés », rendant toute comparaison directe difficile. On peut alors utiliser une mesure d’accord entre partitions (section 2.3.1) pour comparer les résultats connus a priori avec ceux obtenus par l’algorithme (external criteria). Concernant la classification supervisée, la comparaison entre les groupes connus a priori et les résultats de l’algorithme est plus directe et de nombreux indices d’évaluation ont été proposés dans la littérature (voir par exemple Manning et Schütze, 1999, section 8.1 ; Sokolova et Lapalme, 2009). Seuls trois indices seront présentés ici : la précision, le rappel et la F-mesure (section 2.3.2). 2.3.1 Accord entre partitions On considère deux partitions, X et Y , obtenues soit avec deux classifications non supervisées différentes (deux méthodes différentes ou en changeant un paramètre par exemple), soit par une classification non supervisée et une autre créée par un expert humain. On peut alors construire une table de contingence (section 1.1), dont les composantes njk comptent le nombre d’objets ou d’individus attribués simultanément au groupe j de la première partition X et au groupe k de la seconde partition Y . Toutes les mesures d’accord entre partitions se basent sur cette table de contingence. Il existe de nombreux indices servant à mesurer l’accord entre deux partitions (voir par exemple Pfitzner, Leibbrandt et Powers, 2009), tels que l’indice de Meilˇa (Meilˇa, 2003) ou, dans le cas de deux partitions binaires, le coefficient phi ou le Q de Yule (sections 1.2.2.2 et 1.2.2.3). Seul deux de ces indices seront présentés et utilisés dans ce travail, à savoir : l’indice de Jaccard et l’indice de Rand corrigé. L’indice de Jaccard (Youness et Saporta, 2004; Denœud et Guénoche, 2006), dont les valeurs varient entre 0 et 1, se définit comme : J = r r + u + v (2.11) où r = 1 2 P jk njk(njk −1) est le nombre de paires simultanément dans un même groupe dans X et dans Y , u = 1 2 ( P k n 2 •k − P jk n 2 jk) est le nombre de paires qui sont dans des groupes distincts dans X et dans un même groupe dans Y et v = 1 2 ( P j n 2 j• − P jk n 2 jk) compte le nombre de paires dans le même groupe de X, mais dans des groupes distincts de Y .2.3. Évaluation 25 Quant à l’indice de Rand corrigé (Adjusted Rand Index ) (Hubert et Arabie, 1985; Denœud et Guénoche, 2006), il se calcule comme : RC = r − Exp(r) Max(r) − Exp(r) (2.12) Dans cette équation, Exp(r) = 1 2n(n−1) P i ni•(ni• − 1)P j n•j (n•j − 1) représente le nombre attendu de paires d’individus, sous l’hypothèse du hasard, dans un même groupe de X et dans un même groupe de Y et Max(r) = 1 4 P i ni•(ni•−1)+P j n•j (n•j−1) calcule la valeur maximum de l’indice de Rand. Ainsi, l’indice de Rand corrigé possède une valeur maximale de 1. De plus, il vaut 0 lorsque les similarités entre les deux partitions correspondent aux valeurs attendues sous l’hypothèse du hasard. Cependant, cet indice peut aussi prendre des valeurs négatives lorsque r < Exp(r), i.e. que l’accord entre les deux partitions est moins bon qu’un accord obtenu au hasard. 2.3.2 Précision, rappel et F-mesure Comme déjà expliqué dans la section 2.2 sur la classification supervisée, après la phase d’apprentissage, vient la phase de test où l’algorithme attribue un groupe g à chaque individu i de l’ensemble de test (jeu de données de référence). Pour mesurer la performance de l’algorithme, il faut alors comparer, pour chaque individu, le groupe attribué par l’algorithme (décision) à celui déjà connu (référence). Il existe trois mesures très généralement utilisées qui permettent d’évaluer les méthodes de classification supervisée : la précision, le rappel et la F-mesure, qui combine les deux premières (voir par exemple Manning et Schütze, 1999, section 8.1 ; Sebastiani, 2002 ; Sokolova et Lapalme, 2009 ; Cocco, 2014, dont cette section reprend une partie de l’exposé). Avant tout, précisons qu’il existe différents problèmes de classification supervisée, à savoir : binaire Il existe un seul groupe et chaque individu appartient ou non à ce groupe. multi-classe Il existe m groupes et chaque individu appartient à un de ces m groupes. multi-étiquette Il existe m étiquettes et chaque individu peut se voir attribuer une ou plusieurs étiquettes. Évidemment, si une seule étiquette est attribuée à chaque individu, alors cette classification est complètement équivalente à la classifi- cation multi-classe. Dans le cas d’une classification binaire pour un groupe g, on peut construire une matrice de confusion Groupe g Référence Décision OUI NON OUI VPg FPg NON FN g VN g dont les composantes comptent : — les vrais positifs, VPg, i.e. le nombre d’individus attribués au groupe g par la classification supervisée et classés dans le groupe g dans le jeu de données de référence, — les faux positifs, FPg, i.e. le nombre d’individus attribués au groupe g par la classification supervisée et non classés dans le groupe g dans le corpus de référence , — les faux négatifs, FN g, i.e. le nombre d’individus non attribués au groupe g par la classi- fication supervisée et classés dans le groupe g dans le corpus de référence et — les vrais négatifs, VN g, i.e. le nombre d’individus non attribués au groupe g par la classification supervisée et non classés dans le groupe g dans le corpus de référence.26 2. CLASSIFICATION (NON-)SUPERVISÉE Alors, la précision détermine le rapport entre le nombre d’individus correctement classés par le système dans le groupe g et le nombre total d’individus classés dans ce même groupe g, correctement ou non, soit : Pg = VPg VPg + FPg (2.13) Quant au rappel, il se définit comme le rapport entre le nombre d’individus correctement classés par l’algorithme dans le groupe g et le nombre d’individus appartenant effectivement à ce groupe dans le jeu de données de référence : Rg = VPg VPg + FN g (2.14) Si la classification est parfaite, alors la précision et le rappel seront tous deux égaux à 1. Un système performant exige des valeurs élevées pour ces deux mesures. En effet, il serait simple, de construire un système qui renvoie tous les documents dans le même groupe. Dans ce cas, et pour ce groupe, le rappel serait égal à 1, mais la précision très faible, d’où la nécessité d’étudier ces deux valeurs simultanément. Dans son chapitre 7, van Rijsbergen (1979) propose de mesurer la proportion de la différence entre les éléments appartenant réellement au groupe g et ceux attribués à ce même groupe par l’algorithme, comme : E = 1 − 1 α( 1 Pg ) + (1 − α) 1 Rg où α est un paramètre défini comme α = 1 (β2+1) , dans lequel le nouveau paramètre β permet de spécifier différentes situations, telles que : — l’utilisateur attache la même importance à la précision et au rappel (β = 1 et α = 1/2), — l’utilisateur n’attache aucune importance à la précision (β → ∞ et α → 0) et — l’utilisateur n’attache aucune importance au rappel (β → 0 et α → 1). La fonction Fβ, communément utilisée, n’est autre que 1 − E (Manning et Schütze, 1999, section 8.1), soit : Fβ = (β 2 + 1)PgRg β 2Pg + Rg La F-mesure, cas particulier de la fonction Fβ pour β = 1, constitue la moyenne harmonique entre la précision et le rappel : Fg = 2PgRg Pg + Rg (2.15) Dans le cas d’une analyse multi-classe ou multi-étiquette, deux types de moyennes des mesures (2.13), (2.14) et (2.15) peuvent être utilisées pour évaluer la performance de la classi- fication sur l’ensemble des groupes (voir par exemple Sebastiani, 2002, section 7), à savoir, la macro-moyenne : Pmacro = Pm g=1 Pg m Rmacro = Pm g=1 Rg m Fmacro = 2PmacroRmacro Pmacro + Rmacro (2.16) et la micro-moyenne : Pmicro = Pm g=1 VPg Pm g=1(VPg + FPg) Rmicro = Pm g=1 VPg Pm g=1(VPg + FN g) Fmicro = 2PmicroRmicro Pmicro + Rmicro (2.17) Dans la macro-moyenne, tous les groupes ont le même poids, alors que dans la micro-moyenne, tous les individus ont le même poids. Ainsi, dans cette dernière, les groupes les plus fréquents2.3. Évaluation 27 auront plus d’importance (Yang, 1999). On peut aussi remarquer que dans le cas d’une analyse multi-classe, Pm g=1 FPg = Pm g=1 FN g, ce qui implique que Pmicro = Rmicro = Fmicro (Van Asch, 2012).CHAPITRE 3 Indices d’autocorrélation et d’autocorrélation croisée En analyse des séries temporelles (voir par exemple Box et Jenkins, 1976), la corrélation croisée mesure la corrélation entre deux signaux numériques univariés, dont un est décalé d’un certain temps (lag) par rapport à l’autre. Quant à l’autocorrélation, elle mesure la corrélation croisée entre un signal et lui-même. Les indices d’autocorrélation et d’autocorrélation croisée présentés dans ce chapitre ont une double visée : d’une part, étendre l’analyse des séries temporelles à des problèmes numériques multivariés, ainsi qu’à des variables catégorielles multimodales (via la dissimilarité du khi2) ; et d’autre part, généraliser la notion de décalage à une notion de voisinage. Soit i, j = 1, . . . , n, des positions ordonnées, et D = (Dij ), la matrice des dissimilarités euclidiennes carrées entre ces positions. Plus précisément, ces dissimilarités sont calculées par rapport aux caractéristiques k des unités localisées sur ces positions. En définissant un voisinage par l’intermédiaire d’une matrice d’échange E = (eij ) (section 3.1), l’indice d’autocorrélation (section 3.2) va mesurer la différence entre la variabilité des dissimilarités sur l’ensemble des positions et la variabilité locale dans un voisinage, tel que défini par E. L’indice d’autocorrélation croisée (section 3.3) généralise celui d’autocorrélation en considérant deux jeux de données et mesure la similarité entre les positions de ces deux jeux, par rapport aux caractéristiques k de chacun de ces jeux, selon le voisinage défini par E. 3.1 Matrice d’échange Les voisins j de la position i sont déterminés par une matrice d’échange E = (eij ), de taille n × n, qui a pour propriétés d’être : — non négative, — symétrique, — compatible avec le poids des individus ei• = e•i = fi , — et normalisée e•• = 1. Ainsi, eij peut s’interpréter comme la probabilité jointe de sélectionner les positions i et j, sans considération de l’ordre de ces positions ; et ei• = fi , comme la probabilité de sélectionner la position i. On peut aussi remarquer que wij = eij fi correspond aux composantes de la matrice W = (wij ) de transition d’une chaîne de Markov de distribution stationnaire f. 2930 3. INDICES D’AUTOCORRÉLATION ET D’AUTOCORRÉLATION CROISÉE 3.1.1 Exemples En toute généralité, les « positions » i, j réfèrent à des objets (localisés dans l’espace, dans le temps, ou plus généralement simplement identifiés par leurs indices i, j) exempts de relations mutuelles particulières a priori, ces dernières étant précisément définies par la matrice d’échange E. Dans cette thèse, le cas particulier des séries temporelles est abordé, ce qui signifie que les indices i et j peuvent être mis en correspondance au moyen de relations de la forme j = i + r, où r est un entier relatif. Parmi les nombreuses matrices d’échange potentiellement pertinentes dans ce contexte particulier, trois familles seront présentées ici et utilisées par la suite. La première matrice d’échange E˚, qu’on appellera matrice d’échange itérée, considère des voisinages à r itérations avec corrections dans les bords (Bavaud, Cocco et Xanthos, 2012). Pour r = 1, la matrice d’échange vaut 1 : ˚e (1) ij := 1 2n [1(j = i ± 1) + 1(i = j = 1) + 1(i = j = n)] (3.1) Puis, pour r > 1, on définit E˚(r) = ΠWr , avec Π = diag(f). Étant donné que cette matrice produit des poids uniformes, tels que fi = 1/n, alors wij = n˚eij , avec ˚eij = ˚e (1) ij , et donc E˚(r) = 1 nWr = n (r−1)E˚r . La deuxième est une matrice d’échange périodique, E˘, qui considère les voisins j à une distance (lag) r (à gauche et à droite) de la position i (Cocco et Bavaud, accepté pour publication) : e˘ (r) ij = 1 2n [1(j = (i ± r) mod n) + 1((i ± r) mod n = 0) · 1(j = n)] (3.2) Comme la matrice d’échange itérée, cette matrice d’échange produit des poids uniformes. De plus, comme le voisinage est périodique, alors E˘(r) = E˘(n−r) . Finalement, la matrice d’échange à fenêtres mobiles, E˙ , considère toutes les positions dans deux fenêtres de largeur r, l’une à gauche et l’autre à droite (Bavaud et al., 2012) : e˙ [r] ij = c [r] ij c [r] •• c [r] ij := 1(|j − i| ≤ r) · 1(i 6= j) (3.3) Contrairement aux deux autres matrices, les poids résultants ne sont pas uniformes, mais plus petits pour les positions de bord que pour les autres. Toutes ces matrices d’échange dépendent principalement de la différence |j − i| des positions i et j (à des effets de bord près), et l’on s’attend à ce que leur utilisation permette de révéler d’autant mieux un phénomène que la loi le gouvernant soit stationnaire, i.e. invariante par translation |j − i|. Ce qui, on peut le préciser, n’affecte en rien la question de la légitimité de leur utilisation dans le cadre d’une analyse exploratoire de données, telle qu’effectuée aux chapitres 6 et 8. Deux exemples (r = 1 et r = 2) de chacun de ces trois types de matrices d’échange sont présentés dans la table 3.1 pour 5 positions ordonnées. Le réseau non pondéré et non orienté correspondant à chacun de ces six exemples est exposé dans la table 3.2. On remarque que les matrices d’échange périodique et à fenêtres mobiles sont assez similaires, cependant elles présentent deux différences essentielles : — premièrement, comme son nom l’indique, la matrice d’échange périodique considère que les positions sont périodiques et donc que la position 1 se trouve après la position n, contrairement à la matrice d’échange à fenêtres mobiles ; 1. Comme déjà mentionné (cf. chapitre 2, note 1), 1(A) représente la fonction caractéristique associée à l’évé- nement A.3.2. Indice d’autocorrélation 31 — deuxièmement, avec la matrice d’échange à fenêtres mobiles toutes les positions des deux fenêtres de largeur r sont considérées, à l’inverse de la matrice d’échange périodique pour laquelle on ne considère que deux positions à une distance r d’une position donnée, sans prendre en compte les positions intercalaires qui les séparent. r E˚ (itérée) E˘ (périodique) E˙ (fenêtres mobiles) r = 1 1 10   1 1 0 0 0 1 0 1 0 0 0 1 0 1 0 0 0 1 0 1 0 0 0 1 1   1 10   0 1 0 0 1 1 0 1 0 0 0 1 0 1 0 0 0 1 0 1 1 0 0 1 0   1 8   0 1 0 0 0 1 0 1 0 0 0 1 0 1 0 0 0 1 0 1 0 0 0 1 0   r = 2 1 20   2 1 1 0 0 1 2 0 1 0 1 0 2 0 1 0 1 0 2 1 0 0 1 1 2   1 10   0 0 1 1 0 0 0 0 1 1 1 0 0 0 1 1 1 0 0 0 0 1 1 0 0   1 14   0 1 1 0 0 1 0 1 1 0 1 1 0 1 1 0 1 1 0 1 0 0 1 1 0   Table 3.1 – Exemples pour les trois matrices d’échanges étudiées, avec n = 5. 1 2 3 4 5 r E˚ (itérée) E˘ (périodique) E˙ (fenêtres mobiles) r = 1 r = 2 Table 3.2 – Réseau non pondéré et non orienté des trois matrices d’échange étudiées, repré- sentant les liens non nuls (eij > 0) entre les n = 5 positions. 3.2 Indice d’autocorrélation L’indice d’autocorrélation se définit comme (Bavaud et al., 2012) : δ := ∆ − ∆loc ∆ ∈ [−1, 1] (3.4) où ∆ est l’inertie (globale) qui se calcule, à partir de la matrice des dissimilarités euclidiennes carrées entre les positions Dij , par (1.16) et ∆loc est l’inertie locale, telle que : ∆loc := 1 2 X ij eijDij Cet indice d’autocorrélation généralise le I de Moran (Moran, 1950), la mesure standard de l’autocorrélation spatiale d’une variable numérique, ou son complémentaire, le c de Geary (Geary, 1954; Lebart, 1969), au cas multivarié. Concernant l’interprétation, comme le montre l’équation (3.4), δ sera élevé si les individus sont plus similaires dans le voisinage défini par E qu’en prenant des positions choisies aléatoirement, et inversement. Rappelons que la dissimilarité euclidienne carrée Dij est basée sur les caractéristiques des unités apparaissant en i et j. Dans le cas de caractéristiques catégorielles, Dij ne sera autre32 3. INDICES D’AUTOCORRÉLATION ET D’AUTOCORRÉLATION CROISÉE que la dissimilarité du khi2 entre les lignes (ou les colonnes) i et j de la table de contingence associée, calculée par (1.6) (ou (1.7)), ou encore par (1.9) : voir le chapitre 8. Le chapitre 6 décrit d’autres applications impliquant des dissimilarités euclidiennes carrées distinctes de celles du khi2. 3.2.1 Test d’autocorrélation L’espérance de l’indice d’autocorrélation sous l’hypothèse H0 d’absence d’autocorrélation vaut (voir par exemple Bavaud, 2013) : E0(δ) = trace(W) − 1 n − 1 (3.5) avec W = (wij ), la matrice de transition de Markov, telle que définie dans la section 3.1. Concernant les exemples de la section 3.1.1, l’espérance sous indépendance de la matrice d’échange itérée est variable selon r et vaut E (r) 0 = (trace(Wr ) − 1)/(n − 1), alors qu’elle a une valeur fixe pour les deux autres matrices d’échange, soit E (r) 0 = −1/(n − 1). La variance correspondante s’écrit (voir par exemple Cliff et Ord, 1981) : Var0(δ) = 2 n2−1 h trace(W2 ) − 1 − (trace(W)−1)2 n−1 i Sous approximation normale, on peut ainsi évaluer la significativité statistique de l’indice d’autocorrélation au niveau α en effectuant le test suivant : δ − E0(δ) p Var0(δ) ≥ u1−α/2 (3.6) où u1−α/2 est le α-ème quantile de la loi normale standardisée. 3.3 Indice d’autocorrélation croisée Soit deux jeux de coordonnées X = (xik) et Y = (yik) munis des mêmes positions i = 1, . . . , n et des mêmes caractéristiques k = 1, . . . , p, mais dont les valeurs diffèrent 2 . Alors, on définit l’indice d’autocorrélation croisée comme (Cocco et Bavaud, accepté pour publication) : δ(X, Y ) := ∆(X, Y ) − ∆loc(X, Y ) p ∆(X)∆(Y ) ∈ [−1, 1] (3.7) Dans cette équation, ∆(X) représente l’inertie globale de X (1.16), identique à celle utilisée dans (3.4). Puis, en définissant la dissimilarité croisée entre deux positions i et j des deux jeux de coordonnées X et Y comme : D xy ij = X k (xik − xjk)(yik − yjk) on peut définir l’inertie croisée entre X et Y comme : ∆(X, Y ) = 1 2 X ij fifjD xy ij = X i fi X k xikyik − X k x¯ky¯k et l’inertie croisée locale comme : ∆loc(X, Y ) = 1 2 X ij eijD xy ij = X i fi X k xikyik − X ij eij X k xikyjk 2. Il pourrait s’agir, par exemple, de différents indices k concernant la population, tels que le taux de naissance ou d’immigration, pour des régions i, à deux dates différentes, soit X et Y .3.3. Indice d’autocorrélation croisée 33 Étant donné que ∆(X, X) = ∆(X) et que ∆loc(X, X) = ∆loc(X), il apparaît que l’indice d’autocorrélation croisée est une généralisation de l’indice d’autocorrélation, car δ(X, X) = δ(X) = δ, tel que défini dans l’équation (3.4). L’indice δ(X, Y ) (3.7) est applicable à deux jeux de coordonnées, X et Y , ssi, comme déjà mentionné, les deux jeux de coordonnées sont munis des mêmes positions i et des mêmes caractéristiques k, mais aussi ssi les poids des positions de X, f x i , sont identiques à ceux de Y , f y i , soit f x i = f y i = fi . L’autocorrélation croisée δ(X, Y ) peut aussi se concevoir comme une version pondérée du coefficient de codispersion (voir par exemple Matheron, 1965; Rukhin et Vallejos, 2008) utilisé en Géostatistique. Si les données de départ sont catégorielles, alors l’indice d’autocorrélation croisée entre deux tables de contingence Nα et Nβ est δ( ∗Xα, X∗ β ) (respectivement δ( Y ∗ α, Y∗ β )), où x ∗ α ik et x ∗ β ik (respectivement y ∗ α ik et y ∗ β ik) sont les coordonnées de haute dimensionnalité (1.10) des lignes (respectivement des colonnes). Dans ce cas, l’indice d’autocorrélation croisée δ( ∗Xα, X∗ β ) mesure la similarité entre la distribution des caractéristiques catégorielles k de la table de contingence α et la distribution des caractéristiques de la table β dans un voisinage déterminé par E. Il est ainsi utilisé dans le chapitre 8, section 8.3.Partie II APPLICATIONS TEXTUELLES 35CHAPITRE 4 Classification non supervisée en types de discours Le travail présenté dans ce chapitre est à la fois un résumé et une extension de trois articles (Cocco, Pittier, Bavaud et Xanthos, 2011; Cocco, 2012a,b) et en reprend de larges extraits. Le but de ce chapitre est de catégoriser automatiquement des propositions énoncées par rapport à des séquences textuelles, comprises ici comme des types de discours, tels que le narratif, l’argumentatif, l’explicatif, le descriptif, le dialogal et l’injonctif (section 4.1.1). Pour ce faire, quatre contes de Maupassant ont d’abord été segmentés en propositions et annotés par un expert humain (section 4.1). Ensuite, les propositions ont été représentées à l’aide d’une AFC (section 4.2.1). Puis elles ont été classées automatiquement (classification non supervisée) en se basant sur les catégories morphosyntaxiques (CMS) qu’elles contiennent, et plus précisément sur les n-grammes de CMS et les résultats sont évalués par le biais d’indices d’accords entre partitions (section 4.3). Les CMS ont été choisies comme caractéristiques de cette classification non supervisée, car elles ont déjà montré leur utilité dans des travaux connexes. En effet, les CMS ont été de plus en plus exploitées, parmi d’autres caractéristiques, pour la catégorisation automatique de textes depuis les travaux de Biber (1988), qui s’intéresse à la détection de types de textes. Par exemple, Malrieu et Rastier (2001) travaillent sur la distinction, d’une part, et la classification automatique, d’autre part, de textes selon les genres (comédie, tragédie, drame, etc.) et selon les discours (littéraire, juridique, politique, etc.) en utilisant des variables majoritairement morphosyntaxiques. Karlgren et Cutting (1994) s’intéressent à la classification supervisée en genres de textes avec des CMS. On peut encore citer Palmer, Ponvert, Baldridge et Smith (2007) qui travaillent, en utilisant des CMS parmi d’autres caractéristiques, sur la classification supervisée de situation entities, un élément essentiel des modes de discours (modes of discourse) en linguistique anglaise (Smith, 2003), concepts relativement similaires aux types de discours en linguistique française. Pour déterminer si les CMS sont également utiles dans la détection des types de discours traités ici, une analyse préliminaire visant à mesurer le lien entre les CMS et les types de discours est effectuée dans la section 4.1.4. Finalement, la méthode et les résultats obtenus sont discutés dans la section 4.4. 4.1 Données Les données se composent de quatre contes de Maupassant, du 19ème siècle, annotées en types de discours par un expert humain. Ce dernier a proposé de travailler sur des contes de Maupassant pour trois raisons : les textes n’étaient pas trop longs et pouvaient être annotés en un temps raisonnable, ils étaient susceptibles de contenir tous les types de discours et ils 3738 4. CLASSIFICATION NON SUPERVISÉE EN TYPES DE DISCOURS étaient disponibles sur Internet. Aussi, un seul auteur et un seul genre sont considérés, car comme déjà expliqué dans l’introduction, les CMS varient en fonction des genres, mais aussi en fonction de l’auteur (voir par exemple Koppel et Schler, 2003). L’expert humain a utilisé des balises XML pour annoter les textes, une pratique standard dans ce domaine (voir par exemple Daoust, Marcoux et Viprey, 2010). Avant de pouvoir annoter les textes en types de discours, il a commencé par segmenter le texte en propositions énoncées, car le niveau des phrases, composées d’une ou plusieurs propositions énoncées, était trop grossier. C’est cette segmentation manuelle qui va servir de base à la classification non supervisée. Après avoir présenté les critères utilisés par l’expert humain pour l’annotation en types de discours (section 4.1.1), le corpus, ainsi que quelques statistiques descriptives le caractérisant, sont exposés dans la section 4.1.2. Ensuite, le prétraitement pour la création des tables de contingence croisant les propositions et les CMS est expliqué (section 4.1.3). De plus, comme déjà mentionné dans l’introduction de ce chapitre, une analyse préliminaire a été effectuée afin de s’assurer que les CMS sont des caractéristiques utiles à la distinction des types de discours et les résultats sont présentés dans la section 4.1.4. 4.1.1 Types de discours et annotation Les types de discours retenus pour ce projet sont adaptés des travaux de Jean-Michel Adam, spécialiste en linguistique textuelle et de Jean-Paul Bronckart, spécialiste en psycholinguistique et didactique des langues. En premier lieu, il faut noter que l’appellation « types de discours » est abusive, mais sera généralement utilisée dans ce qui suit. En effet, même si elle est courante en Français (Filliettaz, 2001), le terme « types de séquences » est plus précis, car il fait référence à des passages de textes et non à des textes entiers, et c’est celui utilisé par Adam (2008a,b) en général et par Bronckart (1996) lorsqu’il aborde les types traités ici. De plus, lorsque Bronckart (1996, section 5.2) parle de types de discours, il distingue quatre architypes psychologiques : le discours interactif, le discours théorique, le récit interactif et la narration, qu’il différencie des séquences décrites par Adam (2008a,b). Partant de cela, il définit ensuite des types linguistiques (Bronckart, 1996, section 5.3). Au chapitre suivant, il passe en revue les « Séquences et autres formes de planification » qui sont les éléments traités dans ce projet, (Bronckart, 1996, p. 219, chapitre 6) : Dans notre approche, les types de discours constituent les ingrédients fondamentaux de l’infrastructure générale des textes, [...] L’infrastructure textuelle se caractérise cependant aussi par une autre dimension, qui est celle de l’organisation séquentielle ou linéaire de son contenu thématique. De là, il reprend les séquences décrites par J.-M. Adam auxquelles il ajoute la séquence injonctive. Les types de discours (ou séquences) considérés par Adam (2008a,b) sont le narratif, l’argumentatif, l’explicatif, le dialogal et le descriptif. En plus de ces cinq types, on considérera ici le type de discours (ou séquence) injonctif, suggéré par Bronckart (1996), qui, dans les textes traités dans ce projet, est toujours un « sous-type » du type dialogal 1 . Il a été demandé à l’expert humain, Raphaël Pittier, alors étudiant de master en sciences du langage et de la communication, ainsi qu’en français moderne (orientation linguistique française), d’annoter des textes selon ces six types de discours en se basant sur le travail de Adam (2008a,b) et Bronckart (1996). Dans ce qui suit, les types sont définis selon ces théories, ainsi que selon les critères retenus par l’expert humain, spécialiste dans ce domaine. De plus, il est fait mention des marques linguistiques que ce dernier a trouvé pertinentes. Il faut aussi noter que Adam (2008a,b) différencie les périodes et les séquences de chaque type ; les séquences étant plus complexes et étendues que les périodes. Dans le cadre de ce 1. Pour l’anglais, l’appellation courante semble être Modes of discourse et selon Smith (2003), il y en a cinq : narrative, description, report, information et argument.4.1. Données 39 travail, cette distinction n’a pas été retenue. C’est pourquoi, les parties de textes, annotées comme étant d’un certain type, peuvent être des séquences ou des périodes ; voire même des parties plus courtes que la période comme dans le cas du discours direct pour le type dialogal (voir section 4.1.1.5). Néanmoins, il est important d’envisager les différences entre séquences et périodes dans l’esposé théorique des types de discours. 4.1.1.1 Narratif Le type de discours narratif correspond au récit raconté. Trois sortes de parties de textes ont été annotées comme étant narratives : 1. la séquence narrative qui est composée d’étapes précises, dont certaines sont facultatives (cf. Adam, 2008a, schéma 20, p. 147) : — Pn0 : entrée-préface ou résumé : facultative, — Pn1 : situation initiale (orientation), — Pn2 : noeud (déclencheur), — Pn3 : (ré-)action ou évaluation, — Pn4 : dénouement (résolution), — Pn5 : situation finale, — PnΩ : chute ou évaluation finale (morale) : facultative. Lorsque les étapes facultatives sont présentes, on ne parle plus de séquence narrative, mais d’intrigue narrative. 2. la période narrative ou l’épisode narratif où un état de départ est suivi d’un événement qui transforme cet état initial afin de parvenir à un autre état. 3. le narratif itératif qui correspond à une description d’actions répétées ou simplement à des actions répétées, comme par exemple : « Tous les matins, il buvait du café... ». En raison de la répétition, cette catégorie de texte, annotée comme narrative, tend vers le type de discours descriptif. Marques linguistiques : Pour la séquence narrative (point 1), tout comme pour la période narrative (point 2), on note souvent la présence de passé simple, mais ce n’est pas un critère absolu. En plus du passé simple, il peut exister des déclencheurs tels que la conjonction or ou la locution adverbiale tout à coup. Une autre tendance est la juxtaposition d’actions, soit des groupes qui se suivent dans l’ordre chronologique, comme par exemple : « Il alla à la bibliothèque, prit un livre, lut trois pages... ». Pour le narratif itératif (point 3), l’imparfait est généralement utilisé. Mais à nouveau, il s’agit plus d’une tendance que d’un critère absolu. Bronckart (1996, pp. 179–181) propose une liste de marques linguistiques pour la narration, dont certaines, listées ci-avant, correspondent à celles utilisées par l’expert humain. 4.1.1.2 Argumentatif Le type de discours argumentatif correspond à des textes, ou parties de textes, ayant pour but de convaincre l’autre de son argument, c’est-à-dire de démontrer, justifier ou réfuter une thèse. En résumé, la séquence argumentative se compose (cf. Adam, 2008a, schéma 21, p. 150) : — de données (prémisses) ou fait(s), suivies — d’un étayage qui mène à — une assertion conclusive. Une présentation plus complète de cette séquence est exposée dans Adam (2008a, schéma 22, p. 151). Concernant la période argumentative, il s’agit d’une « suite de propositions liées par des connecteurs argumentatifs » (Adam, 2008a, p. 150). Pour ce projet, nous avons considéré que40 4. CLASSIFICATION NON SUPERVISÉE EN TYPES DE DISCOURS lorsque les prémisses sont implicites ou déjà mentionnées en amont, ou que l’étayage est implicite ou douteux, il s’agissait d’une période argumentative. Marques linguistiques : Présence de connecteurs argumentatifs qui peuvent être (Adam, 2008a, p. 120) : — argumentatifs et concessifs : mais, pourtant, cependant, certes, toutefois, quand même, ... ; — explicatifs et justificatifs : car, parce que, puisque, si - c’est que, ... ; — de simples marqueurs d’un argument : même, d’ailleurs, de plus, non seulement, ... ; et — le si et le quand des phrases hypothétiques. 4.1.1.3 Explicatif Le type explicatif se différencie du type argumentatif par sa fonction, qui n’est pas de convaincre, mais d’expliquer quelque chose de non su. Il s’agit plutôt de délivrer un type de savoir encyclopédique. L’explication répond à la question « Pourquoi ? » (Adam, 2008b, pp. 127–138). La séquence explicative (cf. Adam, 2008a, schéma 26, p. 157) : — commence par une schématisation initiale qui présente un objet complexe ; — ensuite, par un premier opérateur pourquoi, passe à une schématisation qui construit l’objet comme problématique ; — enfin, par un second opérateur parce que, passe à une schématisation explicative. Quant aux périodes explicatives, elles sont souvent composées d’une proposition qui pose un problème et qui est introduite par si et d’une explication introduite par c’est que ou c’est parce que (Adam, 2008a, p. 153). Marques linguistiques : Présence de locutions phraséologiques telles que (Adam, 2008a, section 4.5) : (Si)... c’est parce que/c’est pour (que)/c’est pourquoi/c’est que/c’est en raison de/cela tient à..., voilà pourquoi..., etc. 4.1.1.4 Descriptif Le type descriptif consiste en un arrêt sur image où le temps de l’histoire s’arrête. Ce type de discours correspond donc à l’attribution des propriétés propres à un sujet, qu’il soit animé ou non. Il peut s’agir, par exemple, d’un personnage, d’un objet, d’un lieu ou d’une action (pour cette dernière, il s’agira plutôt, en général, de narratif itératif). Au plan de l’équilibre textuel, on n’observe pas une forme de séquence, mais plutôt différentes opérations, à savoir (Adam, 2008a, section 4.2) les opérations : — de thématisation, — d’aspectualisation, — de mise en relation et — d’expansion par sous-thématisations. Par exemple, dans les opérations d’aspectualisation, le sujet à décrire peut être fragmenté en parties. Puis, ces parties peuvent être qualifiées par des adjectifs (Adam, 2008a, p. 142). En d’autres termes, des propriétés sont attribuées (essentiellement des adjectifs) au substantif de la description par l’intermédiaire, en général, d’un verbe d’état. Un substantif peut aussi remplacer l’adjectif, comme dans la phrase : « Cette table est un chef-d’œuvre. ». Il faut encore noter que la description n’est pas, en général, dominante, mais plutôt au service d’un autre type (Bronckart, 1996, p. 238), notamment de la narration (Adam, 2008b, p. 100). Marques linguistiques : Plusieurs marques linguistiques se retrouvent pour ce type : — utilisation, en général, de verbes au passé et souvent à l’imparfait (cependant, lorsque la narration ou le discours est au présent, la description sera aussi au présent) ;4.1. Données 41 — forte proportion d’adjectifs, en raison de l’attribution de propriétés par des groupes nominaux de la forme nom + adjectif (Adam, 2008a, p. 142) ; — présence d’organisateurs spatio-temporels : à gauche, à droite, hier, demain, en haut, en bas, au premier plan, au second plan,... ; — présence de verbes d’état : être, paraître, sembler,... ; et — présence, parfois, de constructions analogiques par l’intermédiaire de mots, tels que comme, tel, etc. 4.1.1.5 Dialogal Le type dialogal se comprend comme la représentation d’un échange verbal se situant à un niveau différent du reste du récit ; il peut aussi se trouver dans un système verbo-temporel différent. Par exemple, un dialogue au présent peut être inclus dans une narration au passé. Théoriquement, la séquence dialogale implique un échange. Typiquement, un texte conversationnel se compose (cf. Adam, 2008a, schéma 29, p. 161) : — d’un échange d’ouverture (séquence phatique) ; — d’une séquence transactionnelle comprenant — une question, — une réponse et — une évaluation ; et — d’un échange de clôture (séquence phatique). Notons que dans l’annotation utilisée pour ce travail, le discours direct a été considéré comme étant de type dialogal. Marques linguistiques : Présence de guillemets, changement de tiroir verbo-temporel et, souvent, ponctuation forte, telle que le point d’interrogation ou d’exclamation. Parfois, on trouve aussi les points de suspension qui indiquent un discours non terminé ou interrompu. De plus, on note la présence de verbes introducteurs de discours direct tels que il dit, elle demanda, etc. Bien que ces verbes n’appartiennent pas directement au discours direct, ils permettent de faire la transition entre le récit principal et le discours direct. 4.1.1.6 Injonctif Le type injonctif représente le fait d’ordonner quelque chose à quelqu’un. C’est une incitation à l’action, dont les formes de textualisation varient selon le genre de cette incitation (Adam, 2008a, p. 133). En résumé, le but est de « faire agir le destinataire d’une certaine manière ou dans une direction donnée » (Bronckart, 1996, p. 240). Ce type est considéré par Bronckart (1996), mais rejeté par Adam qui reconnaît les propriétés d’incitation à l’action du discours injonctif, mais qui se demande s’il ne s’agit pas d’« actualisations singulières d’un simple genre de description » (Adam, 2008b, p. 95). Il se trouve que, dans le corpus traité ici, le type de discours injonctif est toujours placé dans une séquence dialogale (ou dans du discours direct). Marques linguistiques : Verbes à l’impératif, points d’exclamation et verbes introducteurs du dialogue tel que il lui ordonna. Remarque : Ce type de discours étant constamment inclus dans le type de discours dialogal dans nos textes, il serait possible de ne pas le considérer et d’attribuer tout ce qui le concerne au type dialogal, réduisant ainsi le nombre de types de discours à cinq. S’il s’agissait d’un texte correspondant à une recette de cuisine et annoté comme injonctif, il faudrait alors lui attribuer le type descriptif selon les séquences décrites par (Adam, 2008b, p. 95), mais cette situation ne se produit jamais dans les textes utilisés dans ce travail.42 4. CLASSIFICATION NON SUPERVISÉE EN TYPES DE DISCOURS 4.1.1.7 Structure hiérarchique et récursive Il est clair que ces types de discours ne sont pas univoques et que leur interprétation pourrait différer pour un autre expert. Il faut encore ajouter que ces périodes ou séquences sont généralement imbriquées les unes dans les autres. Par exemple, dans un conte, on ne sera pas surpris de trouver une longue séquence narrative, parfois le conte entier, qui contiendra d’autres séquences, explicatives ou descriptives par exemple. Ces dernières pourront à leur tour contenir d’autres séquences du même type ou d’un autre type. Comme déjà expliqué, l’annotateur a utilisé des balises XML pour annoter le texte, ce qui a permis de prendre en compte cette structure hiérarchique (cf. figure 4.1). Cependant, dans la suite de ce chapitre, la structure du texte est considérée comme linéaire et seules les feuilles de l’arbre sont traitées. 4.1.2 Corpus Comme déjà mentionné, l’expert humain a segmenté et annoté quatre textes de Maupassant qu’il a obtenu sur internet : — « L’Orient » (de Maupassant, 1883), — « Le Voleur » (de Maupassant, 1882), — « Un Fou ? » (de Maupassant, 1884) et — « Un Fou » (de Maupassant, 1885). Il a choisi de traiter des contes de Maupassant, car il estimait que ces textes étaient susceptibles de contenir les six types de discours. Il faut aussi préciser que puisque l’annotation a été une tâche difficile qui a nécessité beaucoup de temps, il n’a pu annoter que quatre textes. Pour annoter ces quatre textes, l’expert a utilisé les balises XML suivantes : . . . Balises ouvrantes et fermantes qui délimitent les propositions. Balises vides qui marquent la fin des paragraphes (ou les retours chariot).
. . .
Balises ouvrantes et fermantes qui délimitent les différents types de discours et contiennent un attribut, nommé type, indiquant le type de discours. Une valeur supplémentaire, nommée date, a été ajoutée à cet attribut pour le texte « Un Fou » ; ceci afin de délimiter les dates, ce texte étant écrit sous la forme d’un journal intime. Un exemple est présenté dans la figure 4.1 pour le texte « L’Orient » et l’ensemble des quatre textes annotés se trouve dans l’annexe A.
Je le trouvai tantôt couché sur un divan, en plein rêve d’opium. Il me tendit la main sans remuer le corps, et me dit :
Reste là, parle,
je te répondrai de temps en temps,
mais je ne bougerai point, car tu sais qu’une fois la drogue avalée il faut demeurer sur le dos.
Figure 4.1 – Extrait annoté de « L’Orient » correspondant aux lignes 14 à 29 de l’annexe A.1.4.1. Données 43 Les statistiques descriptives concernant les quatre textes annotés par l’expert humain sont données dans la table 4.1. Ces valeurs sont basées sur l’utilisation d’unigrammes. Pour les biet les trigrammes, on a supprimé les propositions composées respectivement de moins de deux ou trois occurrences selon TreeTagger (Schmid, 1994), l’outil utilisé pour annoter les textes en CMS. Ainsi, pour « L’Orient », trois propositions ont été retirées pour l’analyse basée sur des trigrammes. Concernant « Le Voleur », une proposition a été supprimée pour l’utilisation de trigrammes. Pour le texte « Un Fou ? », treize propositions ont été soustraites, à nouveau pour l’analyse avec des trigrammes. Pour le texte « Un Fou », une étape additionnelle a été effectuée. Comme déjà mentionné, des balises supplémentaires entourant les dates ont été ajoutées, car ce texte est écrit, majoritairement, sous la forme d’un journal intime et il est difficile d’attribuer les dates à l’un des six types de discours proposés. Ces dates ont donc été retirées, réduisant le nombre de proposition de 401 à 376. Finalement, deux propositions ont été retirées pour les bigrammes et dix de plus pour les trigrammes. Textes ] phrases ] prop. ] occurrences ] formes % de types de discours selon l’expert humain ponct. s/ ponct. mot CMS nar arg expl descr dial inj L’Orient 88 189 1’749 1’488 654 27 28.04 4.23 19.05 20.11 25.93 2.65 Le Voleur 102 208 1’918 1’582 667 29 61.54 4.81 4.81 12.02 13.94 2.88 Un Fou ? 150 314 2’625 2’185 764 28 33.76 18.15 14.65 10.51 14.65 8.28 Un Fou 242 376 3’065 2’548 828 29 42.55 17.82 11.70 13.83 1.86 12.23 Table 4.1 – Statistiques descriptives pour les quatre textes annotés de Maupassant. Pour le texte « Un Fou », les dates ont préalablement été retirées du texte. Nombre de phrases telles que considérées par TreeTagger (Schmid, 1994). Nombre de propositions telles que segmentées par l’expert humain. Nombre d’occurrences (tokens) incluant les ponctuations et les mots composés comme TreeTagger les a étiquetés. Nombre d’occurrences sans ponctuations, ni chiffres, et dont les mots composés sont considérés comme des occurrences séparées. Nombre de formes (types) de mots. Nombre de formes de CMS. Les dernières colonnes donnent le pourcentage de propositions pour chaque type de discours (nar = narratif, arg = argumentatif, expl = explicatif, descr = descriptif, dial = dialogal et inj = injonctif). 4.1.3 Prétraitement Par l’intermédiaire d’un programme écrit en Perl, chacun des quatre textes est transformé en trois tables de contingence, N = (nik), comptant, pour chaque proposition i délimitée par l’annotateur, le nombre nik de chaque uni-, bi- ou tri-gramme de CMS de type k. De surcroît, le type de discours de chaque proposition est extrait des textes annotés et ajouté comme une colonne supplémentaire. Dans le détail, le texte est d’abord étiqueté par TreeTagger (Schmid, 1994) à l’aide du module Perl Lingua::TreeTagger 2 . Ce dernier permet d’obtenir, pour chaque mot ou balise XML rencontrée dans le texte, respectivement la CMS du mot ou la balise XML originale, toutes regroupées sous le terme d’étiquette dans la suite de ce paragraphe. Ensuite, pour chaque étiquette, on vérifie si elle correspond, ou non, à une balise XML. S’il ne s’agit pas d’une balise XML, l’étiquette correspond à une CMS et elle est stockée dans un tableau temporaire. Sinon, l’étiquette correspond à une balise délimitant un type de discours ou une proposition. Étant donné que seules les « feuilles » de la structure hiérarchique de l’annotation sont considérées (cf. section 4.1.1.7), il n’est pas nécessaire de conserver l’entièreté de la structure de l’annotation en types de discours. Ainsi, les types de discours peuvent être sauvegardés sous la forme d’une pile (stack) 3 . Dès lors, 2. http://search.cpan.org/dist/Lingua-TreeTagger 3. Pour rappel, en informatique, une pile est une structure de données basée sur le principe de « dernier arrivé, premier sorti » (LIFO : « Last-In-First-Out »).44 4. CLASSIFICATION NON SUPERVISÉE EN TYPES DE DISCOURS — s’il s’agit d’une balise ouvrante délimitant un type de discours (
), alors le type de discours est conservé dans la pile, — s’il s’agit d’une balise ouvrante délimitant une proposition (), alors le type de discours conservé dans la pile est attribué à cette proposition, — s’il s’agit d’une balise fermante délimitant un type de discours (
), alors de dernier type de discours entré dans la pile est retiré, et — s’il s’agit d’une balise fermante délimitant une proposition (), alors les n-grammes de CMS contenus dans le tableau temporaire sont comptés et attribués à cette proposition. Cette procédure est exécutée trois fois pour chaque texte, soit une fois pour chaque longueur de n-gramme de CMS. 4.1.4 Analyse préliminaire Avant de passer à la classification non supervisée, il convient de s’assurer que la représentation des données choisie est pertinente. Pour ce faire, il va être déterminé, d’une part, s’il existe un lien général entre les types de discours et les CMS, et d’autre part, si certaines CMS sont spécifiquement présentes dans chacun des types de discours. Ceci sera fait pour les quatre textes regroupés, puis pour chaque texte pris séparément. En premier lieu, des tables de contingence spécifiant le nombre de fois que chaque CMS apparaît dans un des six types de discours sont construites pour chaque texte, puis pour les quatre textes réunis. Ceci est fait en agrégeant les propositions appartenant à un même type de discours dans les tables de contingence propositions - unigrammes de CMS préalablement construites (cf. section 4.1.3). Les cinq tables ainsi créées sont exposées dans l’annexe B, section B.1. Pour vérifier s’il existe un lien général entre les CMS et les types de discours, un test du khi2 (1.1) est effectué sur chacune de ces cinq tables, conduisant aux résultats suivants : Texte ddl khi2 valeur p 4 textes réunis 150 1100.18 < 2.2 × 10−16 L’Orient 130 304.15 5.46 × 10−16 Le Voleur 140 587.22 < 2.2 × 10−16 Un Fou ? 135 671.01 < 2.2 × 10−16 Un Fou 140 586.63 < 2.2 × 10−16 Les CMS et les types de discours sont donc significativement dépendants, que ce soit pour les quatre textes réunis ou pour chaque texte étudié séparément. Ainsi, le choix d’utiliser les CMS comme caractéristiques semble pertinent. Ensuite, pour savoir s’il existe une attraction mutuelle entre certaines CMS et certains types de discours, on calcule le quotient d’indépendance (1.2) et le khi2 ponctuel (1.3) sur les cinq tables pour chaque paire de CMS - type de discours. Les résultats pour le khi2 ponctuel sont présentés dans l’annexe B, section B.2. Quant aux quotients d’indépendance, les résultats pour les quatre textes réunis sont exposés dans la table 4.2 ; et ceux pour chacun des quatre textes, dans la table 4.3. De plus, dans ces tables, les valeurs significatives selon le khi2 ponctuel pour α = 0.1% sont marquées par une étoile 4 . Une définition de toutes les abréviations de CMS utilisées dans ces tables, ainsi que sur les figures de la section 4.2, se trouve dans l’annexe B. En considérant les quatre textes réunis (table 4.2), on observe qu’il existe une attraction mutuelle entre des CMS et des types de discours correspondant aux marques linguistiques décrites dans la section 4.1.1. Par exemple, la ponctuation de citations (PUN:cit) est, comme on pouvait s’y attendre, la CMS en attraction la plus forte avec le type dialogal. De plus, ces deux modalités sont significativement dépendantes selon le khi2 ponctuel. On remarque 4. Naturellement, un traitement inférentiel rigoureux devrait tenir compte du problème des comparaisons multiples non poursuivi ici.4.1. Données 45 nar arg expl descr dial inj ABR 2.56 0.00 0.00 0.00 0.00 0.00 ADJ 0.82 0.87 1.06 1.57* 1.02 0.86 ADV 0.93 1.12 1.13 0.80 1.04 1.37 DET:ART 0.99 1.18 0.77 1.16 0.90 0.88 DET:POS 1.21 0.95 0.95 0.84 0.79 0.70 INT 1.12 1.07 1.16 0.00 1.56 1.04 KON 0.94 1.25 1.30 0.80 0.93 0.78 NAM 1.21 0.34 0.74 1.52 0.70 1.11 NOM 0.95 1.15 0.87 1.15 0.90 1.04 NUM 1.05 1.06 0.94 1.50 0.71 0.00 PRO 2.56 0.00 0.00 0.00 0.00 0.00 PRO:DEM 0.64* 1.49 1.52 1.03 1.18 0.58 PRO:IND 0.73 1.53 1.53 1.03 1.11 0.00 PRO:PER 1.24* 0.86 1.06 0.60* 1.02 0.64 PRO:REL 0.78 1.12 1.28 1.18 1.03 1.04 PRP 1.01 1.01 1.00 1.15 0.87 0.79 PRP:det 0.63* 1.18 0.68 1.28 1.51 1.83 PUN 1.03 0.96 0.82 1.12 0.86 1.27 PUN:cit 0.00* 0.20* 0.34 0.47 4.77* 4.24* SENT 1.02 0.87 1.09 0.83 1.14 1.16 VER:cond 1.10 1.91 0.88 0.24 1.11 0.00 VER:futu 0.43 0.37 0.46 0.37 4.55* 1.44 VER:impe 0.00 0.00 0.00 0.00 0.00 17.33* VER:impf 1.22 0.50 0.43 2.27* 0.36 0.10 VER:infi 0.98 0.94 1.52 0.93 0.96 0.50 VER:pper 1.21 0.75 0.97 1.07 0.82 0.51 VER:ppre 1.61* 0.25 0.61 0.85 0.72 0.64 VER:pres 0.68* 1.20 1.46* 0.71 1.18 2.05* VER:simp 2.29* 0.25* 0.17* 0.28* 0.04* 0.00* VER:subi 0.64 0.00 5.50* 0.55 0.00 0.00 VER:subp 0.26 1.34 1.65 0.00 3.12 1.73 Table 4.2 – Quotients d’indépendance entre les CMS et les types de discours pour les quatre textes réunis. Les valeurs en gras désignent le quotient d’indépendance maximum pour chaque CMS ; celles en italique, le quotient d’indépendance maximum pour chaque type de discours ; et celles suivies d’une étoile, les valeurs significatives à α = 0.1% selon le khi2 ponctuel. aussi qu’il existe une attraction mutuelle entre les interjections (INT) et le type dialogal, ce qui semble cohérent, bien que ces CMS n’aient pas été considérées comme des marques linguistiques. Cependant, la dépendance n’est ici pas significative. Concernant le narratif, il existe une attraction mutuelle entre ce dernier et le passé simple (VER:simp) et cette dépendance est significative, ce qui correspond aux marques linguistiques retenues par l’expert humain. Il existe aussi une répulsion mutuelle entre le type narratif et la ponctuation de citation, et il s’agit d’une dépendance significative. En effet, en observant les effectifs des CMS dans les types de discours (table B.1), on remarque que c’est le seul type de discours pour lequel la ponctuation de citation n’apparaît jamais. Plus surprenant, pour ce type de discours, l’attraction mutuelle la plus importante a lieu avec les abréviations (ABR), d’une part, et les pronoms (PRO), d’autre part. Néanmoins, aucune de ces deux CMS n’est significativement dépendante de ce type de discours. En se référant à nouveau à la table B.1, on remarque que bien que ces deux CMS n’apparaissent que dans le type narratif, elles sont rares, soit une apparition pour les abréviations et deux, pour les pronoms. Ces deux pronoms apparaissent dans le texte « Un Fou » (cf. table B.2) et correspondent à des pronoms interrogatifs.46 4. CLASSIFICATION NON SUPERVISÉE EN TYPES DE DISCOURS Qui PRO qui le PRO:PER le croirait VER:cond croire ? SENT ? Figure 4.2 – Extrait étiqueté par TreeTagger d’« Un Fou », correspondant à ligne 463 de l’annexe A.4. Un exemple est présenté dans la figure 4.2. Pour l’injonctif, l’attraction mutuelle se produit, comme attendu d’après les marques linguistiques, avec l’impératif (VER:impe) et cette dépendance est significative, bien que cette CMS n’apparaisse que dans ce type de discours (table B.1). Concernant le descriptif, il est, sans surprise, en attraction mutuelle avec les adjectifs (ADJ) et les verbes à l’imparfait (VER:impf). Finalement, concernant l’argumentatif et l’explicatif, les résultats sont moins évidents à interpréter. On peut simplement constater que l’argumentatif possède l’attraction mutuelle la plus importante avec les verbes au conditionnel (VER:cond), sans que cette dépendance ne soit significative. Pour l’explicatif, l’attraction mutuelle la plus élevée est avec les verbes à l’imparfait du subjonctif (VER:subi) et il s’agit d’une dépendance significative. Néanmoins, uniquement huit occurrences de cette CMS apparaissent dans l’ensemble des quatre textes (table B.1). Au vu de ces premiers résultats, il est clair que le khi2 ponctuel et le quotient d’indépendance donnent des informations différentes, mais complémentaires, qu’il pourrait être avantageux de combiner, en particulier si l’on voulait faire une sélection de caractéristiques (feature selection). À titre d’exemple, Li et al. (2008) proposent une telle combinaison qui ne sera pas utilisée ici. Concernant les quatre textes étudiés séparément (table 4.3), une première constatation est que malgré la présence de certains points communs, il existe des différences entre ces quatre textes. En effet, on retrouve que le narratif est en attraction mutuelle avec le passé simple pour les quatre textes, et le descriptif avec l’imparfait, même s’il ne s’agit pas systématiquement de dépendances significatives. Cependant, les autres observations faites sur les quatre textes réunis sont moins évidentes ici. Par exemple, les adjectifs sont clairement en attraction mutuelle avec le descriptif pour les textes « Un Fou ? » et « Un Fou », mais cette attraction est moins évidente pour le texte « Le Voleur » et, inversement, pour le texte « L’Orient », il y a répulsion mutuelle entre les adjectifs et le descriptif. Néanmoins, dans ces deux derniers textes, on remarque une attraction mutuelle importante entre les adjectifs et l’injonctif. Aussi, on constate que les interjections sont en attraction mutuelle avec le dialogal pour les textes « L’Orient », « Le Voleur » et « Un Fou », mais avec l’injonctif pour le texte « Un Fou ? ». Quant à la ponctuation de citation, elle est en attraction mutuelle avec le dialogal et l’injonctif pour « L’Orient », mais cette attraction est plus élevée pour l’injonctif, alors qu’il existe une dépendance significative selon le khi2 avec le dialogal. On retrouve une situation analogue pour « Le Voleur », si ce n’est que dans ce texte, la dépendance entre la ponctuation de citation est significative pour les deux types de discours. Cette même CMS est clairement en attraction mutuelle avec l’injonctif pour « Un Fou ? » et avec le dialogal pour « Un Fou ». Il semble donc que ces deux types de discours se confondent, ce qui peut certainement s’expliquer par le fait que dans notre corpus, l’injonctif est, comme déjà mentionné, systématiquement inclus dans le type dialogal. Finalement, on peut remarquer que les conjonctions (KON) sont en attraction mutuelle avec l’argumentatif pour « L’Orient » et « Un Fou », alors qu’elles sont en attraction mutuelle avec l’explicatif pour « Le Voleur » et « Un Fou ? ». Ces différences entre les quatre textes peuvent probablement s’expliquer par le fait que, bien que les quatre textes soient des contes du même auteur, leur forme varie. Par exemple, comme déjà mentionné plus haut, « Un Fou » est écrit sous la forme d’un journal intime et comporte4.1. Données 47 « L’Orient » « Le Voleur » nar arg expl descr dial inj nar arg expl descr dial inj ABR ADJ 0.93 0.34 1.00 0.93 1.15 1.67 1.00 1.21 0.27 1.32 0.73 2.08 ADV 1.56 1.02 1.09 0.64 0.79 1.01 0.86 2.11 0.56 1.20 1.17 0.97 DET:ART 0.84 1.18 0.95 1.19 1.05 0.00 1.09 1.01 0.34 1.23 0.70 0.58 DET:POS 0.55 2.31 0.86 0.40 1.24 5.67* 1.03 1.35 2.40 0.45 0.93 0.00 INT 0.00 0.00 0.00 0.00 3.09 0.00 0.00 0.00 0.00 0.00 7.21* 0.00 KON 1.11 1.37 0.92 0.50 1.19 1.35 0.96 1.30 2.33 1.05 0.63 0.00 NAM 0.77 0.00 1.79 1.25 0.77 0.00 1.00 0.99 0.89 1.83 0.34 0.00 NOM 0.79 1.24 0.89 1.24 1.03 0.80 1.06 0.91 0.81 0.94 0.91 0.87 NUM 1.43 2.40 0.34 1.25 0.77 0.00 1.20 0.00 0.00 2.00 0.00 0.00 PRO PRO:DEM 0.63 0.00 1.67 1.73 0.64 0.00 0.58 1.81 0.00 1.52 2.51 0.00 PRO:IND 0.26 0.00 1.49 0.84 1.55 0.00 1.01 4.17 1.86 0.70 0.00 0.00 PRO:PER 1.75* 0.94 0.89 0.61 0.83 0.58 1.06 1.08 1.23 0.66 1.05 0.45 PRO:REL 0.51 0.00 1.49 1.39 1.03 0.00 1.10 2.41 0.72 0.81 0.55 0.00 PRP 0.90 1.17 1.15 0.86 1.06 0.86 1.09 0.72 1.28 1.05 0.54 1.10 PRP:det 0.43 1.09 0.61 1.51 1.34 0.00 0.84 0.00 0.72 1.08 1.94 1.84 PUN 0.96 0.98 0.79 1.24 0.96 1.51 1.16 0.53 1.05 1.01 0.48 0.74 PUN:cit 0.00 1.83 0.00 0.48 2.21* 4.50 0.00* 0.43 1.52 0.14 5.15* 7.83* SENT 1.15 0.87 1.16 1.03 0.77 1.61 0.84 0.82 0.73 0.96 1.77 1.88 VER:cond 1.53 0.00 3.59 0.00 0.00 0.00 0.56 0.00 0.00 2.33 2.40 0.00 VER:futu 0.00 0.92 0.26 0.24 2.65* 0.00 0.00 6.95 0.00 0.00 4.81 0.00 VER:impe 0.00 0.00 0.00 0.00 0.00 47.95* VER:impf 1.53 0.00 0.90 1.67 0.52 0.00 0.73 0.87 1.16 2.92* 0.30 0.00 VER:infi 0.39 1.10 2.61* 0.72 0.71 0.00 0.77 1.25 1.49 1.12 1.73 0.00 VER:pper 1.00 1.20 0.84 0.78 1.26 0.00 1.01 0.39 1.76 1.45 0.54 0.00 VER:ppre 0.00 0.00 1.54 0.72 1.77 0.00 1.58 0.00 0.00 0.41 0.00 0.00 VER:pres 1.05 0.95 1.19 1.31 0.58* 2.32 0.26* 1.81 1.62 0.61 3.45* 5.21* VER:simp 4.59* 0.00 0.00 0.00 0.00 0.00 1.51* 0.58 0.70 0.26 0.00* 0.00 VER:subi 1.68 0.00 0.00 0.00 0.00 0.00 VER:subp 0.00 0.00 0.00 0.00 3.09 0.00 0.00 20.85* 0.00 0.00 0.00 0.00 « Un Fou ? » « Un Fou » nar arg expl descr dial inj nar arg expl descr dial inj ABR 2.59 0.00 0.00 0.00 0.00 0.00 ADJ 0.93 1.11 1.08 1.90* 0.39 0.18 0.68 0.77 1.06 2.03* 1.37 0.93 ADV 0.77 1.13 1.43 0.60 1.31 0.95 0.94 0.92 0.86 0.86 1.74 1.56 DET:ART 1.02 1.36 0.45 1.35 0.77 0.78 0.90 1.17 1.11 0.96 0.50 1.04 DET:POS 1.70* 0.93 0.69 0.38 0.00 0.95 1.09 0.70 0.90 1.75 1.36 0.20 INT 0.23 1.22 1.09 0.00 2.06 5.56* 1.65 0.68 1.53 0.00 3.72 0.00 KON 0.92 1.21 1.51 0.69 0.83 0.17 0.89 1.22 0.91 0.99 0.50 1.09 NAM 1.55 0.61 0.00 0.56 1.03 2.78 0.32 0.00 1.26 2.27 0.00 3.33 NOM 1.06 1.23 0.76 1.18 0.56 1.04 0.86 1.16 0.98 1.12 0.64 1.06 NUM 1.38 1.46 0.00 1.79 0.00 0.00 0.71 0.82 3.68 1.10 0.00 0.00 PRO 2.59 0.00 0.00 0.00 0.00 0.00 PRO:DEM 0.20* 1.76 1.51 1.04 1.56 0.64 1.25 1.01 1.40 0.52 0.00 0.61 PRO:IND 1.01 1.03 1.71 0.94 0.43 0.00 0.68 1.96 0.88 1.32 0.00 0.00 PRO:PER 1.12 0.75 1.19 0.75 1.21 0.60 1.36* 0.94 0.89 0.46* 1.12 0.75 PRO:REL 0.74 1.31 1.27 0.44 1.61 0.54 0.77 0.99 1.11 1.42 0.00 1.25 PRP 1.22 0.93 0.94 0.93 0.78 0.50 0.81 1.15 0.79 1.54* 0.24 0.87 PRP:det 0.92 1.44 0.72 1.33 0.92 0.00 0.61 1.34 0.63 0.85 0.00 2.36* PUN 1.01 1.11 0.81 0.96 0.88 1.50 0.90 0.87 0.79 1.25 1.96 1.26 PUN:cit 0.00* 0.00 0.00 1.49 2.06 12.98* 0.00 0.00 0.00 0.00 61.30* 0.00 SENT 0.72 0.88 1.00 1.13 1.60 1.93 1.29* 0.76 1.30 0.55 2.28 0.70 VER:cond 0.00 2.78 0.93 0.00 2.36 0.00 1.73 1.20 0.00 0.00 4.09 0.00 VER:futu 0.00 0.00 3.26 0.00 4.13 0.00 1.56 0.00 0.00 0.61 0.00 2.67 VER:impe VER:impf 1.38 0.30 0.39 2.85* 0.50 0.00 1.30 0.59 0.19 1.91 1.14 0.16 VER:infi 1.34 0.30 1.22 0.78 1.44 0.00 0.95 1.17 1.35 1.03 0.00 0.63 VER:pper 0.90 0.11 1.51 2.08 1.54 0.00 1.40* 0.94 0.73 0.71 0.00 0.56 VER:ppre 2.10* 0.23 0.62 0.43 0.39 0.00 0.58 0.50 0.00 2.69 0.00 1.97 VER:pres 0.40* 1.23 1.42 0.30 1.97* 2.50* 1.02 1.00 1.46 0.46* 0.28 1.44 VER:simp 2.33* 0.33 0.00* 0.61 0.14 0.00 2.59 0.00 0.00 0.00 0.00 0.00 VER:subi 0.50 0.00 4.74* 0.81 0.00 0.00 VER:subp 0.00 0.00 0.00 0.00 8.25* 0.00 0.52 0.90 4.05 0.00 0.00 1.78 Table 4.3 – Quotients d’indépendance entre les CMS et les types de discours pour chaque texte considéré séparément. Les valeurs en gras désignent le quotient d’indépendance maximum pour chaque CMS ; celles en italique, le quotient d’indépendance maximum pour chaque type de discours ; et celles suivies d’une étoile, les valeurs significatives à α = 0.1% selon le khi2 ponctuel. donc un grand nombre de verbes au présent, aussi dans les types narratifs et descriptifs. Le texte « L’Orient » contient aussi plusieurs longs monologues écrits au présent. Au vu de ces48 4. CLASSIFICATION NON SUPERVISÉE EN TYPES DE DISCOURS différences, les quatre textes seront systématiquement étudiés séparément et non plus réunis dans la suite de ce chapitre. 4.2 Visualisation 4.2.1 Propositions et CMS Les données étant représentées sous la forme de tables de contingence croisant les propositions et les n-grammes de CMS (ici seuls les unigrammes de CMS sont traités), il est possible d’y appliquer l’analyse factorielle des correspondances (AFC) (cf. section 1.4). Pour ce faire, il est possible de calculer les dissimilarités du khi2, puis d’effectuer un MDS sur ces dernières. Il est aussi possible d’utiliser directement un logiciel dédié qui se base sur la décomposition spectrale de la matrice des variances-covariances. La seconde solution a été adoptée ici, avec le package « ca » de R (Nenadic et Greenacre, 2007). Plus précisément, afin d’obtenir des résultats identiques à ceux qui seraient produits par le MDS, on utilise, pour créer les biplots, les coordonnées dites principales, extraites grâce à la fonction « summary », au lieu des coordonnées dites standardisées qui sont produites par défaut (Nenadic et Greenacre, 2007). Les résultats ainsi obtenus sont présentés dans les figures 4.3 à 4.6. -3000 -2000 -1000 0 1000 -2000 -1000 0 1000 Premier axe factoriel 10.07 % Deuxième axe factoriel 8.09 % argumentatif descriptif dialogal explicatif injonctif narratif -3000 -2000 -1000 0 1000 -2000 -1000 0 1000 Premier axe factoriel 10.07 % Deuxième axe factoriel 8.09 % PRO:IND VER:ppre PUN:cit VER:impf VER:simp NUM SENT VER:cond VER:pper PRO:PER VER:futu NAM NOM PRP PRP:det ADV DET:POS INT DET:ART PRO:DEM PRO:REL ADJ VER:pres VER:infi KON VER:subp PUN -1000 -500 0 500 -1000 -500 0 500 1000 Premier axe factoriel 10.07 % Deuxième axe factoriel 8.09 % -1000 -500 0 500 -1000 -500 0 500 1000 Premier axe factoriel 10.07 % Deuxième axe factoriel 8.09 % PRO:IND VER:ppre PUN:cit VER:impf NUM SENT VER:cond VER:pper PRO:PER VER:futu NAM NOMPRP PRP:det ADV DET:POS INT DET:ART PRO:DEM PRO:REL ADJ VER:pres VER:infi KON VER:subp PUN Figure 4.3 – AFC sur « L’Orient ». Coordonnées factorielles des propositions (en haut à gauche) et des unigrammes de CMS (en haut à droite). En bas : zoom sur le centre des figures du haut.4.2. Visualisation 49 Un premier constat est que l’inertie expliquée par les deux premiers facteurs est assez faible pour les quatre textes, systématiquement inférieure à 20 % et il n’est donc pas évident d’interpréter ces biplots. Il est tout de moins possible de remarquer quelques tendances. La figure 4.3 montre le résultat de l’AFC sur le texte « L’Orient ». Bien qu’il soit difficile de distinguer clairement des groupes, la vue d’ensemble (figures en haut) montre que les deux axes différencient principalement le passé simple des autres CMS (figure droite). Le passé simple, qui marque le narratif (cf. sections 4.1.1.1 et 4.1.4), est en attraction mutuelle avec les propositions narratives (figure gauche, quadrant sud-ouest). Concernant, les AFC agrandies (figures en bas), il est difficile de distinguer des groupes. Néanmoins, on remarque une concentration plus élevée de propositions de type dialogal dans le quadrant sud-est (figure gauche) qui sont certainement en attraction mutuelle avec la ponctuation de citation, les verbes au futur (VER:futu), les verbes au participe présent (VER:ppre) et les verbes au subjonctif présent (VER:subp) (cf. table 4.3). 0 2000 4000 6000 0 5000 10000 15000 Premier axe factoriel 11.14 % Deuxième axe factoriel 7.32 % argumentatif descriptif dialogal explicatif injonctif narratif 0 2000 4000 6000 0 5000 10000 15000 Premier axe factoriel 11.14 % VER:ppre Deuxième axe factoriel 7.32 % VER:subi PRO:IND PUN:cit VER:impf VER:simp NUM SENT VER:cond VER:pper PRO:PER NAM NOM VER:futu VER:impe PRP PRP:det ADV INT DET:ART DET:POS PRO:REL PRO:DEM ADJ VER:infi VER:pres KON VER:subp PUN -500 0 500 1000 1500 -3000 -2000 -1000 0 Premier axe factoriel 11.14 % Deuxième axe factoriel 7.32 % -500 0 500 1000 1500 -3000 -2000 -1000 0 Premier axe factoriel 11.14 % Deuxième axe factoriel 7.32 % PRO:IND VER:ppre VER:subi VER:impf VER:simp NUM SENT VER:cond VER:pper PRO:PER NAMNOM VER:futu PRP PRP:det ADV DET:ART DET:POS PRO:DEM PRO:REL ADJ VER:infi VER:pres KON PUN VER:subp Figure 4.4 – AFC sur « Le Voleur ». Coordonnées factorielles des propositions (en haut à gauche) et des unigrammes de CMS (en haut à droite). En bas : zoom sur le centre des figures du haut. Concernant le texte « Le Voleur » (figure 4.4), on observe, pour les CMS (figure en haut, à droite), que le premier axe différencie les verbes à l’impératif, marque linguistique de l’injonctif (cf. section 4.1.1.6) et les interjections, souvent présentes dans le type dialogal (cf. section 4.1.4), des autres CMS. Quant au second axe, il différencie à nouveau les verbes à l’impératif des autres CMS. Cependant, il est difficile de distinguer des groupes de types de discours (figure en haut, à50 4. CLASSIFICATION NON SUPERVISÉE EN TYPES DE DISCOURS gauche). En observant le figure agrandie sur les propositions (en bas, à gauche), le premier axe factoriel différencie les propositions dialogales et injonctives (à l’est) des propositions narratives (à l’ouest). Ce contraste est certainement en relation avec la présence des interjections et de la ponctuation de citation dans la zone est (figure en haut à droite). À nouveau, on constate que le type injonctif et le type dialogal sont difficiles à distinguer dans notre corpus. -4000 -3000 -2000 -1000 0 -2000 0 2000 4000 6000 Premier axe factoriel 9.76 % Deuxième axe factoriel 8.71 % argumentatif descriptif dialogal explicatif injonctif narratif -4000 -3000 -2000 -1000 0 -2000 0 2000 4000 6000 Premier axe factoriel 9.76 % Deuxième axe factoriel 8.71 % PRO:IND VER:ppre PUN:cit VER:subi NUM VER:impf VER:simp SENT VER:cond PRO:PER VER:pper VER:futu NOM NAM ADV PRP PRP:det INT DET:ART DET:POS PRO:DEM PRO:RELADJ VER:pres VER:subpPUN KONVER:infi -1000 -500 0 500 -400 -200 0 200 400 Premier axe factoriel 9.76 % Deuxième axe factoriel 8.71 % -1000 -500 0 500 -400 -200 0 200 400 Premier axe factoriel 9.76 % Deuxième axe factoriel 8.71 % PRO:IND VER:ppre VER:subi VER:impf VER:simp NUM SENT VER:cond VER:pper PRO:PER VER:futu NOM NAM PRP PRP:det ADV DET:POS DET:ART PRO:DEM PRO:REL ADJ VER:pres VER:infi KON VER:subp PUN Figure 4.5 – AFC sur « Un Fou ? ». Coordonnées factorielles des propositions (en haut à gauche) et des unigrammes de CMS (en haut à droite). En bas : zoom sur le centre des figures du haut. Sur la figure 4.5, pour le texte « Un Fou ? », on observe sur la vue d’ensemble pour les propositions (figure en haut à gauche) un détachement de propositions injonctives dans le quadrant sud-ouest. On constate aussi la présence de ponctuation de citation dans ce même quadrant (fi- gure en haut à droite), qui est en attraction mutuelle avec ce type dans ce texte (cf. table 4.3). Sur la figure agrandie pour les propositions (figure en bas à gauche), les propositions narratives se concentrent dans la zone est du graphique et sont certainement en attraction mutuelle avec les verbes au passé simple dans le quadrant nord-est (figure en bas à droite). Concernant le texte « Un Fou » (figure 4.6), il est nettement plus difficile de distinguer les six types de discours que pour les autres textes. On peut tout de même remarquer (figure en haut à droite) que le premier axe différencie les interjections des autres CMS ; et le second axe, les pronoms (PRO), des autres CMS. Aussi, quelques CMS, soit les chiffres (NUM), la ponctuation marquant la fin d’une phrase (SENT), la ponctuation de citation, les abréviations et les verbes4.2. Visualisation 51 -5000 -4000 -3000 -2000 -1000 0 0 5000 10000 15000 Premier axe factoriel 10.57 % Deuxième axe factoriel 8.45 % argumentatif descriptif dialogal explicatif injonctif narratif -5000 -4000 -3000 -2000 -1000 0 0 5000 10000 15000 Premier axe factoriel 10.57 % Deuxième axe factoriel 8.45 % PRO:IND PRO PUN:cit VER:ppre VER:impf SENT NUMVER:simp VER:cond PRO:PER VER:pper VER:futu NOM PRP PRP:det NAM ADV INT DET:ART DET:POS ABR PRO:DEM PRO:REL ADJ KON VER:pres VER:infi VER:subp PUN -600 -400 -200 0 200 400 -500 0 500 1000 Premier axe factoriel 10.57 % Deuxième axe factoriel 8.45 % -600 -400 -200 0 200 400 -500 0 500 1000 Premier axe factoriel 10.57 % Deuxième axe factoriel 8.45 % PRO:INDVER:ppre VER:impf VER:simp NUM PRO:PER VER:pper VER:futu NAM NOMPRP PRP:det ADV DET:ART DET:POS PRO:DEM ADJ PRO:REL VER:pres VER:infi KON VER:subp PUN Figure 4.6 – AFC sur « Un Fou ». Coordonnées factorielles des propositions (en haut à gauche) et des unigrammes de CMS (en haut à droite). En bas : zoom sur le centre des figures du haut. au conditionnel, se distinguent du rassemblement compact des autres CMS au centre (figure en bas à droite). Par conséquent (figure en haut à gauche), quelques propositions se détachent du noyau central, mais n’étant pas toutes du même type, il est difficile d’en proposer une interprétation. En conclusion, cette section a permis de visualiser les observations déjà décrites numériquement dans la section 4.1.4. Ainsi, on constate à nouveau des différences pour ces quatre textes et on remarque, en utilisant uniquement les deux premières dimensions, qu’il n’est pas simple de distinguer les six types de discours et que cette difficulté varie selon les textes, mais aussi selon les types de discours. Naturellement, il serait aussi possible, sur ces figures, de visualiser les résultats obtenus avec les classifications automatiques présentées dans la section 4.3. Trois exemples de classification non supervisée pour le texte « Un Fou ? » sont présentés dans les articles suivant : Cocco et al. (2011) avec l’algorithme K-means flou et 8 groupes après agrégation, et Cocco (2012a) avec l’algorithme K-means, dur et flou, et 6 groupes. 4.2.2 Types de discours et CMS avec bootstrap Comme il a été possible de représenter les tables de contingence croisant les CMS et les propositions grâce à l’AFC, il est aussi possible de le faire avec les tables de contingence croisant52 4. CLASSIFICATION NON SUPERVISÉE EN TYPES DE DISCOURS les CMS et les types de discours, constitués de groupes de propositions, présentées dans l’annexe B.1 et analysées dans la section 4.1.4. Les graphiques présentés dans cette section ont été créés avec le logiciel Dtm-Vic 5 pour pouvoir valider les résultats par la technique du bootstrap qui y est intégrée. Le bootstrap est une méthode empirique de validation d’un paramètre (ou estimateur) basée sur le rééchantillonnage (voir par exemple Efron et Tibshirani, 1993). Le principe consiste à créer plusieurs nouveaux échantillons de même taille que l’échantillon de départ par un tirage avec remise dans cet échantillon de départ, puis de calculer le paramètre sur ces nouveaux échantillons afin de simuler sa distribution. Il est alors possible de déterminer l’intervalle de confiance dudit paramètre (voir par exemple Saporta, 2006, section 15.3.1 ; Lebart et al., 1995, section 4.2.2). En particulier, pour l’AFC, plusieurs tables de contingence sont créées en tirant n•• observations de la table de contingence initiale avec remise. Ceci est équivalent à faire un tirage selon une loi multinomiale de probabilité pij = nij/n•• (Lebart et al., 1995, section 4.2.3.a). Ensuite, pour construire des intervalles de confiance, qui seront ici des ellipses de confiance, il existe deux possibilités : projeter les modalités des nouvelles tables en tant que variables supplémentaires sur l’AFC produite avec la table initiale (bootstrap partiel) ; ou refaire une AFC pour chaque nouvelle table (bootstrap total) (voir par exemple Lebart, 2007; Dupuis et Lebart, 2009). La première solution a été adoptée ici en utilisant 30 réplications de la table d’origine. Précisons encore que l’on n’a pas pratiqué le bootstrap sur les tables de contingence propositions - CMS utilisées dans la section précédente, à cause du caractère creux de ces dernières, susceptible de ne pas permettre le rééchantillonnage de certaines modalités qui seraient alors supprimées avant l’application du bootstrap. Figure 4.7 – AFC sur « L’Orient » entre les CMS et les types de discours avec validation par bootstrap. Inertie expliquée par le premier axe factoriel : 46.73% ; et par le deuxième : 24.99%. Les figures 4.7 à 4.10 présentent les résultats pour les quatre contes étudiés. À nouveau, les 5. Ce logiciel peut être librement téléchargé sur le site de Ludovic Lebart : http://www.dtmvic.com/.4.2. Visualisation 53 visualisations obtenues sont différentes pour chacun des textes. Aussi, étant donné que ces tables de contingence comportent moins de modalités que celles utilisées dans la section 4.2.1, l’inertie expliquée par les deux premiers facteurs est plus élevée, soit systématiquement supérieure à 70%. Le résultat obtenu pour le texte « L’Orient » est présenté dans la figure 4.7. Pour commencer, on constate que les CMS ont des positions relativement similaires à celles de la figure 4.3. Rappelons que les tables utilisées dans cette section sont des agrégations des tables utilisées dans la section 4.2.1 par rapport aux types de discours. En d’autres termes, les types de discours représentés sur les figures de cette section sont les moyennes des propositions appartenant à ces types de discours. Concernant les types de discours de ce texte (figure 4.7, haut), la validation nous donne des informations supplémentaires à celles que l’on aurait obtenues par une AFC simple d’une part ; et à celles obtenues dans la section 4.1.4 d’autre part. Par exemple, on constate que les types de discours argumentatif et injonctif ne sont pas significativement différents de l’origine, associée au profil du « type de discours moyen ». Cela signifie que ces types de discours et les CMS ne sont pas significativement dépendants. À l’inverse, les types narratif, explicatif, dialogal et descriptif sont significativement différents de l’origine, et donc significativement dépendants des CMS. De plus, on observe l’absence d’intersection entre les ellipses de confiance de ces types qui sont donc bien différenciés selon les CMS qu’ils contiennent. Les ellipses de confiance obtenues pour les CMS sont plus difficiles à distinguer, car elles sont nombreuses (figure 4.7, bas). On peut néanmoins remarquer qu’elles ne sont jamais isolées et qu’il existe donc une continuité entre elles. On constate aussi, par exemple, que la ponctuation de citation et les verbes au futur sont significativement différents de l’origine. Figure 4.8 – AFC sur « Le Voleur » entre les CMS et les types de discours avec validation par bootstrap. Inertie expliquée par le premier axe factoriel : 65.29% ; et par le deuxième : 12.53%.54 4. CLASSIFICATION NON SUPERVISÉE EN TYPES DE DISCOURS Les positions des CMS pour le texte « Le Voleur » de la figure 4.8 sont à nouveau assez similaires à celles de la figure 4.4, quoique ce soit moins évident que pour le texte « L’Orient ». Au sujet des types de discours (figure 4.8, haut), on observe que les types de discours injonctif, dialogal, argumentatif, descriptif et narratif sont significativement différents de l’origine. Seul le type explicatif ne l’est pas. Aussi, le type narratif est isolé des autres et il est stable, au sens de faiblement variable. L’ellipse de confiance du type dialogal est quasiment incluse dans l’ellipse de confiance du type injonctif, ce qui confirme à nouveau que ces deux types sont relativement similaires. Les ellipses de confiance des types descriptif, argumentatif et explicatif se chevauchent aussi et ne sont donc pas clairement distincts par rapport aux CMS. Concernant les CMS (figure 4.8, bas), il est à nouveau difficile de les distinguer. Cependant, on remarque que les verbes au présent (VER:pres) et la ponctuation de citation sont significativement différents de l’origine et sont en attraction mutuelle avec les types injonctif et dialogal, ce que l’on pouvait déjà observer dans la table 4.3. Figure 4.9 – AFC sur « Un Fou ? » entre les CMS et les types de discours avec validation par bootstrap. Inertie expliquée par le premier axe factoriel : 46.20% ; et par le deuxième : 25.00%. À nouveau, on remarque que la configuration des CMS de la figure 4.9 partage des similitudes avec celle de la figure 4.5, avec tout de même quelques différences importantes. Concernant les types de discours (figure 4.9, haut), ils sont tous significativement différents de l’origine et donc dépendants des CMS. De plus, il n’y a aucune intersection entre toutes les ellipses de confiance de ces types de discours, ils sont donc clairement distincts. Concernant les CMS, on constate, par exemple, que les interjections et la ponctuation de citation sont significativement différentes de l’origine. Cependant, les ellipses de confiance sont étendues et donc ces CMS ne sont pas stables. Quant aux verbes au présent et au conditionnel, ils sont aussi significativement différents de l’origine, mais ils sont plus stables que les deux autres CMS. Finalement, la figure 4.10 présente les résultats obtenus pour le texte « Un Fou ». Pour ce4.3. Classification non supervisée et résultats 55 Figure 4.10 – AFC sur « Un Fou » entre les CMS et les types de discours avec validation par bootstrap. Inertie expliquée par le premier axe factoriel : 47.79% ; et par le deuxième : 27.06%. dernier texte, le représentation des CMS est très différente à celle de la figure 4.6. Tous les types de discours sont significativement différents de l’origine. La grande différence entre le type dialogal et les autres types est que pour le premier, l’ellipse de confiance est très étendue et donc que ce type n’est pas très stable. Concernant les CMS, on peut distinguer que les interjections, les verbes au conditionnel et les les adjectifs sont significativement différents de l’origine. De plus, ce dernier est en attraction mutuelle avec le type descriptif, comme il avait déjà été observé dans la section 4.1.4. 4.3 Classification non supervisée et résultats En premier lieu, les tables de contingence, croisant propositions et n-grammes de CMS (cf. section 4.1.3), sont transformées par (1.6) en matrices de dissimilarités du khi2 entre les propositions D = (Dij ). Cette étape est effectuée pour chacun des quatre textes et pour chaque longueur de n-gramme de CMS, soit les uni-, bi- et trigrammes. Ensuite, deux méthodes de classification non supervisée (présentées dans la section 2.1) sont utilisées : l’algorithme Kmeans (section 4.3.1) et l’algorithme K-means flou (section 4.3.2). Leurs résultats sont évalués au moyen d’indices d’accord entre partitions. 4.3.1 K-means 4.3.1.1 Choix des paramètres Pour effectuer l’algorithme K-means, la matrice de dissimilarités du khi2 est utilisée avec l’algorithme tel qu’il est décrit dans la section 2.1.2, en y incluant les transformations de puissance56 4. CLASSIFICATION NON SUPERVISÉE EN TYPES DE DISCOURS de Schoenberg. Plus particulièrement, l’algorithme K-means a été appliqué aux quatre textes, considérés séparément, pour les uni-, bi- et trigrammes de CMS. La principale visée de cette classification non supervisée étant de retrouver les 6 types de discours, on choisit un nombre de groupes m = 6. Aussi, le nombre d’itérations maximal est fixé à Nmax = 400. 6 Concernant la transformation de puissance (1.22), la puissance q varie de 0.1 à 1, avec des incréments de 0.05. Ainsi, la méthode K-means est effectuée pour les 4 textes avec les 3 longueurs de n-gramme différentes, pour 19 valeurs de q, ce qui conduit à 228 cas différents. Il faut encore noter que, puisque la solution de l’algorithme K-means dépend de la position initiale des centres, déterminée ici par la matrice Z, générée aléatoirement, chaque cas est calculé 300 fois et l’on prend ensuite la moyenne des résultats obtenus pour chacun des cas. Plus précisément, pour chacun des résultats, l’indice de Jaccard (2.11), J, et l’indice de Rand corrigé (2.12), RC, sont calculés sur la table de contingence croisant les effectifs des propositions catégorisées en 6 groupes par l’annotateur et classifiées en 6 groupes selon l’algorithme. Puis, la moyenne de ces résultats, pour chaque cas, est calculée. Une version de la méthode K-means, non pondérée, a aussi été testée en posant fi = 1/n pour le calcul de f g j dans (2.6). Les résultats ainsi obtenus sont exposés dans l’article de Cocco et al. (2011). 4.3.1.2 Résultats Les moyennes des résultats, obtenus pour J et RC en fonction de q avec l’algorithme K-means, sont présentées dans les figures 4.11 à 4.14, sans les écarts-types. Les figures « complètes », avec les écarts-types des deux indices d’accord entre partitions, se trouvent dans l’annexe C, section C.1.1. 1.0 0.8 0.6 0.4 0.2 0.00 0.01 0.02 0.03 0.04 0.05 Puissance (q) Indice de Rand corrigé 1.0 0.8 0.6 0.4 0.2 0.11 0.12 0.13 0.14 0.15 0.16 0.17 Puissance (q) Indice de Jaccard Figure 4.11 – « L’Orient » avec l’algorithme K-means. Indice de Rand corrigé (gauche) et de Jaccard (droite) en fonction de la puissance q. (◦ = unigrammes, 4 = bigrammes et × = trigrammes). Pour rappel, q = 1 est équivalent à ne pas effectuer de transformation. Deux premières constatations sont évidentes. Premièrement, les résultats obtenus pour les quatre textes sont différents, comme le laisser supposer les liens entre les CMS et les types de discours (cf. sections 4.1.4 et 4.2). Deuxièmement, les deux indices d’accord entre partitions choisis produisent des résultats très différents. Cette différence entre les deux indices découle 6. Cette valeur n’est jamais atteinte, car la solution se stabilise rapidement (le nombre d’itérations maximum observé sur l’ensemble des résultats jusqu’à stabilisation de la solution est de 46).4.3. Classification non supervisée et résultats 57 certainement du fait que l’indice de Jaccard ne considère pas le nombre de paires simultanément séparées dans les deux partitions (Milligan et Cooper, 1986). Cependant, on remarque aussi des régularités. Par exemple, concernant les textes « L’Orient », « Le Voleur » et « Un Fou ? », avec l’indice de Rand corrigé (graphiques de gauche des figures 4.11, 4.12 et 4.13), les unigrammes produisent les meilleurs résultats ; et les trigrammes, les moins bons résultats en général. Pour le texte « Le Voleur » (figure 4.12, droite), avec l’indice de Jaccard, les unigrammes révèlent aussi de meilleurs résultats. 1.0 0.8 0.6 0.4 0.2 -0.05 0.00 0.05 0.10 0.15 Puissance (q) Indice de Rand corrigé 1.0 0.8 0.6 0.4 0.2 0.14 0.16 0.18 0.20 0.22 Puissance (q) Indice de Jaccard Figure 4.12 – « Le Voleur » avec l’algorithme K-means. Indice de Rand corrigé (gauche) et de Jaccard (droite) en fonction de la puissance q. (◦ = unigrammes, 4 = bigrammes et × = trigrammes). Concernant l’indice de Jaccard avec les trois autres textes, soit « L’Orient », « Un Fou ? » et « Un Fou » (graphiques de droite des figures 4.11, 4.13 et 4.14), on constate que les trigrammes engendrent de meilleurs résultats pour des valeurs faibles de q et que la tendance s’inverse, avec les meilleurs résultats pour les unigrammes, lorsque q > 0.65, respectivement 0.45 et 0.7. 1.0 0.8 0.6 0.4 0.2 -0.02 0.00 0.02 0.04 0.06 0.08 Puissance (q) Indice de Rand corrigé 1.0 0.8 0.6 0.4 0.2 0.11 0.12 0.13 0.14 0.15 0.16 0.17 Puissance (q) Indice de Jaccard Figure 4.13 – « Un Fou ? » avec l’algorithme K-means. Indice de Rand corrigé (gauche) et de Jaccard (droite) en fonction de la puissance q. (◦ = unigrammes, 4 = bigrammes et × = trigrammes). Avec l’indice de Rand corrigé, on observe aussi que les transformations de puissance semblent58 4. CLASSIFICATION NON SUPERVISÉE EN TYPES DE DISCOURS améliorer les résultats. En effet, le meilleur résultat obtenu pour « L’Orient » (figure 4.11, gauche), avec les unigrammes, est RC = 0.048 pour q = 0.55 ; pour « Le Voleur » (figure 4.12, gauche), RC = 0.125 pour q = 0.95 ; pour « Un Fou ? » (figure 4.13, gauche), RC = 0.072 pour q = 0.85 ; et pour « Un Fou » (figure 4.14, gauche), RC = 0.046 pour q = 0.25, mais cette fois pour les trigrammes. De plus, que ce soit pour les uni-, les bi- ou les trigrammes de CMS dans ce dernier texte, l’introduction de la transformation de puissance améliore systématiquement les résultats au regard de l’indice de Rand corrigé. 1.0 0.8 0.6 0.4 0.2 0.00 0.01 0.02 0.03 0.04 0.05 Puissance (q) Indice de Rand corrigé 1.0 0.8 0.6 0.4 0.2 0.12 0.14 0.16 0.18 Puissance (q) Indice de Jaccard Figure 4.14 – « Un Fou » avec l’algorithme K-means. Indice de Rand corrigé (gauche) et de Jaccard (droite) en fonction de la puissance q. (◦ = unigrammes, 4 = bigrammes et × = trigrammes). Finalement, il est difficile de comparer les résultats et beaucoup de différences subsistent entre les indices d’accord entre partitions. Cependant, malgré ces différences, les résultats sont toujours meilleurs pour le texte « Le Voleur », et ce avec les deux indices utilisés. Comme déjà mentionné (cf. section 2.3.1), il existe d’autres indices. À titre d’exemple, les mêmes essais ont été faits en comparant les partitions par le biais du V de Cramer et les résultats sont présentés dans la section C.1.2 de l’annexe. Derechef, les résultats les plus élevés sont obtenus, lorsque l’on considère des unigrammes de CMS, pour le texte « Le Voleur ». 4.3.2 K-means flou 4.3.2.1 Choix de paramètres Pour appliquer l’algorithme K-means flou, on utilise, à nouveau, pour chaque texte et pour chaque longueur de n-gramme de CMS différente, la matrice des dissimilarités du khi2, D (cf. introduction de cette section 4.3). L’algorithme K-means flou, tel qu’il est présenté dans la section 2.1.3, est appliqué sur chacune de ces matrices D. En particulier, pour chaque texte, le nombre de groupes de départ, m, est choisi égal au nombre n de propositions présentes dans chacun des textes. Ainsi, le nombre de groupes final après agrégation, M, est déterminé uniquement par la température relative, trel. Après plusieurs essais, on choisit de faire varier cette dernière entre 0.022 et 0.3, avec des incréments de 0.001. Concernant le texte « Un Fou », qui contient plus de propositions (table 4.1), on choisit de faire varier trel entre 0.02 et 0.3, avec des incréments de 0.01, pour maintenir un temps de calcul raisonnable. À nouveau, le nombre d’itérations maximum a été fixé à Nmax = 400. Contrairement à la méthode K-means (dur), cette valeur est parfois atteinte, car la solution semble se stabiliser4.3. Classification non supervisée et résultats 59 plus lentement, en particulier lorsque les valeurs de trel sont basses, mais pas forcément pour les valeurs minimales choisies. Finalement, pour chaque trel, l’algorithme a été exécuté 20 fois, puis les moyennes des indices d’accord entre partitions, J et RC, ont été calculées. Il faut préciser que les 20 exécutions n’ont pas systématiquement abouti à un résultat, car deux problèmes d’instabilités numériques différents ont été détectés. Le premier se produit lors de la seconde itération si les valeurs de trel sont trop petites ; et le second, lors de l’agrégation des m groupes en M groupes avec le critère de fusion des groupes (cf. section 2.1.3). Ces instabilités numériques étant rares, les résultats ont simplement été supprimés, sans être recalculés. 4.3.2.2 Résultats Les figures 4.15 à 4.22 présentent un résumé des résultats obtenus en appliquant l’algorithme K-means flou sur les quatre textes. Sur toutes ces figures, les graphiques de droite présentent un indice d’accord entre partitions en fonction du nombre de groupes final M. En réalité, il s’agit d’une représentation paramétrique de la moyenne de l’indice d’accord entre partitions et de la moyenne de M, sur les 20 exécutions, en fonction de la température relative trel. Aussi, les résultats pour les moyennes de M et pour les moyennes des indices d’accord entre partitions en fonction de trel sont présentés dans l’annexe C.2. En premier lieu, on observe, sur les graphiques de gauche des figures 4.15 à 4.22, ainsi que sur les graphiques du haut des figures de la section C.2, que, comme déjà annoncé dans la section 2.1.3 présentant l’algorithme, le nombre de groupes final M, pour les trois longueurs de n-gramme de CMS, diminue lorsque la température relative augmente. Aussi, comme pour l’algorithme K-means (dur), on remarque que les résultats différent fortement selon l’indice d’accord entre partitions utilisé et selon les textes. 0.05 0.10 0.15 0.20 0.25 0.30 0 20 40 60 80 100 120 -0.01 0.00 0.01 0.02 0.03 Température relative (trel ) Nombre de groupes après agrégation Indice de Rand corrigé Nombre de groupes Indice de Rand corrigé 0 20 40 60 80 100 120 -0.01 0.00 0.01 0.02 Nombre de groupes Indice de Rand corrigé Unigrammes Bigrammes Trigrammes Figure 4.15 – « L’Orient » avec l’algorithme K-means flou. Moyenne (ligne épaisse) et écartstypes (ligne fine) de l’indice de Rand corrigé, RC, et du nombre de groupes après agrégation, M, en fonction de la température relative, trel, pour les unigrammes de CMS (gauche) et moyenne de RC en fonction de la moyenne de M pour les uni-, bi- et trigrammes de CMS (droite). La figure 4.15 montre que, pour « L’Orient » avec l’indice de Rand corrigé, les meilleurs ré- sultats sont obtenus avec des unigrammes pour un nombre de groupe élevé, alors que pour un nombre de groupes plus petit, en particulier pour M < 8 environ, les bigrammes engendrent de meilleurs résultats. La valeur la plus élevée de l’indice, RC = 0.027, est obtenue avec les unigrammes, lorsque M = 92.2, ce qui correspond à trel = 0.074. Ainsi, le meilleur résultat s’obtient lorsqu’il y a environ 92 groupes pour 189 propositions (table 4.1), donc les groupes contiennent 2 propositions en moyenne. Aussi, toujours pour les unigrammes, les résultats sont60 4. CLASSIFICATION NON SUPERVISÉE EN TYPES DE DISCOURS 0.05 0.10 0.15 0.20 0.25 0.30 0 20 40 60 80 100 120 0.05 0.10 0.15 0.20 Température relative (trel ) Nombre de groupes après agrégation Indice de Jaccard Nombre de groupes Indice de Jaccard 0 20 40 60 80 100 120 0.05 0.10 0.15 0.20 Nombre de groupes Indice de Jaccard Unigrammes Bigrammes Trigrammes Figure 4.16 – « L’Orient » avec l’algorithme K-means flou. Moyenne (ligne épaisse) et écartstypes (ligne fine) de l’indice de Jaccard, J, et du nombre de groupes après agrégation, M, en fonction de la température relative, trel, pour les unigrammes de CMS (gauche) et moyenne de J en fonction de la moyenne de M pour les uni-, bi- et trigrammes de CMS (droite). parfois négatifs, ce qui signifie que l’accord entre la partition obtenue par l’algorithme et celle créée par l’expert humain est moins bon qu’un accord qui serait obtenu au hasard (cf. section 2.3.1). Concernant les résultat obtenus avec l’indice de Jaccard (figure 4.16), on constate un petit pic pour les bigrammes, J = 0.224, lorsque M = 1.9 (trel = 0.066), qui est le meilleur résultat obtenu pour ce texte. À l’exception de ce pic, les meilleurs résultats sont obtenus avec les trigrammes lorsque le nombre de groupes est petit (M < 54 environ). Pour un nombre de groupes plus élevé, l’indice de Jaccard n’a pas pu être calculé en raison d’instabilités numériques dues à des valeurs de trel (0.022 et 0.023) trop petites. 0.05 0.10 0.15 0.20 0.25 0.30 0 20 40 60 80 100 120 0.00 0.05 0.10 0.15 0.20 0.25 0.30 Température relative (trel ) Nombre de groupes après agrégation Indice de Rand corrigé Nombre de groupes Indice de Rand corrigé 0 20 40 60 80 100 120 0.00 0.05 0.10 0.15 0.20 0.25 0.30 Nombre de groupes Indice de Rand corrigé Unigrammes Bigrammes Trigrammes Figure 4.17 – « Le Voleur » avec l’algorithme K-means flou. Moyenne (ligne épaisse) et écartstypes (ligne fine) de RC et de M en fonction de trel, pour les unigrammes de CMS (gauche) et moyenne de RC en fonction de la moyenne de M pour les uni-, bi- et trigrammes de CMS (droite). Concernant le texte « Le Voleur » (figures 4.17 et 4.18), les meilleurs résultats sont obtenus avec les unigrammes pour les deux indices d’accord entre partitions. Aussi, il existe un pic4.3. Classification non supervisée et résultats 61 0.05 0.10 0.15 0.20 0.25 0.30 0 20 40 60 80 100 120 0.0 0.1 0.2 0.3 0.4 0.5 Température relative (trel ) Nombre de groupes après agrégation Indice de Jaccard Nombre de groupes Indice de Jaccard 0 20 40 60 80 100 120 0.0 0.1 0.2 0.3 0.4 Nombre de groupes Indice de Jaccard Unigrammes Bigrammes Trigrammes Figure 4.18 – « Le Voleur » avec l’algorithme K-means flou. Moyenne (ligne épaisse) et écartstypes (ligne fine) de J et de M en fonction de trel, pour les unigrammes de CMS (gauche) et moyenne de J en fonction de la moyenne de M pour les uni-, bi- et trigrammes de CMS (droite). remarquable sur chacune de ces deux figures, bien que plus important avec l’indice de Rand corrigé. Pour l’indice de Rand corrigé (figure 4.17), il atteint une moyenne de RC = 0.305, lorsque trel = 0.145, ce qui correspond à une moyenne de groupes M = 14.4. Quant à l’indice de Jaccard (figure 4.18), sa valeur maximale est de J = 0.478, pour M = 13.4 (trel = 0.148). Il semble donc que le nombre de groupes optimal soit plutôt de 14 que de 6. À titre d’exemple, la table 4.4 présente une exécution typique de l’algorithme aboutissant à la génération de 14 groupes. En particulier, on constate que le groupe le groupe 1 est clairement dominant et qu’il est associé au type de discours narratif, attribué à plus de 60% des propositions (cf. table 4.1). Aussi, la majorité des propositions classées dans le groupe 11 par l’algorithme correspondent à celles annotées comme descriptives par l’expert humain. Les propositions correspondant aux différents groupes définis par l’algorithme sont fournies dans la table 4.5. Effectifs Algorithme K-means flou Expert 1 2 3 4 5 6 7 8 9 10 11 12 13 14 argumentatif 7 0 0 0 1 1 0 0 1 0 0 0 0 0 descriptif 19 2 0 0 1 0 1 0 0 1 0 0 1 0 dialogal 7 0 1 0 0 0 0 2 2 1 15 0 0 1 explicatif 7 0 0 0 0 0 0 0 0 0 3 0 0 0 injonctif 2 0 0 1 0 0 0 0 0 0 2 0 0 1 narratif 116 1 0 0 2 0 3 0 0 1 0 4 1 0 Quotients d’indépendance Algorithme K-means flou Expert 1 2 3 4 5 6 7 8 9 10 11 12 13 14 argumentatif 0.92 0.00 0.00 0.00 5.20 20.80 0.00 0.00 6.93 0.00 0.00 0.00 0.00 0.00 descriptif 1.00 5.55 0.00 0.00 2.08 0.00 2.08 0.00 0.00 2.77 0.00 0.00 4.16 0.00 dialogal 0.32 0.00 7.17 0.00 0.00 0.00 0.00 7.17 4.78 2.39 5.38 0.00 0.00 3.59 explicatif 0.92 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 3.12 0.00 0.00 0.00 injonctif 0.44 0.00 0.00 34.67 0.00 0.00 0.00 0.00 0.00 0.00 3.47 0.00 0.00 17.33 narratif 1.19 0.54 0.00 0.00 0.81 0.00 1.22 0.00 0.00 0.54 0.00 1.62 0.81 0.00 Table 4.4 – Exemple d’un résultat obtenu avec l’algorithme K-mean flou sur le texte « Le Voleur » avec trel = 0.146, aboutissant à la création de 14 groupes. Pour cet exemple : RC = 0.322 et J = 0.483.62 4. CLASSIFICATION NON SUPERVISÉE EN TYPES DE DISCOURS Groupe Exemple Autres membres du groupe 1 Et le vieil artiste se mit à cheval sur une chaise. 21 8, 11, 12, 13, 17, 23, 25, 28, 29, 32, 33, 35, 36, 37, 38, 39, 42, 43, 44, 46, 47, 49, 50, 51, 58, 59, 60, 61, 62, 63, 64, 65, 69, 70, 74, 76, 78,79, 80, 81, 82, 83, 85, 86, 87, 91, 92, 95, 96, 98, 99, 100, 101, 102, 103, 109, 111, 112, 114, 116, 117, 120, 121, 123, 124, 125, 126, 128, 129, 130, 131, 132, 133, 137, 139, 143, 144, 145, 147, 148, 149, 150, 151, 152, 153, 154, 159, 160, 161, 162, 167, 169, 170, 172, 173, 175, 176, 178, 179, 180, 184, 185, 186, 194, 198, 199, 200, 206, 207, 208, 209, 211, 215, 222, 224, 229, 230, 232, 233, 234, 235, 237, 238, 240, 241, 242, 244, 245, 246, 247, 248, 252, 253, 254, 255, 256, 264, 265, 266, 267, 268, 269, 270, 271, 273, 274, 275, 276, 283, 284, 285, 286, 287, 290, 295, 296, 297 2 Il était sombre et profond. 113 34, 158 3 celui-ci doit être livré au bourreau. 225 - 4 "Soyons prudents", 106 - 5 où l’esprit farceur sévissait si bien 16 97, 115, 146 6 qui ont connu cette époque 15 - 7 où il fut englouti. 48 84, 118, 210 8 "Eh bien, mon pauv’vieux, comment ça va-t-il ?" 258 141 9 Les peintres seuls ne s’étonneront point, surtout les vieux 14 6, 93 10 mais je n’oserais affirmer 30 136, 273 11 "Vous voulez rire, sans doute." 182 5, 53, 67, 72, 90, 135, 156, 164, 190, 192, 203, 213, 218, 226, 250 12 Puis il dit : 187 88, 166, 260 13 que c’était lui. 31 45 14 "Au secours !" 196 55 Table 4.5 – Propositions énoncées correspondant au résultat présenté dans la table 4.4 et obtenu avec l’algorithme K-means flou. Les nombres dans cette table font référence aux lignes de l’annexe A.2. 0.05 0.10 0.15 0.20 0.25 0.30 0 50 100 150 0.00 0.02 0.04 0.06 Température relative (trel ) Nombre de groupes après agrégation Indice de Rand corrigé Nombre de groupes Indice de Rand corrigé 0 50 100 150 0.00 0.01 0.02 0.03 0.04 0.05 0.06 Nombre de groupes Indice de Rand corrigé Unigrammes Bigrammes Trigrammes Figure 4.19 – « Un Fou ? » avec l’algorithme K-means flou. Moyenne (ligne épaisse) et écartstypes (ligne fine) de RC et de M en fonction de trel, pour les unigrammes de CMS (gauche) et moyenne de RC en fonction de la moyenne de M pour les uni-, bi- et trigrammes de CMS (droite). Concernant le texte « Un Fou ? » (figures 4.19 et 4.20), à l’instar du texte « Le Voleur », les unigrammes produisent systématiquement les meilleurs résultats. En fait, pour les bi- et les trigrammes, le nombre de groupes après agrégation M chute rapidement à 1, plus précisément lorsque trel > 0.079 pour les bigrammes, et lorsque trel > 0.028 pour les trigrammes. De plus, pour des valeurs basses de trel, des instabilités numériques se produisent. Ainsi, peu de résultas sont exploitables. Avec l’indice de Rand corrigé (figure 4.19), deux pics apparaissent pour les unigrammes. Le premier vaut RC = 0.051, lorsque M = 7.8 (trel = 0.158) ; et le second, plus élevé, RC = 0.062, lorsque M = 24.5 (trel = 0.126). Avec l’indice de Jaccard (figure 4.20),4.3. Classification non supervisée et résultats 63 0.05 0.10 0.15 0.20 0.25 0.30 0 50 100 150 0.05 0.10 0.15 0.20 Température relative (trel ) Nombre de groupes après agrégation Indice de Jaccard Nombre de groupes Indice de Jaccard 0 50 100 150 0.05 0.10 0.15 0.20 Nombre de groupes Indice de Jaccard Unigrammes Bigrammes Trigrammes Figure 4.20 – « Un Fou ? » avec l’algorithme K-means flou. Moyenne (ligne épaisse) et écartstypes (ligne fine) de J et de M en fonction de trel, pour les unigrammes de CMS (gauche) et moyenne de J en fonction de la moyenne de M pour les uni-, bi- et trigrammes de CMS (droite). on observe un petit pic pour les unigrammes, J = 0.216, lorsque M = 7.1 (trel = 0.157), donc pour un nombre de groupes proche de celui du premier pic observé avec l’indice de Rand corrigé. Cependant, il ne correspond pas à la valeur maximale obtenue pour ce texte, qui est de J = 0.217 pour M = 3.7 (trel = 0.202). 0.05 0.10 0.15 0.20 0.25 0.30 0 50 100 150 -0.04 -0.03 -0.02 -0.01 0.00 Température relative (trel ) Nombre de groupes après agrégation Indice de Rand corrigé Nombre de groupes Indice de Rand corrigé 0 50 100 150 -0.03 -0.02 -0.01 0.00 Nombre de groupes Indice de Rand corrigé Unigrammes Bigrammes Trigrammes Figure 4.21 – « Un Fou » avec l’algorithme K-means flou. Moyenne (ligne épaisse) et écartstypes (ligne fine) de RC et de M en fonction de trel, pour les unigrammes de CMS (gauche) et moyenne de RC en fonction de la moyenne de M pour les uni-, bi- et trigrammes de CMS (droite). Comme pour « L’Orient », les résultats pour « Un Fou » prennent des valeurs négatives avec l’indice de Rand corrigé (figure 4.21), mais sur une plus grande étendue pour ce texte, en particulier avec les unigrammes. Il faut noter que peu de résultats obtenus avec les bigrammes sont exploitables, et encore moins avec les trigrammes, car pour ces derniers tous les résultats, indépendamment de la valeur de trel correspondent à M = 1 (cf. graphique du haut de la figure C.12). Concernant les résultats obtenus avec l’indice de Jaccard (figure 4.22), ils sont aussi très similaires à ceux obtenus pour le texte de « L’Orient », sans pics cependant.64 4. CLASSIFICATION NON SUPERVISÉE EN TYPES DE DISCOURS 0.05 0.10 0.15 0.20 0.25 0.30 0 50 100 150 0.05 0.10 0.15 0.20 0.25 Température relative (trel ) Nombre de groupes après agrégation Indice de Jaccard Nombre de groupes Indice de Jaccard 0 50 100 150 0.05 0.10 0.15 0.20 0.25 Nombre de groupes Indice de Jaccard Unigrammes Bigrammes Trigrammes Figure 4.22 – « Un Fou » avec l’algorithme K-means flou. Moyenne (ligne épaisse) et écartstypes (ligne fine) de J et de M en fonction de trel, pour les unigrammes de CMS (gauche) et moyenne de J en fonction de la moyenne de M pour les uni-, bi- et trigrammes de CMS (droite). Malgré l’hétérogénéité des résultats, on constate, comme avec l’algorithme K-means, plusieurs régularités. En particulier, les unigrammes produisent généralement de meilleurs résultats avec l’indice de Rand corrigé. On remarque aussi que le nombre de groupes semble évoluer différemment en fonction de trel selon que les uni-, bi- ou trigrammes de CMS sont utilisés. Il pourrait donc être intéressant de faire varier différemment trel pour les bi- et trigrammes, malgré les résultats souvent moins bons pour ces derniers. Aussi, les résultats obtenus pour le texte « Le Voleur », quel que soit l’indice d’accord entre partitions utilisé, sont nettement meilleurs, tout comme avec l’algorithme K-means (dur). Les résultats sont plus décevants pour les textes « L’Orient » et « Un Fou » qui, pour rappel (cf. section 4.1.4), ont certainement une structure un peu différente des deux autres contes. On note aussi que, par construction, l’indice de Jaccard (graphiques de droite des figures de la section C.2) prend une valeur constante et positive lorsqu’il ne reste qu’un groupe (pour un exemple de calcul avec « Le Voleur » voir Cocco, 2012b). 4.4 Discussion Concernant la classification non supervisée, il est clair que les résultats sont difficiles à interpréter, que les deux indices choisis ne fournissent pas la même information et que les différents textes engendrent des résultats différents, et ce quelque soit l’algorithme choisi. Cependant, plusieurs régularités ont été observées et permettent quelques conclusions. Premièrement, les unigrammes de CMS donnent généralement de meilleurs résultats que les bi- et les trigrammes de CMS. Cela s’explique peut-être par le fait que pour les bi- et les trigrammes, la table de contingence est creuse, conduisant au problème du « fléau de la dimension » ou de « la malé- diction de la dimension » (curse of dimensionality), en particulier dans le cadre la classification (voir par exemple Houle, Kriegel, Kröger, Schubert et Zimek, 2010). Deuxièmement, l’introduction de la transformation de puissance peut améliorer les résultats. Aussi, les résultats sont systématiquement meilleurs pour le texte « Le Voleur », peu importe l’algorithme de classification ou la méthode d’évaluation. Il faut noter que ces résultats sont à considérer avec précaution en raison de deux limitations : la taille relativement courte des textes et le fait qu’il n’y ait qu’un seul annotateur. Au-delà de ces résultats intéressants, il reste de nombreuses pistes à explorer. Au niveau de la4.4. Discussion 65 méthode de classification, il est clair qu’il serait intéressant de combiner les transformations de Schoenberg avec l’algorithme K-means flou. Pratiquement, pour ce faire, il suffirait, comme pour l’algorithme K-means, de transformer D en D˜ = ϕ(D) lors de l’initialisation (cf. section 2.1.3). Une toute autre voie serait d’utiliser des algorithmes de classification supervisée (cf. section 2.2) qu’il serait avantageux d’associer avec des méthodes de sélection de caractéristiques (feature selection) (voir par exemple Yang et Pedersen, 1997). Il s’agirait alors de les appliquer à des textes plus longs pour se prémunir des risques de sur-paramétrisation. Concernant le choix des caractéristiques, une première piste de recherche serait d’utiliser spé- cifiquement les marques linguistiques de chaque type de discours décrites dans la section 4.1.1. Aussi, on pourrait s’intéresser au fonctionnement du logiciel Tropes 7 qui permet, entre autres choses, de classer l’ensemble d’un texte, à condition qu’il soit suffisamment long, dans un des quatre « styles » suivants : argumentatif, narratif, énonciatif et descriptif (basés sur les modes d’organisation du discours de Charaudeau, 1992, troisième partie, pp. 631-835). Bien que ces modes de discours ne soient pas strictement identiques aux types de discours étudiés dans ce travail, les caractéristiques retenues par le logiciel sont de même type que celles proposées dans les marques linguistiques (cf. section 4.1.1), mais plus fines que les CMS obtenues avec TreeTagger. Il pourrait ainsi être intéressant de se baser sur ces caractéristiques. Dans cette même perspective, il serait possible d’utiliser un autre étiqueteur morpho-syntaxique, tel que Cordial Analyseur 8 . Il serait aussi possible d’utiliser les lemmes, à la place de ou en combinaison avec les CMS. La difficulté principale de toutes ces approches serait le risque d’obtenir des matrices creuses et donc de rencontrer, à nouveau, le problème du fléau de la dimension. Il faudrait aussi, dans la perspective d’obtenir un système totalement indépendant d’un annotateur, définir une méthode de segmentation automatique du texte en propositions. Une autre étape supplémentaire qu’il faudrait envisager est la prise en compte de la structure hiérarchique des types de discours (cf. section 4.1.1.7), car seules les feuilles de la structure ont été utilisées ici. Par exemple, il serait intéressant de déterminer le type de discours dominant pour chaque proposition, ce qui devrait d’abord être défini par un expert humain. Ainsi, il serait possible de travailler sur des unités plus longues que les propositions. Aussi, le type de discours injonctif étant systématiquement inclus dans le type dialogal à l’intérieur de notre corpus, il pourrait être supprimé pour obtenir un groupe dialogal plus important. Finalement, il serait idéal d’obtenir plus de textes annotés, ce qui permettrait d’améliorer les résultats et d’utiliser les méthodes proposées ci-dessus. Il faudrait aussi un second annotateur, au minimum, pour pouvoir mesurer la difficulté de la tâche d’annotation pour un expert humain. 7. http://www.tropes.fr/ 8. http://www.synapse-fr.com/Cordial_Analyseur/Presentation_Cordial_Analyseur.htmCHAPITRE 5 Classification supervisée multi-étiquette en actes de dialogue Ce chapitre reprend, presque intégralement, l’article Cocco (2014), en présentant quelques résultats supplémentaires. La visée de ce chapitre est la classification supervisée multi-étiquette en actes de dialogue des tours de parole des contributeurs aux pages de discussion de Simple English Wikipedia (Wikipédia en anglais simple). Les articles de Wikipédia sont créés par ses contributeurs, qui partagent leurs informations et leurs critiques sur des pages de discussion, chaque article étant lié à une page de discussion. Ces discussions fournissent une base de données que Ferschke, Gurevych et Chebotar (2012) ont segmentée, pour Simple English Wikipedia, en tours de parole, définis comme les interventions successives des intervenants. Ils ont ensuite annoté ces tours de parole avec des actes de dialogue (section 5.1). De nombreux travaux (voir par exemple Stolcke et al., 2000) se sont intéressés à la classifi- cation de dialogues écrits ou oraux en actes de dialogue (dialogue acts) ou en actes de langage ou de discours (speech acts), servant à caractériser la fonction d’un énoncé dans un dialogue (Austin, 1962; Searle, 1969). Les actes de dialogue peuvent être différents selon le but de la classification (pour une comparaison des principaux actes de dialogue et de langage utilisés, voir par exemple Goldstein et Sabin, 2006). Ferschke et al. (2012) utilisent leur propre jeu d’étiquettes d’actes de dialogue avec pour but de comprendre les « efforts de coordination pour l’amélioration d’un article ». Dans un second temps, ils ont procédé à une classification multi-étiquette. En général, un acte de dialogue est attribué à chaque énoncé, ce qui conduit à une classification ordinaire mono-étiquette. Dans ce jeu de données, les tours de parole, pouvant être composés de plusieurs énoncés, sont étudiés et peuvent donc se voir attribuer un ou plusieurs actes de dialogue, ce qui conduit à une classification multi-étiquette (cf. section 2.3.2 et 5.3.2.1) des tours de paroles en actes de dialogue. Pour examiner la cohérence de ces annotations et pour déterminer une méthode de classification, on commence ici par analyser les relations entre les étiquettes (section 5.2). Concernant les actes de dialogue, Colineau et Caelen (1995) distinguent quatre types de marqueurs : — linguistiques (morphologiques, syntaxiques et lexicaux), — prosodiques, — situationnels (phases du dialogue et règles d’enchaînement préférentiel) et — du geste. Ici, le jeu de données contient exclusivement des textes écrits, sans annotation des actions qui découlent du dialogue ; ainsi seuls les marqueurs linguistiques et situationnels peuvent être employés. Ferschke et al. (2012) utilisent les deux types de marqueurs, i.e. des uni-, des bi- et des 6768 5. CLASSIFICATION SUPERVISÉE MULTI-ÉTIQUETTE EN ACTES DE DIALOGUE trigrammes (linguistiques), d’une part, et le temps entre les tours de parole, leur indentation, etc. (situationnels), d’autre part, puis les combinent. Ce travail propose d’utiliser trois autres caractéristiques (features), toutes de nature linguistique, et de les étudier séparément pour mieux comprendre l’impact de chacune d’entre elles, sans visée de performance globale. Les trois types de caractéristiques employées sont (section 5.3.1) : — les lemmes (unigrammes), donnant des résultats légèrement meilleurs que les mots-formes dans la classification en actes de dialogues de messages dans des chats (Kim, Cavedon et Baldwin, 2010) ; — les catégories morphosyntaxiques (CMS), dont l’intérêt pour la classification en actes de dialogue est démontré dans plusieurs travaux (voir par exemple Cohen, Carvalho et Mitchell, 2004; Boyer, Ha, Phillips, Wallis, Vouk et Lester, 2010) ; et — le sens des verbes selon WordNet (Fellbaum, 1998). Deux articles, l’un étudiant la classification de messages sur des forums (Qadir et Riloff, 2011), l’autre la classification d’e-mails (Goldstein et Sabin, 2006), concluent que des classes de verbes (selon des listes prédéfinies) aident à la reconnaissance de certains actes de langage. L’idée, un peu différente ici, est de voir si les classes recréées à l’aide de WordNet permettent une telle reconnaissance dans le jeu de données étudié. Finalement, concernant la méthode de classification, alors que les auteurs du jeu de données ont employé des approches classiques, telles que le classifieur Bayésien naïf ou les Séparateurs à Vastes Marges (SVM), ce travail utilise l’analyse discriminante linéaire, étendue aux transformations de Schoenberg. Les résultats ainsi obtenus sont exposés dans la section 5.3.3, puis les extensions possibles de la méthode sont discutées dans la section 5.4. 5.1 Données Les données utilisées dans ce projet sont celles de Ferschke et al. (2012) et mises librement à disposition sur Internet (http://www.ukp.tu-darmstadt.de/data/wikidiscourse). Comme déjà expliqué ci-dessus, elles concernent les pages de discussion de Wikipédia en anglais simple. Une partie de ces pages de discussion ont été extraites, segmentées automatiquement en tours de parole (1450 au total), puis classifiées en actes de dialogue. Pour cette dernière étape, deux annotateurs ont classifié l’ensemble du corpus. Ensuite, dans les cas où les deux annotateurs n’étaient pas d’accord, un troisième annotateur expert a pris la décision finale, ce qui a permis constituer un corpus de référence (pour la structure des données et le détail, voir Ferschke et al., 2012). Les étiquettes qu’ils ont utilisées se divisent en quatre groupes principaux, lesquelles se subdivisent en un jeu de 17 étiquettes, soit 1 : — Les étiquettes interpersonnelles (Interpersonal) « décrivent l’attitude qui est exprimée envers les autres participants dans la discussion et/ou les commentaires ». Ces étiquettes se divisent en trois sous-étiquettes : — « une approbation ou un rejet partiel » (ATTP), — « une attitude négative envers un autre participant ou un rejet » (ATT-) et — « une attitude positive envers un autre participant ou une approbation » (ATT+). — Les étiquettes de critique d’articles (Article Criticism) « dénotent les commentaires qui identifient des insuffisances dans l’article. La critique peut porter sur l’article entier ou sur une partie de l’article ». Cet ensemble se subdivise en sept parties : — « les insuffisances de langage ou de style » (CL), — « un contenu incomplet ou un manque de détail » (CM), — « d’autres sortes de critiques » (CO), 1. Les définitions de ce paragraphe sont une traduction personnelle des définitions proposées dans Ferschke et al. (2012). Des exemples de tours de parole appartenant à chacune de ces 17 étiquettes et extraites du jeu de données se trouvent dans leur article.5.2. Liens entre étiquettes 69 — « des problèmes objectifs » (COBJ), — « des problèmes structurels » (CS), — « un contenu inapproprié ou inutile » (CU) et — « le manque de précision ou d’exactitude » (CW). — Les étiquettes sur le contenu informationnel (Information Content) « décrivent la direction de la communication ». Elles se divisent en trois catégories : — « une correction de l’information » (IC), — « un apport d’information » (IP) et — « une demande d’information » (IS). — Les étiquettes de performativité explicite (Explicit Performative) concernent « l’annonce, le rapport ou la suggestion d’activités d’édition ». Elles se divisent en quatre souscatégories : — « un engagement à une action dans le futur » (PFC), — « le rapport d’une action accomplie » (PPC), — « une référence explicite ou un indicateur » (PREF) et — « une suggestion, une recommandation ou une demande explicite » (PSR). 5.2 Liens entre étiquettes Chaque tour de discussion pouvant avoir plusieurs étiquettes ou appartenir à plusieurs groupes g = 1, . . . , m, il semblait pertinent de commencer par déterminer s’il existe des liens entre ces étiquettes. En plus de permettre une meilleure compréhension de l’annotation et de sa cohérence, cette première étude permet de choisir une méthode de classification multi-étiquette appropriée, i.e. prenant en compte ou non le lien entre les étiquettes (cf. section 5.3.2.1). 5.2.1 Traitements Pour mesurer le lien qui existe entre deux étiquettes (ou classes ou groupes) g et g 0 , on utilise les indices présentés dans la section 1.2.2, et en particulier, le coefficient phi (cf. section 1.2.2.2) et le Q de Yule (cf. section 1.2.2.3). Pour ce faire, une table de contingence 2 × 2 a été créée pour chaque paire d’étiquettes, représentant le nombre d’absences et de présences (codées 0 et 1) simultanées de chaque classe pour chaque étiquette i = 1, . . . , n, comme présenté dans la table 1.2. Dans cette table, la variable catégorielle X possède deux modalités, soit la présence et l’absence de g, et la variable Y , la présence et l’absence de g 0 . Ceci nous permet de calculer φgg0 (1.4) et Qgg0 (1.5). Dans un second temps, à partir de la matrice des corrélations entre toutes les classes Φ = (φgg0) , une analyse en composantes principales (ACP) (voir par exemple Lebart et al., 1995, section 1.2) a été effectuée afin de visualiser les relations entre les différentes étiquettes et étudier la diversité de ces dernières. Pour pratiquer l’ACP, on utilise la fonction « PCA » du package « FactoMineR » (Lê, Josse et Husson, 2008; Husson et al., 2013) de R. 5.2.2 Résultats Les résultats pour le coefficient phi et le Q de Yule sont présentés dans la table 5.1. Pour les coefficients phi, la valeur maximale de 0.358 est obtenue pour la paire d’étiquettes CS et PSR, ce qui signifie que, souvent, les tours de parole classés comme parlant de problèmes structurels sont aussi classés comme constituant une suggestion, une recommandation ou une demande explicite, et inversement, ce qui semble cohérent. Quant à la valeur minimale de -0.306, elle se produit entre les classes IP et PFC. Cela suggère qu’en général, si un tour de parole apporte de l’information, il ne propose pas en même temps un engagement à une action dans le futur. En ce qui concerne le Q de Yule, la valeur maximale de 0.925 est atteinte pour les classes IP et IC, ce qui signifie qu’une des classes est presque incluse dans l’autre ; en fait, IC est presque70 5. CLASSIFICATION SUPERVISÉE MULTI-ÉTIQUETTE EN ACTES DE DIALOGUE ATTP ATT- ATT+ CL CM CO COBJ CS CU ATTP -0.039 -0.051 -0.051 -0.028 -0.028 0.047 -0.049 -0.026 ATT- -1 -0.055 -0.107* -0.053 -0.047 0.008 -0.071* -0.026 ATT+ -1 -0.527 -0.089* -0.013 -0.010 0.022 -0.051 -0.030 CL -0.707 -1 -0.532 0.018 -0.046 0.056 0.043 -0.004 CM -0.477 -0.590 -0.084 0.086 0.031 -0.003 0.123* 0.010 CO -1 -1 -0.099 -0.464 0.253 0.003 -0.020 -0.032 COBJ 0.564 0.115 0.229 0.415 -0.042 0.059 -0.009 0.067* CS -1 -0.809 -0.364 0.183 0.503 -0.222 -0.130 0.001 CU -1 -0.455 -0.383 -0.034 0.098 -1 0.632 0.009 CW -1 -0.381 -0.301 -0.034 -0.064 -0.417 0.229 -0.271 0.473 IC 0.008 0.204 -0.670 0.817 -0.152 0.279 -0.105 -0.118 -0.333 IP 0.842 0.723 0.232 0.722 0.605 0.287 0.638 0.663 0.760 IS -0.288 -0.358 -0.534 0.132 0.284 0.410 -0.387 0.042 0.281 PFC 0.435 -0.424 0.584 -0.370 0.074 -1 0.180 -0.320 -0.059 PPC -0.196 -0.597 -0.144 -0.742 -0.736 -0.576 -0.311 -0.776 -0.523 PREF 0.347 0.058 -0.415 -0.594 -0.594 -0.207 -1 -0.648 -0.139 PSR -0.722 -0.562 -0.168 0.683 0.810 0.583 0.418 0.845 0.528 CW IC IP IS PFC PPC PREF PSR ATTP -0.034 0.001 0.080* -0.026 0.046 -0.023 0.026 -0.075* ATT- -0.030 0.033 0.118* -0.050 -0.034 -0.098* 0.005 -0.099* ATT+ -0.032 -0.080* 0.056 -0.089* 0.137* -0.035 -0.033 -0.043 CL -0.005 0.353* 0.190* 0.036 -0.048 -0.188* -0.053 0.303* CM -0.007 -0.021 0.118* 0.067* 0.010 -0.133* -0.038 0.309* CO -0.024 0.036 0.040 0.072* -0.044 -0.070* -0.011 0.125* COBJ 0.017 -0.008 0.059* -0.030 0.013 -0.032 -0.025 0.062* CS -0.028 -0.018 0.138* 0.009 -0.034 -0.151* -0.044 0.358* CU 0.057 -0.025 0.084* 0.042 -0.004 -0.061* -0.007 0.103* CW 0.222* 0.120* 0.021 0.033 -0.084* 0.034 0.060* IC 0.758 0.176* -0.072* -0.053 -0.124* 0.013 0.159* IP 0.855 0.925 -0.115* 0.099* -0.306* 0.089* 0.295* IS 0.128 -0.438 -0.322 -0.023 -0.149* -0.031 0.002 PFC 0.267 -0.588 0.632 -0.157 -0.064* -0.007 -0.024 PPC -0.570 -0.622 -0.627 -0.563 -0.389 -0.066* -0.293* PREF 0.329 0.123 0.776 -0.301 -0.096 -0.551 -0.050 PSR 0.277 0.497 0.802 0.005 -0.127 -0.825 -0.366 Table 5.1 – Pour toutes les paires d’étiquettes, g et g 0 , coefficients φgg0, suivis d’une étoile pour les valeurs significatives au niveau α = 5% (matrice triangulaire supérieure) et Qgg0 (matrice triangulaire inférieure). Les valeurs maximales et minimales de chaque coefficient sont notées en gras. incluse dans IP, car cette dernière a été assignée à la grande majorité des tours de parole, soit 78,3 % (Ferschke et al., 2012). Ainsi, la plupart des tours de parole proposant une correction de l’information, amènent aussi de l’information. Aussi, la majorité de cette classe IP devrait impliquer que la plupart des autres classes soient, en parties, incluses dans celle-ci. En effet, on observe que le Q de Yule est positif entre la classe IP et chaque autre classe, à l’exception des classes IS et PPC. Quant à la valeur minimale de -1, elle est obtenue pour plusieurs paires de classes. Cela signifie, pour rappel (cf. section 1.2.2.3), que soit aucun tour de parole n’appartient simultanément aux deux classes, soit tous les tours de parole appartiennent à au moins une des deux classes. En fait, il s’agit du premier cas pour toutes les paires de classes. En particulier, on remarque qu’une approbation ou un rejet partiel (ATTP) exclut une attitude négative (respectivement positive) envers un autre participant ou un rejet (resp. une approbation) (ATT- resp. ATT+), diverses critiques (CO), des problèmes structurels (CS), un contenu inapproprié (CU) ou la manque d’exactitude (CW). Cependant, cette exclusion, qui pourrait sembler utile à la classification, est certainement due au fait que l’étiquette ATTP est peu présente dans le corpus (elle est attribuée à seulement 2.4 % des tours de parole selon Ferschke et al., 2012). Finalement, comme il a été exposé dans la section précédente, une ACP a été effectuée5.3. Classification supervisée 71 5 10 15 0 2 4 6 8 10 12 Dimensions Proportion de variance expliquée [%] -1.0 -0.5 0.0 0.5 1.0 -1.0 -0.5 0.0 0.5 1.0 Variables factor map (PCA) Dim 1 (12.95%) Dim 2 (8.18%) ATTP ATTATT+ CL CM CO COBJ CS CU CW IC IP IS PFC PPC PREF PSR ATTP ATTATT+ CL CM CO COBJ CS CU CW IC IP IS PFC PPC PREF PSR ATTP ATTATT+ CL CM CO COBJ CS CU CW IC IP IS PFC PPC PREF PSR ATTP ATTATT+ CL CM CO COBJ CS CU CW IC IP IS PFC PPC PREF PSR ATTP ATTATT+ CL CM CO COBJ CS CU CW IC IP IS PFC PPC PREF PSR ATTP ATTATT+ CL CM CO COBJ CS CU CW IC IP IS PFC PPC PREF PSR ATTP ATTATT+ CL CM CO COBJ CS CU CW IC IP IS PFC PPC PREF PSR ATTP ATTATT+ CL CM CO COBJ CS CU CW IC IP IS PFC PPC PREF PSR ATTP ATTATT+ CL CM CO COBJ CS CU CW IC IP IS PFC PPC PREF PSR Figure 5.1 – ACP sur la matrice des corrélations Φ : proportion de variance expliquée par chaque dimension (gauche) et cercle des corrélations (droite). sur la matrice des corrélations Φ. Le diagramme des valeurs propres de la figure 5.1 (gauche) montre qu’un faible pourcentage de la variance totale est expliqué par les deux premiers facteurs (moins de 22%), ce qui signifie que les étiquettes sont diversifiées et que l’information qu’elles contiennent peut difficilement être compressée. Le cercle des corrélations (figure 5.1 droite) est difficilement interprétable, un phénomène attendu au vu de la non significativité d’un grand nombre de coefficients phi. 5.3 Classification supervisée 5.3.1 Prétraitements et caractéristiques Comme déjà mentionné dans l’introduction de ce chapitre, les caractéristiques utilisées dans ce travail sont uniquement linguistiques. La première étape du prétraitement, exécuté à l’aide d’un programme écrit en Perl, a consisté à « nettoyer » les données de Ferschke et al. (2012), pour en enlever les balises HTML (concernant principalement la mise en forme) 2 , les ponctuations découlant de la mise en forme du texte, les informations concernant les utilisateurs, l’heure à laquelle le tour de parole a été posté, les symboles indiquant l’indentation du tour de parole par rapport au premier tour de parole de la discussion, les éléments concernant les liens et les tags dans Wikipédia et les divers symboles, tels que des coeurs ou des lettres grecques, car ces derniers n’étaient pas compatibles avec la suite du prétraitement. Aussi, les caractères spéciaux en code HTML ont été remplacés par les caractères correspondants en latin1. Ensuite, trois types de caractéristiques ont été extraites pour chaque tour de parole : les lemmes, les CMS, et le sens des verbes (selon WordNet). Les lemmes et les CMS ont été extraits à l’aide de TreeTagger (Schmid, 1994) 3 , à l’aide du même module Perl que celui exposé dans la section 4.1.3. L’extraction du sens des verbes a été effectuée à l’aide de WordNet et TreeTagger. Dans WordNet, les verbes sont organisés sous forme d’ontologie par des relations sémantiques, dont 2. Par conséquent, les quelques balises faisant partie d’une question ou d’une réponse sur leurs utilisations, par exemple, ont aussi été supprimées. 3. À ce stade, quelques petites modifications ont été apportées au texte pour qu’il soit plus correctement étiqueté par TreeTagger. En particulier, des espaces ont été ajoutés entre certains symboles et les mots qu’ils entouraient ; les guillemets simples ont été remplacés par des guillemets doubles ; et les symboles, tels que « = », répétés deux ou trois fois, ont été remplacés par une seule occurrence de ce même symbole.72 5. CLASSIFICATION SUPERVISÉE MULTI-ÉTIQUETTE EN ACTES DE DIALOGUE l’hyperonymie (pour plus d’information, voir section 6.3.1). Aussi, l’ensemble des concepts de verbes n’ont pas une seule racine commune, consistant en un seul plus petit hyperonyme commun. Ainsi, pour chaque tour de parole, les lemmes des mots considérés comme des verbes par TreeTagger ont été soumis à WordNet, par l’intermédiaire du module Perl WordNet::QueryData (Rennie, 2000). En particulier, le premier sens du verbe proposé, pour des raisons d’automatisation, a été retenu, puis l’hyperonyme le plus général a été conservé et ce dernier hyperonyme est retenu comme caractéristique de ce tour de parole. Les verbes modaux ne sont pas traités par WordNet. Cependant, au vu de leur importance supposée pour la classification en actes de dialogue, il semblait intéressant de les ajouter explicitement au même titre que les hyperonymes traités par WordNet. À ce stade, trois tables de contingence sont créées : tours de parole - CMS, tours de parole - lemmes et tours de paroles - verbes (hyperonyme le plus général ou un des verbe modaux), comptant le nombre d’occurrences de chaque caractéristique par tour de parole. Les tours de parole qui n’étaient pas étiquetés ont été supprimés ; il s’agissait généralement de tours de parole soit trop longs et contenant toutes sortes d’informations, soit écrits en français ou encore mal segmentés. Les tours de parole ne contenant aucune des caractéristiques décrites plus haut ont également été supprimés. Au final, la base de données a été réduite de 1’450 à 1’324 tours de parole, contenant 5’198 lemmes distincts, 57 CMS distinctes et 155 sens de verbes distincts. 5.3.2 Traitements 5.3.2.1 Classification multi-étiquette Deux types d’approche sont couramment pratiqués pour la classification multi-étiquette (Tsoumakas, Katakis et Vlahavas, 2010) : le premier (problem transformation) consiste à recoder le jeu de données pour le transformer en problème de classification ordinaire, sans modification des algorithmes de classification ; le second (algorithm adaptation) adapte les algorithmes pour qu’ils puissent directement traiter des données multi-étiquette. Pour ce travail, il a été choisi d’utiliser le premier traitement, i.e. le recodage des données. Parmi les nombreux recodages possibles, celui du recodage binaire (Binary Relevance (BR)) a été choisi. Cela signifie que chaque tour de parole sera classé de façon binaire, i.e. comme faisant partie ou non d’une classe donnée (avec un classifieur pour chaque étiquette). Bien que ce recodage soit parfois critiqué, car il ne prend pas en compte les dépendances entre les étiquettes, il a ici plusieurs avantages : — il permet de rendre les résultats comparables à ceux de Ferschke et al. (2012) qui utilisent le même principe ; — il a le mérite, en plus d’avoir une complexité computationnelle faible, d’être simple, intuitif, résistant au surapprentissage des combinaisons d’étiquettes et de pouvoir traiter les étiquetages irréguliers (Read, Pfahringer, Holmes et Frank, 2011) ; et — il est particulièrement adapté aux situations où il n’y a pas de dépendance entre les étiquettes, ce qui semble être le cas ici (cf. section 5.2.2). Par ailleurs, Luaces, Dìez, Barranquero, del Coz et Bahamonde (2012) proposent un indice qui mesure la dépendance entre toutes les étiquettes comme la moyenne des corrélations φgg0 pour chaque paire d’étiquettes g et g 0 , pondérée par le nombre d’individus (ici les tours de parole) communs |g ∩ g 0 | : dépendance = P g E0(δ) pour r ≤ 226 avec les noms (respectivement r ≤ 370 avec les verbes), ce qui laisse supposer qu’il y a une attraction sémantique entre les noms (respectivement les verbes) dans un large voisinage. Plus particulièrement, on remarque que pour les noms, le résultat est opposé à celui obtenu pour le texte de l’Atlantic Charter, avec une attraction sémantique relativement élevée dans un proche voisinage, ce qui signifie peut-être qu’avec ce texte sous forme de nouvelle, le champ lexical est plus similaire dans un proche voisinage. 6.3.3 MDS et autocorrélation sur les premiers facteurs Les dissimilarités entre concepts (6.3) étant euclidiennes carrées, il est possible d’appliquer un MDS, une approche originale à notre connaissance dans le cas sémantique. Les mots, que ce soit les noms ou les verbes, n’ont pas été pondérés, ainsi le MDS ordinaire est utilisé, équivalent à la version pondérée (1.25) en prenant des poids uniformes. Dans un second temps, les coordonnées xjα (1.25b) des deux premiers facteurs (α = 1, 2) ont été extraites et une nouvelle dissimilarité euclidienne carrée a été calculée, telle que Dα ij = (xiα−xjα) 2 . Avec ces dissimilarités et une matrice d’échange à fenêtre mobiles, l’autocorrélation est à nouveau mesurée pour ces deux premières dimensions sémantiques. 6.3.3.1 Atlantic Charter Le résultat obtenu en appliquant un MDS sur les dissimilarités sémantiques entre les noms est exposé dans la figure 6.10. Malgré un pourcentage faible d’inertie expliquée par les deux premiers facteurs (18.4%), on remarque trois groupes de noms clairement distincts. Dans le90 6. AUTOCORRÉLATION TEXTUELLE 0 20 40 60 80 0 2 4 6 8 10 Dimensions Proportion d'inertie expliquée [%] -2.0 -1.5 -1.0 -0.5 0.0 0.5 1.0 -1.0 -0.5 0.0 0.5 1.0 premier axe factoriel 9.65 % deuxième axe factoriel 8.78 % majesty future world people government term advancement tyranny nation boundary life freedom hindrance reason air frontier security disarmament armament Figure 6.10 – MDS sur le sens des noms de l’Atlantic Charter. Gauche : valeurs propres ; droite : coordonnées pour les deux premiers axes factoriels. quadrant nord-ouest, on trouve des noms tels que nation, government, country ou people, dont le plus petit hyperonyme commun est le concept « group, grouping », défini dans WordNet comme « any number of entities (members) considered as a unit ». Dans le quadrant nord-est se trouvent des noms, tels que freedom, security ou majesty, qui sont englobés dans le concept « attribute » qui est défini comme étant « an abstraction belonging to or characteristic of an entity ». Finalement, le troisième groupe, dans la zone sud, est composé de tous les autres noms, donc ceux qui ne sont pas englobés dans les concepts « group, grouping » ou « attribute ». Ainsi, le premier axe différencie les noms concernant le « group, grouping » de ceux concernant « attribute », et le deuxième oppose les noms englobés dans ces deux concepts aux autres. 0 5 10 15 20 25 30 -0.2 -0.1 0.0 0.1 0.2 matrice d'échange à fenêtres mobiles, r indice d'autocorrélation δ 0 5 10 15 20 25 30 -0.2 -0.1 0.0 0.1 0.2 matrice d'échange à fenêtres mobiles, r indice d'autocorrélation δ Figure 6.11 – Sens des noms de l’Atlantic Charter : δ pour la première (gauche) et la deuxième (droite) dimension sémantique en fonction de r = 1, . . . , 30, avec un matrice d’échange à fenêtres mobiles. L’autocorrélation mesurée sur la première dimension sémantique des noms (figure 6.11 gauche) n’est jamais significative et inférieure à E0(δ) pour r ≤ 3. Ceci laisse penser que dans un voisinage restreint, il peut y avoir alternance entre les noms relatifs au concept « group, grouping » et ceux relatifs au concept « attribute ». Quant à la deuxième dimension sémantique (figure 6.116.3. Sens des mots selon WordNet 91 gauche), on remarque que l’autocorrélation n’est à nouveau pas significative, mais que les valeurs négatives sont plus élevées, en valeur absolue, pour r petit, ce qui semble indiquer une alternance entre les noms en relation avec les concepts « group, grouping » et « attribute » et tous les autres noms. 0 10 20 30 40 50 0 2 4 6 8 Dimensions Proportion d'inertie expliquée [%] -0.5 0.0 0.5 1.0 1.5 2.0 -2.0 -1.5 -1.0 -0.5 0.0 0.5 1.0 premier axe factoriel 8.71 % deuxième axe factoriel 6.63 % be deem seek see have further desire hope afford believe aid lighten Figure 6.12 – MDS sur le sens des verbes de l’Atlantic Charter. Gauche : valeurs propres ; droite : coordonnées pour les deux premiers axes factoriels. 0 5 10 15 20 25 30 -0.2 -0.1 0.0 0.1 0.2 matrice d'échange à fenêtres mobiles, r indice d'autocorrélation δ 0 5 10 15 20 25 30 -0.2 -0.1 0.0 0.1 0.2 matrice d'échange à fenêtres mobiles, r indice d'autocorrélation δ Figure 6.13 – Sens des verbes de l’Atlantic Charter : δ pour la première (gauche) et la deuxième (droite) dimension sémantique en fonction de r = 1, . . . , 30, avec un matrice d’échange à fenêtres mobiles. Comme pour les noms, avec un pourcentage d’inertie expliquée un peu plus faible pour les deux premiers facteurs (15.3%), trois groupes apparaissent en appliquant le MDS sur les dissimilarités sémantiques entre les verbes (figure 6.12). Le plus petit hyperonyme commun des verbes présents dans le quadrant sud-est est le concept « desire, want », défini comme « feel or have a desire for ; want strongly ». Dans le quadrant sud-ouest se trouvent des verbes tels que lighten, deem ou respect, tous englobés dans le concept « think, cogitate, cerebrate », défini comme « use or exercise the mind or one’s power of reason in order to make inferences, decisions, or arrive at a solution or judgments ». Enfin, le troisième groupe, dans le quadrant nord-ouest, est composé de verbes sémantiquement hétérogènes et ne possédant pas un hyperonyme com-92 6. AUTOCORRÉLATION TEXTUELLE mun. Il semble donc que le premier facteur oppose les verbes englobés dans le concept « desire, want » à ceux qui ne le sont pas. Pareillement, le second facteur différencie les verbes relatifs au concept « think, cogitate, cerebrate » des autres. Comme pour les noms, on remarque qu’en mesurant l’autocorrélation sur la première et la deuxième dimension sémantique, elle n’est jamais significative (figure 6.13) (sauf pour r = 50 dans la seconde dimension). Cependant, elle est supérieure à E0(δ) pour r ≤ 2 avec la première dimension, et inférieure à E0(δ) pour r ≤ 12. Il semblerait donc que, dans un voisinage restreint, il y a peu d’alternance entre les verbes reliés au concept « desire, want » et les autres, et qu’il y en a plus entre les verbes englobés dans le concept « think, cogitate, cerebrate » et les autres. 6.3.3.2 The Masque of the Red Death Pour ce texte, plus long que le précédent, l’inertie expliquée par les deux premiers axes factoriels dans le cas des noms est plus faible (14.9%) et les groupes sont plus nombreux (figure 6.14). 0 100 200 300 400 500 0 2 4 6 8 10 Dimensions Proportion d'inertie expliquée [%] -1.0 -0.5 0.0 0.5 1.0 1.5 -1.0 -0.5 0.0 0.5 1.0 premier axe factoriel 9.8 % deuxième axe factoriel 5.08 % body progress bolt impulse duke turn glass ceiling fold candle suite part none gaiety night visage chamber account terror shadow Figure 6.14 – MDS sur le sens des noms de The Masque of the Red Death. Gauche : valeurs propres ; droite : coordonnées pour les deux premiers axes factoriels. Le groupe dans le quadrant nord-ouest est composé de noms (terror, gaiety, courage, magni- ficence, etc.) englobés dans le concept « attribute » qui est « an abstraction belonging to or characteristic of an entity », lui-même englobé dans le concept plus général de « abstraction, abstract entity ». Dans le quadrant sud-ouest, on distingue deux groupes. Celui qui est plus au sud et qui contient des noms tels que progress, impulse, sympathy ou creation, a pour plus petit hyperonyme commun le concept « psychological feature », défini comme « a feature of the mental life of a living organism » et est à nouveau hyponyme de « abstraction, abstract entity ». L’autre groupe de ce quadrant contient tous les noms qui sont englobés dans le concept « abstraction, abstract entity », soit « a general concept formed by extracting common features from specific examples », mais qui ne sont pas des hyponymes de « attribute » ou de « psychological feature », comme par exemple : night, part, music ou orchestra. Les noms chamber, candle, minute hand, structure, etc. forment un groupe dans le quadrant nord-est et ont comme plus petit hyperonyme commun le concept « artifact, artefact », soit « a man-made object taken as a whole ». A l’est, entre les quadrants nord-est et sud-est, se trouve un groupe composé de noms, tels que body, duke, mummer ou violet, englobés dans le concept « whole, unit » qui désigne « an assemblage of parts that is regarded as a single entity », mais qui ne sont pas un « artifact, artefact ». En effet, il faut préciser que le concept « artifact, artefact » est un hyponyme de « whole, unit », lui-même hyponyme indirect de « physical entity ». Enfin,6.3. Sens des mots selon WordNet 93 le groupe dans le quadrant sud-est, proche du centre, contient tous les noms, tels que glass, visage, flame ou stream, englobés dans le concept de « physical entity », mais qui ne sont pas des hyponymes de « whole, unit ». En conclusion, le premier axe s’interprète comme l’oppositions entre « abstraction, abstract entity » et « physical entity », mais le second axe reste difficile à interpréter de manière univoque. 0 100 200 300 400 500 -0.05 0.00 0.05 matrice d'échange à fenêtres mobiles, r indice d'autocorrélation δ 0 100 200 300 400 500 -0.05 0.00 0.05 matrice d'échange à fenêtres mobiles, r indice d'autocorrélation δ Figure 6.15 – Sens des noms de The Masque of the Red Death : δ pour la première (gauche) et la deuxième (droite) dimension sémantique en fonction de r, qui varie de 1 à n = 491, avec un matrice d’échange à fenêtres mobiles. La mesure de δ sur le premier axe factoriel (figure 6.15 gauche) est positive et clairement significative lorsque r ≤ 107 (sauf pour r = 2). Ainsi, de longs segments de textes doivent contenir une majorité de noms relatifs à un seul des deux concepts : « abstraction, abstract entity » ou « physical entity ». Le second axe factoriel étant difficile à interpréter, l’autocorrélation mesurée sur celui-ci (figure 6.15 droite) l’est tout autant. On peut simplement constater que δ n’est presque jamais significatif , qu’il est positif pour r = 1, puis négatif avant de rapidement s’approcher de E0(δ). 0 100 200 300 0 2 4 6 8 10 Dimensions Proportion d'inertie expliquée [%] -1.5 -1.0 -0.5 0.0 0.5 1.0 -1.0 -0.5 0.0 0.5 1.0 1.5 premier axe factoriel 11.07 % deuxième axe factoriel 6.55 % have be depend emanate stand float lie fall go arrest excite seem exist draw summon Figure 6.16 – MDS sur le sens des verbes de The Masque of the Red Death. Gauche : valeurs propres ; droite : coordonnées pour les deux premiers axes factoriels. Concernant les verbes (figure 6.16), l’inertie expliquée par les deux premiers facteurs est de94 6. AUTOCORRÉLATION TEXTUELLE 17.6%. On peut distinguer quatre groupes. Dans le quadrant nord-ouest se trouvent les verbes d’état (seem, gleam, sound, etc.), tous englobés dans le concept « be », défini comme « have the quality of being ; (copula, used with an adjective or a predicate noun) ». Seul le verbe have se situe dans le quadrant nord-ouest. Finalement, on observe deux groupes dans le quadrant sudest : celui plus au sud contient des verbes, tels que go, fall, approach ou rush, dont le plus petit hyperonyme commun est le concept de « travel, go, move, locomote » défini comme « change location ; move, travel, or proceed, also metaphorically » ; quant à celui plus proche du centre, il contient tous les autres verbes qui n’ont pas d’hypernoyme commun. En résumé, le premier axe factoriel oppose les verbes d’états aux autres ; et le second, le verbe have aux autres. 0 100 200 300 -0.10 -0.05 0.00 0.05 0.10 matrice d'échange à fenêtres mobiles, r indice d'autocorrélation δ 0 100 200 300 -0.10 -0.05 0.00 0.05 0.10 matrice d'échange à fenêtres mobiles, r indice d'autocorrélation δ Figure 6.17 – Sens des verbes de The Masque of the Red Death : δ pour la première (gauche) et la deuxième (droite) dimension sémantique en fonction de r, qui varie de 1 à n = 375, avec un matrice d’échange à fenêtres mobiles. L’autocorrélation mesurée sur la première dimension sémantique (figure 6.17 gauche) est clairement positive pour l’ensemble des voisinages, même s’elle n’est pas significative pour r = 1 et quelques autres r, ce qui laisse supposer qu’il y a peu d’alternances entre les verbes d’état et les verbes d’action. L’explication la plus plausible de ce phénomène est que les verbes d’état sont peu nombreux et donc que, généralement, les verbes d’actions se suivent. Concernant la deuxième dimension sémantique (figure 6.17 droite), bien que δ ne soit pas significatif, il est clairement inférieur à E0(δ) pour r = 1, 2, ce qui est peut-être dû à l’utilisation de have comme auxiliaire des temps composés. 6.4 Discussion Ce chapitre a présenté l’application de l’indice d’autocorrélation, exposé dans la section 3.2, à différents traitements textuels. Calculé sur la base de deux éléments, une matrice d’échange E et une matrice de dissimilarités euclidiennes carrées D, cet indice, d’abord développé pour l’analyse spatiale, dont les séries temporelles sont un cas particulier, permet de modéliser différentes navigations séquentielles dans un texte, grâce à E, et de mesurer la variation de caractéristiques mesurées sur les unités textuelles dans ces navigations, grâce à D. Le premier exemple (section 6.1), assez simple, concernant la longueur des mots, a permis de comparer les différentes matrices d’échange et de retrouver le résultat, présupposé, d’alternance entre mots longs et mots courts. Puis, le second exemple (section 6.2), sur les parties du discours, a mis en lumière certaines structures syntaxiques. Finalement, le troisième exemple (section 6.3), sur l’autocorrélation sémantique, a montré qu’il est possible de mesurer une sorte de6.4. Discussion 95 variabilité sémantique dans un voisinage donné. De plus, les dissimilarités sémantiques, qui sont euclidiennes carrées, ont pu être, par le biais du MDS, visualisées et décomposées en dimensions factorielles, sur lesquelles l’autocorrélation a pu être à nouveau mesurée. Pour une approche comparable, quoique distincte, sur l’autocorrélation sémantique, voir Samsonovich (2014). Seul un petit aperçu des applications textuelles possibles ont été présentées ici. Signalons que l’on peut également mesurer, pour un texte, l’autocorrélation de la présence et l’absence de termes. Concernant un dialogue ou une pièce de théâtre, il est possible de calculer l’autocorrélation de la longueur d’une réplique, du sexe de l’interlocuteur ou du profil de catégories morpho-syntaxiques d’une réplique par l’intermédiaire d’une table de contingence et de dissimilarités du khi2. De surcroît, en plus de modéliser la navigation à l’intérieur d’un document, on peut aussi modéliser la navigation hypertextuelle dans un réseau textuel (voir Bavaud et al., 2012 ; Bavaud et al., accepté pour publication). Cet indice permet aussi de mesurer les variations présentes dans les séquences musicales (voir section 8.2). En conclusion, cet indice, δ, permet d’explorer une large palette de données textuelles en résumant l’information concernant une dissimilarité et un voisinage à un seul indicateur.Partie III APPLICATIONS MUSICALES 97CHAPITRE 7 Formats symboliques de données musicales La musique se transmet principalement de deux manières : par le son ou par l’écriture (pour une revue des sources de données musicales et de leur historique, voir par exemple Vatolkin, 2013, section 2.1.2). Si l’on compare cela à la linguistique, le son représente la parole ; et l’écriture, le texte qui retranscrit cette parole. Concernant le son, des fichiers audio sont utilisés (voir par exemple Kriesel, 2013, section 2.2). Dans le cas de l’écriture, ce qui nous intéresse ici, on utilise le plus souvent des partitions (section 7.1). Cependant, pour traiter les partitions avec un ordinateur, il faudra les numériser et leur donner un aspect « textuel ». Ceci est à peu près équivalent à utiliser, pour l’analyse textuelle, un fichier en format .txt et non un .pdf. On parlera alors de partitions numériques (digital scores) ou de formats symboliques (symbolic formats) 1 . Pour rappel, les données musicales symboliques sont définies comme « La description détaillée de toutes les informations nécessaires à l’affichage (ou gravure) précis d’une partition. » (Faget, 2011, p. 12). Un format symbolique très connu pour la musique est le MIDI qui, de plus, produit du son (section 7.2). Bien que ce ne soit pas fait dans ce travail, il est possible d’extraire l’information d’un fichier MIDI pour pouvoir l’analyser de manière « textuelle ». Cependant, il existe aussi d’autres formats qui reproduisent les partitions sous forme de texte et qui sont souvent accompagnés de logiciels permettant de transformer des fichiers MIDI dans ce format et inversément. Parmi les nombreux formats existants, uniquement trois seront présentés dans ce qui suit (section 7.3) : Melisma, ABC et Humdrum. 7.1 Partitions C ♯ 4 ♩ ♩♩♩ ♩ ♩ Do « serrure » ♩♩ Chiffrage 4 Armature Adagio (♩= 60 ) Tempo Figure 7.1 – Principales informations transmises par une partition. Les principales informations transmises par une partition (figure 7.1) sont : 1. Il faut éviter de parler de formats numériques, car ces derniers incluent aussi les fichiers audio. 99100 7. FORMATS SYMBOLIQUES DE DONNÉES MUSICALES — les informations générales, telles que le titre, le nom du compositeur, etc. ; — le tempo, indiqué par un mot ou un groupe des mots, comme par exemple lento, adagio, allegretto, presto ou andante non troppo e con molta espressione ; ou indiqué par une pulsation pas minute pour une durée ou une valeur de note donnée ; — les instruments, lorsque la partition concerne plusieurs instruments ; — l’armure ou l’armature, qui est l’ensemble d’altérations indiquant la tonalité du morceau de musique ; — le chiffrage ou la mesure, qui donne une information sur la rythmique ; — les répétitions ; — les notes, et en particulier : — leur hauteur (do (C en anglais), ré (D), ..., la (A) et si (B), et au milieu d’un clavier de piano, le do « serrure ») et — leur durée ou leur valeur (croche ( ), noire (♩), blanche (), ronde (), etc.) ; — les silences ; — les nuances (ppp, pp, p, mp, mf, f, ff, fff, crescendo, diminuendo, appassionato, pesante, etc.) ; — etc. Deux extraits de partitions, qui seront utilisés pour les exemples concernant les formats symboliques dans la suite de ce chapitre, sont présentés dans les figures 7.2 et 7.3. MINUETTO Allegretto 2 3 4 5 6 7 4 3 4 3 p Figure 7.2 – Extrait de la « sonate pour piano n˚1 en fa mineur, op. 2 n˚1, 3ème mouvement » de Beethoven. Figure 7.3 – Extrait de « Für Elise » de Beethoven, en Angleterre [sic], résultant du code au format ABC de la figure 7.7. Source : http://abcnotation.com/getResource/downloads/ image/fur-elise.png?a=trillian.mit.edu/~jc/music/abc/mirror/home.quicknet.nl/ england/1837.7.2. Format MIDI en bref 101 7.2 Format MIDI en bref Le M.I.D.I (Musical Instrument Digital Interface = Interface numérique pour instrument de musiques) est apparu en 1982-1983 (http://www.midi.org). À la base, c’est à la fois une interface et un protocole qui permettent aux instruments de musique numérique ou électronique de communiquer entre eux. Ce qui nous intéresse ici est le format de fichier MIDI qui est une structure de données permettant de transcrire de la musique. Ce fichier ne contient pas des sons, mais des instructions individuelles correspondant à des notes de musique pour chaque instrument. Les principales instructions qu’on trouve dans un fichier MIDI sont : — les informations générales, telles que le rythme, le chiffrage, la tonalité, etc. ; et — des pistes contenant le début et la fin des notes, leur hauteur, leur volume, etc. En particulier, la hauteur des notes est codée par des nombres compris entre 0 et 127, avec le nombre 60 pour le do « serrure ». 7.3 Formats « textuels » 7.3.1 Le format Melisma Le système The Melisma Music Analyzer (http://www.link.cs.cmu.edu/music-analysis/) permet d’analyser de la musique et prend, en entrée, des fichiers que l’on appellera « fichiers au format Melisma ». Ce système contient un programme, « mftext », qui permet de convertir des fichiers MIDI en fichiers Melisma. L’extension de ces derniers est .notes. Ils contiennent, dans l’ordre chronologique, les notes jouées avec leur hauteur en nombres, identiques à ceux des fichiers MIDI, ainsi que les temps de début et de fin de ces notes en millisecondes. Il existe deux types de formats Melisma : un dont chaque ligne représente une note (figures 7.4 et 7.5) ; et un autre dont chaque note est écrite sur deux lignes, soit une ligne pour le début de la note et l’autre pour la fin de la même note (figure 7.6). Note 750 937 68 Note 1125 1500 61 Note 1125 1500 70 Note 1500 1875 58 Note 1500 1875 67 Note 2250 2625 60 Note 2250 2625 68 Note 2625 2906 56 Note 2625 2906 65 Note 3000 3375 60 Note 3000 3375 65 Note 3375 3750 60 Note 3375 3750 64 Note 3750 4125 60 Note 3750 4125 65 Note 4125 4500 60 Note 4125 4406 67 Note 4500 4875 70 Note 4500 5250 60 Note 4875 5156 68 Note 5250 5437 63 Note 5250 5437 72 Note 5625 6000 65 Note 5625 6000 73 Note 6000 6281 61 Note 6000 6281 70 Note 6750 7125 63 Note 6750 7125 72 Note 7125 7500 60 Note 7125 7500 68 Note 7500 7781 63 Note 7500 7781 68 Note 7875 8250 63 Note 7875 8250 67 Note 8250 8625 63 Note 8250 8625 68 Note 8625 9000 63 Note 8625 8906 70 Figure 7.4 – Format Melisma (une note par ligne) pour l’extrait de la partition de la figure 7.2. Ce fichier est une retranscription de la partition, mais il semblerait qu’il ne contienne que la première des deux portées, qu’il manque le premier do et que la durée d’une noire soit environ égale à 375 ms. Source : http://www.link.cs.cmu.edu/link/ftp-site/music-analysis/ notefiles/misc/beet.fmison.III.q.notes. Il faut remarquer que dans cette figure, ainsi que dans les suivantes de ce chapitre, les encadrés sont « empilés », c’est-à-dire qu’ils constituent les parties successives d’un seul et même fichier.102 7. FORMATS SYMBOLIQUES DE DONNÉES MUSICALES Reference COM: Beethoven, Ludwig van Reference CDT: 1770///-1827/// Reference OTL: Piano Sonata no. 1, mvmt. 3 Reference OMD: Minuet: Allegretto Reference OPS: Op. 2 Reference ONM: No. 1 Reference OMV: No. 3 Reference AGN: Minuet and Trio Comment Minuetto: Allegretto Info keysig 4 sharps Info key F Minor Info Tempo 118 MM per quarter note Note 0 508 60 Note 0 508 68 Note 508 1017 61 Note 508 1017 70 Note 1017 1525 58 Note 1017 1525 67 Note 1525 2034 53 Note 2034 2542 60 Note 2034 2542 68 Note 2542 3051 56 Note 2542 3051 65 Note 3051 3559 53 Note 3051 3559 56 Note 3051 3559 60 Note 3051 3559 65 Note 3559 4068 55 Note 3559 4068 58 Note 3559 4068 60 Note 3559 4068 64 Note 4068 4576 53 Note 4068 4576 56 Note 4068 4576 60 Note 4068 4576 65 Note 4576 5085 52 Note 4576 5085 55 Note 4576 5085 60 Note 4576 5085 67 Note 5085 6102 53 Note 5085 6102 56 Note 5085 5593 70 Note 5085 6102 60 Note 5593 6102 68 Note 6102 6610 63 Note 6102 6610 72 Note 6610 7119 65 Note 6610 7119 73 Note 7119 7627 61 Note 7119 7627 70 Note 7627 8136 44 Note 7627 8136 56 Note 8136 8644 63 Note 8136 8644 72 Note 8644 9153 60 Note 8644 9153 68 Note 9153 9661 56 Note 9153 9661 60 Note 9153 9661 63 Note 9153 9661 68 Note 9661 10169 58 Note 9661 10169 61 Note 9661 10169 63 Note 9661 10169 67 Note 10169 10678 56 Note 10169 10678 60 Note 10169 10678 63 Note 10169 10678 68 Note 10678 11186 55 Note 10678 11186 58 Note 10678 11186 63 Note 10678 11186 70 Figure 7.5 – Format Melisma (une note par ligne) pour l’extrait de la partition de la fi- gure 7.2, avec le même principe « d’empilement » des encadrés que dans la figure 7.4. Ce fichier a été créé par une conversion automatique d’un fichier Humdrum (cf. section 7.3.3), c’est pourquoi les premières lignes contiennent des informations générales supplémentaires. De plus, le tempo indique 118 pulsations par minutes pour une noire, soit une durée d’environ 508.5 ms pour une noire. Source : http://kern.ccarh.org/cgi-bin/ksdata?l=users/craig/ classical/beethoven/piano/sonata&file=sonata01-3.krn&f=melisma.7.3. Formats « textuels » 103 Note-on 2326 60 Note-on 2327 68 Note-off 2395 68 Note-off 2462 60 Note-on 2687 70 Note-on 2704 61 Note-on 3020 58 Note-off 3025 61 Note-on 3037 67 Note-off 3038 70 Note-off 3158 67 Note-off 3213 58 Note-on 3384 53 Note-off 3517 53 Note-on 3739 68 Note-on 3747 60 Note-off 4027 68 Note-on 4055 56 Note-off 4063 60 Note-on 4078 65 Note-off 4157 56 Note-off 4172 65 Note-on 4422 65 Note-on 4443 60 Note-on 4446 56 Note-on 4477 53 Note-off 4698 60 Note-off 4707 53 Note-off 4739 56 Note-on 4772 55 Note-on 4779 64 Note-on 4780 58 Note-on 4784 60 Note-off 4833 65 Note-off 4990 60 Note-off 5037 58 Note-off 5097 55 Note-on 5134 60 Note-on 5135 56 Note-on 5138 53 Note-on 5139 65 Note-off 5178 64 Note-off 5333 60 Note-off 5408 56 Note-off 5437 53 Note-on 5460 67 Note-on 5468 55 Note-on 5470 60 Note-on 5476 52 Note-off 5493 65 Note-off 5718 60 Note-off 5795 55 Note-on 5812 53 Note-off 5817 52 Note-on 5827 70 Note-on 5828 60 Note-on 5839 56 Note-off 5840 67 Note-off 6108 70 Note-on 6156 68 Note-off 6169 53 Note-off 6199 60 Note-off 6221 56 Note-off 6235 68 Note-on 6521 63 Note-on 6538 72 Note-off 6628 72 Note-off 6672 63 Note-on 6888 65 Note-on 6900 73 Note-off 7221 73 Note-on 7231 61 Note-on 7237 70 Note-off 7281 65 Note-off 7356 70 Note-off 7400 61 Note-on 7579 44 Note-on 7598 56 Note-off 7697 44 Note-off 7769 56 Note-on 7941 63 Note-on 7951 72 Note-off 8244 72 Note-off 8253 63 Note-on 8264 60 Note-on 8277 68 Note-off 8370 60 Note-off 8416 68 Note-on 8604 63 Note-on 8614 68 Note-on 8617 56 Note-on 8628 60 Note-off 8847 63 Note-off 8907 56 Note-on 8946 58 Note-on 8962 63 Note-on 8966 61 Note-on 8967 67 Note-off 8969 60 Note-off 8995 68 Note-off 9167 63 Note-off 9243 61 Note-on 9295 63 Note-on 9304 60 Note-on 9310 68 Note-on 9317 56 Note-off 9352 67 Note-off 9355 58 Note-off 9504 63 Note-off 9565 60 Note-off 9590 56 Note-on 9640 58 Note-on 9649 63 Note-on 9652 70 Note-on 9672 55 Note-off 9695 68 Note-off 9878 63 Note-off 9982 55 Note-off 10004 70 Figure 7.6 – Format Melisma (deux lignes pour une note) pour l’extrait de la partition de la figure 7.2, avec le même principe « d’empilement » des encadrés que dans la figure 7.4. Ce fichier a été produit par la conversion automatique d’un fichier MIDI (cf. section 7.2), ainsi la durée d’une noire peut varier selon l’interprétation du musicien. Source : http://www.link.cs.cmu. edu/link/ftp-site/music-analysis/notefiles/misc/beet.fmison.III.p.notes.104 7. FORMATS SYMBOLIQUES DE DONNÉES MUSICALES 7.3.2 Le format ABC X:1838 T:F\"ur Elise T:Bagatelle No.25 in A, WoO.59 O:england C:Ludwig van Beethoven %http://www.musicaviva.com/beethoven-ludwig-van.abc V:1 Program 1 0 %Piano V:2 Program 1 0 bass %Piano M:3/8 L:1/16 Q:3/8=40 K:Am V:1 e^d|e^deB=dc|A2 z CEA|B2 z E^GB|c2 z Ee^d| V:2 z2|z6|A,,E,A, z z2|E,,E,^G, z z2|A,,E,A, z z2| % V:1 e^deB=dc|A2 z CEA|B2 z EcB|[1A2 z2:|[2A2z Bcd| V:2 z6|A,,E,A, z z2|E,,E,^G, z z2|[1A,,E,A, z :|[2A,,E,A, z z2| Figure 7.7 – Format ABC pour l’extrait de la partition de la figure 7.3. Source : http://abcnotation.com/tunePage?a=trillian.mit.edu/~jc/music/abc/mirror/home. quicknet.nl/england/1837. Un fichier au format ABC (http://abcnotation.com/) a comme extension : .abc. 2 Comme pour le format Melisma, il existe un programme permettant de transformer un fichier MIDI en fichier ABC. Il se compose d’un préambule et d’un corps (figures 7.7 et 7.8). Les principales informations du préambule sont : — un numéro de référence (X) ; — un titre (T) ; — le nom du compositeur (C) ; — la durée de référence des notes (L), qui va servir de base pour indiquer la durée de chaque note dans le corps du fichier, où 1/4 correspond à une noire, 1/8, à une croche, 1/16, à une double croche, etc. ; — le chiffrage (M) ; — le tempo (Q), indiqué, comme pour les partitions (cf. section 7.1), avec un mot ou des pulsations par minute pour une durée de note donnée ; — la tonalité (K) ; — etc. L’ordre du préambule est strict concernant le numéro de référence et le titre, qui doivent toujours être au début, et la tonalité, qui doit toujours être à la fin du préambule, contrairement aux autres éléments. Dans le corps, chaque ligne représente une portée telle qu’elle apparaît sur la partition. Lorsqu’il s’agit d’un système de portées, toutes les portées du système sont représentées à la suite et indiquées par « V » suivi d’un nombre. Les principales notations utilisées dans le corps sont les suivantes : 2. Il existe une variante de ce format, très similaire, nommée « ABC Plus » (http://abcplus.sourceforge. net/), dont un exemple est présenté dans la figure 7.8.7.3. Formats « textuels » 105 — des lettres pour la hauteur des notes, correspondant aux noms des notes en anglais, avec « C » pour le do « serrure », « C, » pour le do une octave en-dessous, et pour chaque octave plus basse, une virgule est ajoutée ; « c » représente le do une octave en-dessus du do « serrure », « c’ », le do encore une octave au-dessus, et des apostrophes sont ajoutées pour chaque octave plus haute ; — la lettre « z » pour les silences ; — des nombres, pour la durée des notes, relatifs à la durée de référence indiquée dans le préambule (L) et précédés d’un « / » lorsque la durée est plus courte que celle de référence ; — d’autres symboles pour les altérations : _ pour [ , = pour \ et ˆ pour ]; — des guillemets pour les accords écrits explicitement sur une partition, par exemple "Gm7" ; — des crochets pour les notes jouées simultanément, ou en d’autres termes, les accords écrits note par note sur une portée, par exemple [CEGc] ; — divers symboles pour représenter les différentes barres de mesure, tels que | pour une barre de mesure simple, || pour une barre de mesure double marquant une partie du morceau, |] pour la barre de mesure indiquant la fin d’un morceau, :| pour la barre de mesure qui indique une répétition, etc. ; — etc. En conclusion, ce format est particulièrement adapté pour la création de partitions. X: 1 T: Piano Sonata no. 1, mvmt. 3 C: Ludwig van Beethoven %%abc-version 2.0 %%abcx-abcm2ps-target-version 5.9.1 (29 Sep 2008) %%abc-creator hum2abc beta %%abcx-conversion-date 2012/04/13 12:40:19 %%abc-edited-by Craig Stuart Sapp %%abcx-initial-encoding-date 2004/04/06/ %%gracespace 0 6 6 %%notespacingfactor 1.85 %%humdrum-veritas 3897117643 %%humdrum-veritas-data 871200473 %%continueall 1 %%barnumbers 0 F: http://kern.ccarh.org/cgi-bin/ksdata?l=users/craig/ classical/beethoven/piano/ sonata&file=sonata01-3.krn&f=abcplus L: 1/4 M: 3/4 Q: "Minuet: Allegretto" 1/4=116 %%staves {1 2} V: 1 clef=treble V: 2 clef=bass K: Ab [V:1] .[CA] [I:setbarnb 1]| [V:2] z | [V:1] ([DB][B,G])z | [V:2] zzF, | [V:1] ([CA][A,F])([CF] | [V:2] zz([F,A,] | [V:1] [C=E][CF][CG]) | [V:2] [G,B,][F,A,][=E,G,]) | [V:1] (BA)[Ec] & C2z | [V:2] [F,2A,2]z | [V:1] ([Fd][DB])z | [V:2] zz[A,,A,] | [V:1] ([Ec][CA])([EA] | [V:2] zz([A,C] | [V:1] [EG][EA][EB]) | [V:2] [B,D][A,C][G,B,]) | Figure 7.8 – Format ABC Plus pour l’extrait de la partition de la figure 7.2, avec le même principe « d’empilement » des encadrés que dans la figure 7.4. Ce fichier a été créé par une conversion automatique d’un fichier Humdrum (cf. section 7.3.3). Source : http://kern.ccarh.org/cgi-bin/ksdata?l=users/craig/classical/beethoven/ piano/sonata&file=sonata01-3.krn&f=abcplus. 7.3.3 Le format Humdrum Les fichiers au format Humdrum (ou format **kern), disponibles sur le site http://kern. ccarh.org/, ont été créés, le plus souvent avec un programme de reconnaissance optique de musique, pour être traités avec le Humdrum Toolkit for Music Research 3 (Sapp, 2005). Ce logiciel a été conçu pour assister les chercheurs en musique et offre de nombreuses possibilités 3. http://humdrum.org/Humdrum/install.html.106 7. FORMATS SYMBOLIQUES DE DONNÉES MUSICALES (Huron, 1994, 1998). En plus de ce logiciel, il existe une série de programmes (Humdrum extras, http://extra.humdrum.org/) qui permettent, comme le logiciel, la transposition de partitions ou la sélection de différentes parties, mais aussi de de convertir les fichiers Humdrum en d’autres formats, tels ceux présentés ci-dessus (figures 7.5 et 7.8). Cette série de programmes sera utilisée pour les manipulations des fichiers dans le chapitre 8. !!!COM: Beethoven, Ludwig van !!!CDT: 1770///-1827/// !!!OTL: Piano Sonata no. 1, mvmt. 3 !!!OMD: Minuet: Allegretto !!!OPS: Op. 2 !!!ONM: No. 1 !!!OMV: No. 3 !!!AGN: Minuet and Trio **kern **dynam **kern **dynam *Ipiano *Ipiano *Ipiano *Ipiano *>[A,A,B,B,C,C,D,D,A,B] *>[A,A,B,B,C,C,D,D,A,B] *>[A,A,B,B,C,C,D,D,A,B] *>[A,A,B,B,C,C,D,D,A,B] *>norep[A,B,C,D,A,B] *>norep[A,B,C,D,A,B] *>norep[A,B,C,D,A,B] *>norep[A,B,C,D,A,B] !! Minuetto: Allegretto *>A *>A *>A *>A *clefF4 *clefF4 *clefG2 *clefG2 *k[b-e-a-d-] *k[b-e-a-d-] *k[b-e-a-d-] *k[b-e-a-d-] *f: *f: *f: *f: *M3/4 *M3/4 *M3/4 *M3/4 *MM118 *MM118 *MM118 *MM118 4r . 4c’/ 4a-’/ p =1 =1 =1 =1 4r . (4d-/ 4b-/ . 4r . 4B-/) 4g/ . 4F\ . 4r . =2 =2 =2 =2 4r . (4c/ 4a-/ . 4r . 4A-/) 4f/ . 4F\ (4A-\ . (4c/ 4f/ . =3 =3 =3 =3 4G\ 4B-\ . 4c/ 4e/ . 4F\ 4A-\ . 4c/ 4f/ . 4E\ 4G\) . 4c/) 4g/ . =4 =4 =4 =4 * * *^ * 2F\ 2A-\ . (4b-/ 2c\ . . . 4a-/) . . 4r . 4e-/ 4cc/ 4r . * * *v *v * =5 =5 =5 =5 4r . (4f/ 4dd-/ . 4r . 4d-/) 4b-/ . 4AA-\ 4A-\ . 4r . =6 =6 =6 =6 4r . (4e-/ 4cc/ . 4r . 4c/) 4a-/ . 4A-\ (4c\ . (4e-/ 4a-/ . =7 =7 =7 =7 4B-\ 4d-\ . 4e-/ 4g/ . 4A-\ 4c\ . 4e-/ 4a-/ . 4G\ 4B-\) . 4e-/) 4b-/ . =8 =8 =8 =8 etc. ==:|! ==:|! ==:|! ==:|! *-*-*-*- !!!ENC: Craig Stuart Sapp !!!END: 2004/04/06/ !!!ONB: preliminary proof reading done on 2008/10/20/ !!!hum2abc: --spacing 1.85 Figure 7.9 – Format Humdrum pour l’extrait de la partition de la figure 7.2, avec le même principe « d’empilement » des encadrés que dans la figure 7.4. Source : http://kern.ccarh.org/cgi-bin/ksdata?l=users/craig/classical/beethoven/ piano/sonata&file=sonata01-3.krn&f=kern. L’extension utilisée pour ce format est : .krn. Comme pour le format ABC, il est composé d’un préambule et d’un corps (figure 7.9). En plus, une série de commentaires est généralement présente au début du fichier. La structure de ces fichiers est très différente de celle des fichiers ABC, car ici chaque colonne représente une voix de la partition. Les informations générales (comme le titre et le compositeur) se trouvent dans les commentaires au début du fichier 4 . Le préambule est divisé en colonnes comme le corps. Chaque colonne contient : — le début, indiqué par l’expression : **kern ; — une indication de la portée ou de l’instrument ; 4. Selon la littérature, les commentaires généraux sont indiqués par deux point d’exclamation (! !) et les commentaires concernant une seule des voix, par un point d’exclamation (!). Cependant, il semblerait que dans les fichiers disponibles sur http://kern.ccarh.org/, un point d’exclamation ait été ajouté à cette convention pour les premiers et les derniers commentaires du fichier.7.3. Formats « textuels » 107 — la clé ; — l’armature (k[...]) ; — la tonalité ; — le chiffrage (M) ; — parfois, le tempo (MM) ; — etc. et chaque information commence par une étoile. Dans le corps du fichier, chaque ligne représente un moment, apparaissant dans l’ordre chronologique. Les principales notations utilisées sont les suivantes : — des lettres pour la hauteur des notes, correspondant aux noms des notes en anglais, avec « c » pour le = do « serrure », puis « cc » pour le do une octave en-dessus, puis « ccc », etc., et le même principe est appliqué avec des lettre majuscules pour les notes plus graves, soit « C » pour le do une octave en-dessous de « c », puis « CC », etc. ; — la lettre « r »pour les silences ; — des nombres fixes pour la durée des notes, avec, par exemple, 1 pour la ronde, 4 pour la noire et 2. pour la blanche pointée ; — d’autres symboles pour les altérations : - pour [, n pour \ et # pour ] 5 ; — des signes d’égalité pour indiquer les barres de mesures, éventuellement suivis du numéro de la mesure dans la partition. 7.3.4 Comparaison de ces trois formats Le format ABC est particulièrement bien conçu pour conserver un maximum d’informations et donc pour écrire des partitions (après transposition, ou autre changement), mais moins pour le traitement informatique, ne serait-ce qu’en raison de sa flexibilité. Le format Melisma est beaucoup plus simple, certainement le plus pratique pour l’analyse informatique, mais perd beaucoup d’information. Entre les deux, le format **kern est suffisamment structuré et fixe pour être traité informatiquement et conserve la grande majorité des informations contenues sur la partition. De plus, comme il a déjà été mentionné, il existe une base de données dédiée à ce format et il a l’avantage d’être lié à de nombreux programmes permettant, d’une part, d’obtenir les autres formats les plus utilisés, dont les trois présentés dans ce chapitre et, d’autre part, de transposer les partitions, d’extraire certaines informations, etc. 5. Contrairement au format ABC, ici les altérations sont notifiées pour chaque note, même lorsqu’elles sont déjà mentionnées dans le préambule.CHAPITRE 8 Analyse de données musicales Ce chapitre, qui reprend la structure, les méthodes, une partie du texte traduite et les résultats présentés dans l’article Cocco et Bavaud (accepté pour publication) et ajoute de nombreux résultats, présente une analyse exploratoire de données de musique polyphonique en format symbolique. À cet effet (section 8.1), on divise la partition en durées égales, puis on transforme des partitions numériques (cf. chapitre 7) en tables de contingence qui comptent la durée de chaque note pour chaque intervalle de temps. Cette représentation, très proche de la représentation sur rouleau de piano pneumatique (piano-roll representation) et, pour les fichiers audio, de la repré- sentation Chroma (voir par exemple Ellis et Poliner, 2007; Müller et Ewert, 2011; Kriesel, 2013, section 2.4), a l’avantage de représenter de la musique polyphonique dans un format compatible avec des méthodes d’analyse de données courantes, telles que l’AFC, et d’être invariante sous agrégation (cf. section 8.1.1). Pour commencer (section 8.2), des morceaux de musique complets sont analysés, par l’intermédiaire de l’AFC et de l’indice d’autocorrélation. Ces deux méthodes permettent de découvrir des structures intrinsèques dans des partitions de musique, ainsi que d’en visualiser les patterns. Elles sont illustrées par un exemple monophonique et par plusieurs exemples polyphoniques. Ensuite, dans la section 8.3, les différentes voix d’une même partition, ainsi que les liens qui existent entre elles, sont analysés par l’intermédiaire d’une analyse des correspondances multiples (ACM) floue et de l’indice d’autocorrélation croisée. Ces deux méthodes sont appliquées à deux partitions polyphoniques composées pour plusieurs instruments. Finalement, une mesure de similarité entre deux partitions, basée sur la représentation des partitions de musique par des tables de contingence, est présentée dans la section 8.4. À partir de cette mesure de similarité, des partitions écrites par plusieurs compositeurs sont regroupées par une classification ascendante hiérarchique. 8.1 Représentation des données 8.1.1 Formalisme Une partition musicale peut être représentée par une table de contingence brute X = (xtj ) qui croise les intervalles de temps (t = 1, . . . , n) et la hauteur des notes (j = 0, . . . , m). Cette table compte la durée de chaque hauteur de note dans chaque intervalle de temps. Ainsi, la répétition de notes de même hauteur dans un intervalle de temps n’est pas codée. 109110 8. ANALYSE DE DONNÉES MUSICALES Aussi, toutes les hauteurs de note sont rapportées à l’octave et l’on attribue la valeur de 0 à do ; de 1 à do] ou ré[; de 2 à ré, etc. 1 Ensuite, un vrai silence, z, qui correspond à un moment durant lequel aucune note n’est jouée, est ajouté. Au final, j peut prendre 13 valeurs différentes : 0 à 11 et z. Concernant les intervalles de temps, ils ont une durée constante qui vaut τ . Cette durée peut prendre n’importe quelle valeur, telle qu’un nombre de doubles croches, de mesures ou de millisecondes. Par conséquent, la durée totale d’une partition (ou d’un extrait) vaut τtot = nτ . Les figures 8.1 et 8.2 présentent deux exemples de la table de contingence transposée, un pour l’extrait d’une partition de piano et un autre pour l’extrait d’une partition pour un quatuor à cordes, chacune avec deux valeurs de τ . 11 12 4 3 4 3 p sfz Intervalles de temps t avec τ = ♩ notes j 29 30 31 32 33 34 35 36 37 0 0 4 0 4 4 0 4 0 0 1 4 0 4 0 0 4 0 0 0 3 4 4 0 4 4 4 0 0 0 5 0 0 4 0 0 0 0 0 2 7 0 0 0 0 0 4 0 0 2 8 4 4 0 4 4 0 8 0 0 10 0 0 4 0 0 4 0 0 0 z 0 0 0 0 0 0 0 4 0 Intervalles de temps t avec τ = . notes j 10 11 12 0 4 8 4 1 8 4 0 3 8 12 0 5 4 0 2 7 0 4 2 8 8 8 8 10 4 4 0 z 0 0 4 Figure 8.1 – Extrait de la « sonate pour piano n˚1 en fa mineur, op. 2 n˚1, 3ème mouvement » de Beethoven. Table de contingence transposée X = (xtj ), qui donne la durée de chaque hauteur de note en nombre de double-croches pour τ égal à une noire (haut) et à une blanche pointée (bas). En plus de permettre de traiter de la musique polyphonique, cette représentation a l’avantage d’être invariante sous agrégation : ainsi doubler la valeur de τ revient à sommer les effectifs de deux intervalles de temps successifs. Donc, si T représente un intervalle de temps composé d’intervalles de temps plus petits t, alors les nouveaux effectifs deviennent : x˜T j := X t∈T xtj comme l’illustrent les figures 8.1 et 8.2. Lavrenko et Pickens (2003) et Morando (1981) utilisent des représentations relativement similaires, à ceci près que les premiers ne considèrent ni la durée des notes, ni celle entre les notes, et que le second base sa représentation sur la succession des accords. De plus, ces représentations ne sont pas invariantes sous agrégation, à l’inverse de celle présentée ici. 1. Si l’on décidait de ne pas reporter les notes à l’octave, le formalisme serait strictement identique, il suffirait d’augmenter le nombre de modalités j.8.1. Représentation des données 111 9 10 11 4 3 4 3 4 3 4 3 f f f f Intervalles de temps t avec τ = ♩ notes j 22 23 24 25 26 27 28 29 30 31 0 6 6 8 0 0 0 16 0 0 0 4 0 0 4 0 0 8 0 0 0 0 5 4 4 0 16 12 8 0 0 0 16 7 0 0 4 0 4 0 0 0 0 0 9 4 4 0 0 0 0 0 0 0 0 11 2 2 0 0 0 0 0 0 0 0 z 0 0 0 0 0 0 0 4 4 0 Intervalles de temps t avec τ = . notes j 8 9 10 11 0 20 0 16 0 4 4 8 0 0 5 8 36 0 16 7 4 4 0 0 9 8 0 0 0 11 4 0 0 0 z 0 0 8 0 Figure 8.2 – Extrait du « 1er mouvement « Allegro con brio » du Quatuor à cordes en fa majeur, op. 18 no 1 » de Beethoven. Table de contingence transposée X = (xtj ), qui donne la durée de chaque hauteur de note en nombre de double-croches pour τ égal à une noire (haut) et à une blanche pointée (bas). Dans un second temps, la table brute X = (xtj ) est normalisée à Ξ = (ξtj ), de façon à ce que la somme de chaque ligne ξt• soit égale à 1 : ξtj = xtj xt• (8.1) Par conséquent, la même importance est donnée à chaque intervalle de temps (ft = 1/n), quels que soient la durée et le nombre de notes qu’il contient, ce qui implique que ξ•• = n. Comme pour la table brute, il est possible d’agréger les intervalles de temps de la table normalisée. La table normalisée agrégée Ξ˜ s’obtient soit par des moyennes pondérées : ˜ξT j = P t∈T P xt•ξtj t∈T xt• soit directement à partir de la table brute : ˜ξT j = P t∈T P xtj t∈T xt• = x˜T j x˜T• 8.1.2 Pré-traitement Pour obtenir la représentation des données exposée ci-dessus, on commence par utiliser des fichiers au format Humdrum, qui sont bien structurés, indépendants de l’interprétation d’un112 8. ANALYSE DE DONNÉES MUSICALES musicien et disponibles sur Internet (cf. section 7.3.3). En particulier, pour conserver l’œuvre dans sa version complète, on utilise les fichiers comportant toutes les répétitions, telles qu’elles sont indiquées sur la partition. Lorsque des modifications sont nécessaires, telle qu’une transposition ou l’extraction d’une voix, par exemple, la série de programmes Humdrum extras est utilisée. Ensuite, ils sont transformés en format Melisma (cf. section 7.3.1), plus simple pour le traitement informatique, à l’aide du programme « kern2melisma » de la série Humdrum extras. Avant cette transformation, le tempo des fichiers Humdrum est fixé, arbitrairement et sans conséquences sur les applications, à 100 pulsations par minute pour une noire (*MM100). Ainsi, lors de la transformation en fichier Melisma, une noire aura une durée exacte de 600 ms. Finalement, les fichiers Melisma sont transformés en tables de contingence brutes par l’intermédiaire d’un programme en Perl. Soit un fichier Melisma dont chaque ligne, l = 1, . . . , L, représente une note j, avec tdeb le temps de début de la note et tfin le temps de fin de cette note. On choisit une durée τ , en millisecondes 2 , puis, pour chaque ligne l, on obtient, pour les s entiers compris entre b tdeb τ c (inclus) et d tfin τ e (non inclus), les éléments de la table de contingence (temporaire) comme : X temp sj = min (tfin, τ (s + 1)) − max (tdeb, τs) (8.2) On procède de la même manière pour les silences (j = z), soit lorsque le temps de début de la note sur la ligne l, tdeb (l), est plus grand que les temps de fin des notes précédentes, soit des lignes 1, . . . , l − 1, tfin (l − 1), en posant, dans (8.2), tdeb = tfin (l − 1) et tfin = tdeb (l). Pour terminer, tous les effectifs de ces tables temporaires sont additionnés pour obtenir la table de contingence brute X. Lors de cette procédure, les silences présents sur la partition à la fin ou au début du morceau de musique sont perdus. Ils sont alors ajoutés « manuellement » pour conserver toutes les informations de la partition. Dans un second temps, l’agrégation est exécutée dans R. Dans toutes les applications de ce chapitre, à l’exception des figures 8.21 et 8.22, lorsque la durée τ est plus grande ou égale à une mesure et que le morceau de musique commence avec une anacrouse (ou levée), cette dernière est ajoutée à la première mesure lors de l’agrégation. Aussi, si le choix de la durée τ ne permet pas d’obtenir des diviseurs entiers de τtot, alors le dernier intervalle de temps, n, sera plus court lors de l’agrégation. Finalement, toujours dans R, les tables de contingence brutes sont normalisées pour obtenir la table Ξ (8.1). 8.2 Analyses d’une partition 8.2.1 Traitements Comme expliqué dans la section 1.4 et mis en œuvre dans la section 4.2, il est possible de pratiquer une AFC pour visualiser des données représentées sous la forme d’une table de contingence. Pour ce faire, on utilise le MDS (cf. section 1.4.1). En premier lieu, les dissimilarités du khi2 entre les intervalles de temps Dˆ st (respectivement entre les hauteurs de notes Dˇ ij ) sont calculées par (1.6) (resp. (1.7)) sur la table de contingence normalisée (8.1). Ensuite, par (1.24), on obtient la matrice des produits scalaires pondérés entre les intervalles de temps Kˆ (resp. entre les hauteurs de note Kˇ ), dont la décomposition spectrale va permettre de calculer les coordonnées factorielles (1.25). D’autre part, les intervalles de temps, ordonnés chronologiquement, peuvent s’interpréter comme des positions. Ainsi, il est possible de mesurer la différence entre la variabilité de l’ensemble des dissimilarités du khi2 entre les intervalles de temps (Dˆ st) et la variabilité locale 2. Pour ne procéder qu’une fois à la transformation des fichiers Melisma en tables de contingence avant les éventuelles agrégations, on choisit une valeur assez faible de τ , par exemple une croche.8.2. Analyses d’une partition 113 de ces dissimilarités dans un voisinage défini par E, grâce à l’indice d’autocorrélation δ (3.4), comme il a été fait pour les textes dans le chapitre 6. Concernant la matrice d’échange, seule la matrice périodique (3.2), déjà utilisée pour les textes dans la figure 6.2, sera adoptée. Pour rappel, cette dernière, contrairement aux autres matrices d’échange, a l’avantage de permettre de considérer deux positions (une à gauche et une à droite) à une distance r d’une position donnée, sans considérer les positions qui les séparent. De plus, le voisinage est périodique, ce qui correspond au cas d’un morceau de musique joué en continu. 8.2.2 Partition monophonique Afin de mieux appréhender les résultats obtenus avec ces méthodes, le premier exemple traite une chanson enfantine, dont la mélodie est connue et qui, en plus, a l’avantage d’être monophonique. 2 3 4 4 4 5 6 7 8 Figure 8.3 – Partition de « Frère Jacques » en do majeur. La figure 8.3 présente la partition de Frère Jacques transposée en do majeur (le fichier Humdrum original était en mi[ majeur) ; et la figure 8.4, l’AFC appliquée sur cette partition. Dans cette dernière, lorsque τ est égal à une croche (graphiques du haut), alors une note, au maximum, est jouée durant chaque intervalle de temps, ce qui signifie que la représentation est totalement monophonique. Dans ce cas, les dissimilarités euclidiennes carrées entre les intervalles de temps sont des dissimilarités en étoile, donc de la forme Dˆ st = as + at (voir par exemple Critchley et Fichet, 1994). Par conséquent, toutes les valeurs propres sont identiques et il est difficile de compresser les données par l’intermédiaire d’une analyse factorielle. Aussi, sur le biplot, les coordonnées des intervalles de temps coïncident exactement avec les coordonnées des hauteurs de notes, il est donc possible de suivre visuellement la partition. En augmentant la valeur de τ à une noire (graphique en bas, à gauche), le nombre d’intervalles de temps diminue et, ainsi, l’inertie expliquée par les deux premières dimensions augmente. On remarque aussi que les coordonnées factorielles dans les deux premières dimensions sont identiques pour trois notes, à savoir fa (5), sol (7) et la (9). Finalement, avec τ égal à une mesure (graphique en bas, à droite), la structure du morceau de musique apparaît, avec chaque mesure jouée deux fois. On remarque aussi l’alignement de la succession des intervalles de temps en forme de « fer à cheval ». Cet alignement est typique d’un effet de Guttman (arch ou horseshoe effect) se produisant lorsque les modalités sont ordonnées, ce qui est le cas ici selon l’ordre chronologique (voir par exemple Gauch, Whittaker et Wentworth, 1977; Camiz, 2005). De plus, on observe sur la figure 8.4, comme déjà évoqué, que l’inertie expliquée par les deux premiers facteurs varie en fonction de τ , car le nombre d’intervalles de temps diminue lorsque la durée τ augmente et, par conséquent, le nombre de dimensions α (cf. section 1.4.1) décroît aussi. Ainsi, l’inertie expliquée par les premiers facteurs augmente (graphique de gauche de la figure 8.5) et l’inertie totale ∆ (1.17) diminue (graphique de droite de la figure 8.5) avec τ . En particulier, dans ces deux figures, l’inertie reste constante lorsque τ est plus petit ou égal à une croche, soit la plus petite durée d’une note dans la partition, et lorsque τ est compris entre une ronde, donc une mesure, et deux rondes, car chaque mesure est répétée une fois. On observe aussi, qu’à l’inverse des résultats obtenus avec les diviseurs entiers de τtot qui évoluent régulièrement, les résultats calculés avec toutes les valeurs de τ sont plus fluctuants. En fait, lors114 8. ANALYSE DE DONNÉES MUSICALES -3 -2 -1 0 1 -1 0 1 2 3 Premier axe factoriel 20 % Deuxième axe factoriel 20 % 1 3 5 19 64 0 2 4 5 7 9 τ = 1 2 3 4 5 15 20 25 Dimensions Proportion d'inertie expliquée [%] τ = -1.0 -0.5 0.0 0.5 1.0 -1.5 -1.0 -0.5 0.0 0.5 1.0 1.5 Premier axe factoriel 23.76 % Deuxième axe factoriel 23.76 % 1 2 3 11 32 0 2 4 5 7 9 τ = ♩ -1.0 -0.5 0.0 0.5 1.0 -1.0 -0.5 0.0 0.5 Premier axe factoriel 60.29 % Deuxième axe factoriel 26.64 % 1 2 3 4 5 6 7 8 0 2 4 5 7 9 τ = mesure Figure 8.4 – AFC sur « Frère Jacques ». En haut, à gauche : biplot avec τ égal à une croche. Sur ce graphique et sur les suivants dans ce chapitre, les triangles, avec des nombres en italique de grande taille, représentent les hauteurs de notes, la taille des triangles étant proportionnelle au nombre de notes dans le morceau de musique ; et les cercles pleins, parfois étiquetés avec des nombres de petite taille, les intervalles de temps. Ces derniers sont reliés dans l’ordre chronologique selon la progression du temps. En haut, à droite : valeurs propres pour le biplot de gauche. En bas à gauche : biplot avec τ égal à une noire. En bas à droite : biplot avec τ égal à une mesure. de l’agrégation des effectifs des tables de contingence dans ce second cas, comme déjà mentionné, la durée du dernier intervalle de temps est plus courte et, par conséquent, le partitionnement du morceau de musique n’est pas régulier. Finalement, on constate que la courbe de l’inertie totale décroît de façon convexe, comme une hyperbole ou une exponentielle à exposant négatif. La figure 8.6 présente l’indice d’autocorrélation calculé sur le morceau de musique « Frère Jacques » avec deux valeurs de τ différentes. En premier lieu, comme déjà expliqué pour la figure 6.2, on remarque que δ = 1 lorsque r = 0 et que le graphique est symétrique. Sur le graphique de gauche, soit pour une valeur de τ égal à une noire, un pic significatif (δ = 0.495) apparaît lorsque r = 4, soit pour une distance correspondant à une mesure. En fait, en raison de la répétition systématique de chaque mesure, à chaque moment t, les mêmes notes sont jouées à une distance r = 4, parfois à gauche, parfois à droite de t. Ce pic correspond à la durée τ d’une mesure, soit celle qui permet d’obtenir la meilleure visualisation de la partition par l’AFC dans cet exemple (graphique en bas à droite de la figure 8.4). En posant τ égal à une mesure (graphique gauche de la figure 8.6), aucune valeur n’est significative et aucun pic n’apparaît. Il semble donc que cette durée soit trop élevée et que, par conséquent, trop d’information soit perdue. Cependant, il est tout de même possible d’observer que l’autocorrélation est positive (δ = 0.382) lorsque r = 1, soit pour la répétition de chaque8.2. Analyses d’une partition 115 20 40 60 80 100 Durée des intervalles de temps τ [ronde] Inertie expliquée par les premiers facteurs [%] 1/16 1/2 1 2 4 Premier facteur Somme des deux premiers facteurs 0 1 2 3 4 5 Durée des intervalles de temps τ [ronde] Inertie totale Δ 1/16 1 2 4 8 Figure 8.5 – AFC sur « Frère Jacques ». Proportion d’inertie expliquée par les premiers facteurs (gauche) et inertie totale (droite) en fonction de la valeur de τ . Dans ces deux graphiques, la ligne pointillée représente les résultats pour toutes les durées et la ligne continue, les résultats pour les diviseurs entiers de τtot. 0 5 10 15 20 25 30 -0.5 0.0 0.5 1.0 matrice d'échange périodique, r indice d'autocorrélation δ τ = ♩ 0 2 4 6 8 -1.0 -0.5 0.0 0.5 1.0 matrice d'échange périodique, r indice d'autocorrélation δ τ = mesure Figure 8.6 – Indice d’autocorrélation en fonction du décalage r variant entre 0 et n pour « Frère Jacques », avec τ égal à une noire (gauche) et à une mesure (droite). Dans cette figure, ainsi que dans les suivantes de ce chapitre, la ligne continue représente l’indice d’autocorrélation ; la ligne traitillée, la valeur attendue E0(δ) (3.5) ; et les lignes pointillées, l’intervalle de confiance à 95% (3.6). mesure, et qu’elle est négative pour r compris entre 2 et 4, soit quand on compare des mesures qui sont différentes, ce qui semble cohérent. 8.2.3 Partitions polyphoniques avec un seul instrument Dans cette section, quatre partitions polyphoniques pour piano sont étudiées : — la « Mazurka en fa] mineur, Op. 6, No1 » de Chopin : — avec un chiffrage 3/4 et 112 mesures, passages répétés inclus ; — le « Prélude No1 en do majeur, BWV 846 » de J. S. Bach : — avec un chiffrage 4/4 et 35 mesures ; — la « Sonate en ré majeur, Andante cantabile, L. 12 (K. 478) » de Scarlatti : — avec un chiffrage 3/4 et 230 mesures, passages répétés inclus ; — le 3e mouvement, « Minuetto e Trio », de la « Sonate pour piano No1 en fa mineur, Op. 2, No1 » de Beethoven : — avec un chiffrage 3/4 et 186 mesures, passages répétés inclus.116 8. ANALYSE DE DONNÉES MUSICALES -1.0 -0.5 0.0 0.5 1.0 -2.0 -1.5 -1.0 -0.5 0.0 0.5 1.0 1.5 Premier axe factoriel 17.55 % Deuxième axe factoriel 15.46 % 1 337 0 1 2 3 4 5 6 7 8 9 10 11 τ = ♩ -1.0 -0.5 0.0 0.5 -0.5 0.0 0.5 1.0 Premier axe factoriel 27.62 % Deuxième axe factoriel 22.11 % 1 2 3 4 5 112 0 1 2 3 4 5 6 7 8 9 10 11 τ = mesure -0.8 -0.6 -0.4 -0.2 0.0 0.2 0.4 -0.5 0.0 0.5 1.0 Premier axe factoriel 52.89 % Deuxième axe factoriel 33.09 % 1 2 3 4 5 6 7 8 9 10 11 12 13 14 0 1 2 3 4 5 6 7 8 9 10 11 τ = 8 mesures Figure 8.7 – AFC sur la « Mazurka en fa] mineur, Op. 6, No1 » de Chopin. Biplots avec τ égal à une noire (gauche), à une mesure (centre) et à huit mesures (droite). La figure 8.7 présente les résultats de l’AFC appliquée sur la Mazurka de Chopin, avec trois valeurs différentes de τ . La structure de la partition de musique apparaît plus clairement pour des valeurs de τ élevées. En particulier, le graphique de droite, lorsque τ est égal à huit mesures, révèle les passages similaires (1, 3, 6, 9 et 13 d’une part ; 2, 4, 7, 10 et 14 d’autre part ; ainsi que 5 et 8) et les passages différents (12 par rapport à 13 par exemple). 0 10 20 30 40 50 40 60 80 100 Durée des intervalles de temps τ [mesure] Inertie expliquée par les premiers facteurs [%] Premier facteur Somme des deux premiers facteurs 0 20 40 60 80 100 0.0 0.2 0.4 0.6 0.8 1.0 1.2 Durée des intervalles de temps τ [mesure] Inertie totale Δ Figure 8.8 – AFC sur la « Mazurka en fa] mineur, Op. 6, No1 » de Chopin. Proportion d’inertie expliquée par les premiers facteurs (gauche) et inertie totale (droite) en fonction de la valeur de τ . Comme pour la partition musicale de « Frère Jacques », augmenter la valeur de τ implique une augmentation de l’inertie expliquée par les premiers facteurs et une diminution de l’inertie totale ∆ (figure 8.8). En particulier, pour l’inertie expliquée par le premier facteur, on constate qu’elle est plus élevée lorsque τ est égal à 14 mesures, puis qu’elle ne varie que très peu entre τ égal à 16 mesures et τ égal à 28 mesures, l’explication de ce phénomène restant à établir. Concernant le graphique τ - ∆, il possède, à nouveau la même structure que celui pour « Frère Jacques » (graphique de droite de la figure 8.5). Ceci se produisant pour toutes les partitions, ce graphique sera donc omis dans les prochains exemples. Le choix consistant à sélectionner τ égal à huit mesures dans le graphique de droite de la figure 8.7, résulte, d’une part, de l’étude de la partition, et d’autre part, des résultats obtenus pour l’indice d’autocorrélation (figure 8.9). En effet, on observe que des pics significatifs se produisent toutes les 24 noires (graphique de gauche) ou toutes les 8 mesures (graphique de droite), ce qui est équivalent. Les deux graphiques apportent donc une information semblable, si ce n’est que dans le premier cas, les résultats sont plus détaillés. Ainsi, pour l’étude des trois autres partitions de piano, on choisira systématiquement τ égal à une mesure pour les indices8.2. Analyses d’une partition 117 0 50 100 150 200 250 300 350 0.0 0.2 0.4 0.6 0.8 1.0 matrice d'échange périodique, r indice d'autocorrélation δ τ = ♩ 0 20 40 60 80 100 -0.2 0.0 0.2 0.4 0.6 0.8 1.0 matrice d'échange périodique, r indice d'autocorrélation δ τ = mesure Figure 8.9 – Indice d’autocorrélation en fonction du décalage r variant entre 0 et n pour la « Mazurka en fa] mineur, Op. 6, No1 » de Chopin, avec τ égal à une noire (gauche) et à une mesure (droite). d’autocorrélation, car il semble être plus adapté à la mise en évidence de la structure globale de ces partitions polyphoniques. On remarque aussi un pic plus élevé lorsque r = 72 avec τ égal à une noire (respectivement r = 24 avec τ égal à une mesure), ce qui s’explique certainement par le fait qu’un passage composé de 24 mesures se répète, donc que les proportions de notes des intervalles de temps t = 33, . . . , 56 sont identiques aux proportions de notes des intervalles t = 57, . . . , 80. -1 0 1 2 -1 0 1 2 Premier axe factoriel 20.21 % Deuxième axe factoriel 16.31 % 1 3 5 70 0 1 2 3 4 5 6 7 9 8 10 11 τ = -2 -1 0 1 -1 0 1 2 Premier axe factoriel 20.21 % Deuxième axe factoriel 16.32 % 1 2 3 35 0 1 2 3 4 5 6 7 8 9 10 11 τ = mesure -0.5 0.0 0.5 1.0 1.5 -0.5 0.0 0.5 1.0 1.5 Premier axe factoriel 38.68 % Deuxième axe factoriel 25.23 % 2 1 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 10 11 τ = 4 mesures Figure 8.10 – AFC sur le « Prélude No1 en do majeur, BWV 846 » de J. S. Bach. Biplots avec τ égal à une blanche (gauche), à une mesure (centre) et à quatre mesures (droite). Concernant le prélude de Bach (figure 8.10), aucune structure claire n’apparaît dans les biplots obtenus par l’AFC, excepté lorsque la durée τ est égale à quatre mesures. En observant l’indice d’autocorrélation pour cette même partition (graphique de gauche de la figure 8.13), on remarque un pic lorsque r = 4 mesures qui, bien qu’il ne soit pas significatif, semble donc constituer une division intéressante de la partition. Il faut préciser que pour l’AFC, le morceau comportant 35 mesures, le temps t = 9 n’est composé que des 3 dernières mesures. Aussi, en observant les graphiques de gauche et du centre de la figure 8.10, on constate que les graphiques pour τ égal à une blanche et τ égal à une mesure sont quasiment identiques (au signe du premier facteur près). Cela s’explique par le fait que dans tout ce morceau de musique, à l’exception des mesures 33 et 34, les deux derniers temps d’une mesure sont identiques aux deux premiers. De plus, dans les mesures 33 et 34, il existe des différences entre les deux premiers et les deux derniers temps, mais les hauteurs de note rapportées à l’octave sont identiques, bien que de durées différentes. Évidemment, le même phénomène aurait pu être observé sur la partition de « Frère Jacques » : exactement le même résultat (aux signes des facteurs près) aurait été obtenu118 8. ANALYSE DE DONNÉES MUSICALES avec τ égal à deux mesures que celui qui est obtenu avec τ égal à une mesure (figure 8.4). 0 1 2 3 4 5 6 -3 -2 -1 0 1 Premier axe factoriel 31.15 % Deuxième axe factoriel 12.46 % 1 230 0 1 2 3 4 5 6 7 8 9 10 11 z -3 -2 -1 0 1 -1.5 -1.0 -0.5 0.0 0.5 1.0 Deuxième axe factoriel 12.46 % Troisième axe factoriel 10.86 % 1 230 0 1 2 3 4 5 6 7 8 9 10 11 z 0 20 40 60 80 100 40 60 80 100 Durée des intervalles de temps τ [mesure] Inertie expliquée par les premiers facteurs [%] Premier facteur Somme des deux premiers facteurs Figure 8.11 – AFC sur la « Sonate en ré majeur, Andante cantabile, L. 12 (K. 478) » de Scarlatti. Biplots avec τ égal à une mesure, 1re et 2e dimensions (gauche) et 2e et 3e dimensions (centre). Proportion d’inertie expliquée par les premiers facteurs (droite). Les résultats obtenus pour l’AFC sur la sonate de Scarlatti, avec τ égal à une mesure (graphique de gauche et du centre de la figure 8.11) sont considérablement différents de ceux obtenus pour les autres partitions de musique, en raison de la présence de vrais silences z. En fait, le profil de z est opposé au profil des autres hauteurs de note et cette opposition est capturée par le premier facteur. Par construction, le même phénomène se produit lorsque τ est plus petit ou égal à une mesure. Ainsi, pour ce morceau de musique, on remarque que l’inertie expliquée par le premier facteur (graphique de droite de la figure 8.11) n’augmente pas systématiquement avec τ , mais qu’elle diminue lorsque τ est plus petit ou égal à cinq mesures. Aussi, il n’a pas été trouvé de valeur de τ permettant de mettre clairement en évidence la structure de la partition. En observant l’indice d’autocorrélation (graphique du centre de la figure 8.13), deux pics significatifs apparaissent (δ = 0.251 et δ = 0.208) lorsque r = 54 et r = 61 mesures. Cela s’explique par le fait que les 61 premières mesures sont répétées une fois, puis les 54 mesures suivantes sont aussi répétées une fois et que ces deux parties constituent le morceau entier. Évidemment, il aurait été possible de choisir τ égal à 54 mesures pour obtenir un biplot plus simple à lire avec l’AFC, car dans ce cas, il n’y aurait eu que cinq intervalles de temps qui auraient, comme pour la partition de « Frère Jacques », manifesté un effet de Guttman. -1.0 -0.5 0.0 0.5 1.0 1.5 2.0 -1.5 -1.0 -0.5 0.0 0.5 1.0 Premier axe factoriel 18.79 % Deuxième axe factoriel 16.42 % 1 2 16 86 96 114137 186 0 1 3 2 4 5 6 7 8 9 10 11 z τ = mesure -0.5 0.0 0.5 1.0 -0.4 -0.2 0.0 0.2 0.4 0.6 0.8 1.0 Premier axe factoriel 61.41 % Deuxième axe factoriel 23.52 % 1 2 3 4 5 6 7 8 0 1 2 3 4 5 6 7 8 9 10 11 z τ = 26 mesures 0 20 40 60 80 20 40 60 80 100 Durée des intervalles de temps τ [mesure] Inertie expliquée par les premiers facteurs [%] Premier facteur Somme des deux premiers facteurs Figure 8.12 – AFC sur le 3e mouvement, « Minuetto e Trio », de la « Sonate pour piano No1 en fa mineur, Op. 2, No1 » de Beethoven. Biplots avec τ égal à une mesure (gauche) et à vingt-six mesures (centre). Proportion d’inertie expliquée par les premiers facteurs (droite). Le biplot obtenu avec l’AFC sur le 3e mouvement de la sonate de Beethoven, avec τ égal à une mesure (graphique de gauche de la figure 8.12) montre que de nombreux intervalles de temps sont superposés (par exemple le 114 et le 137), ce qui est dû aux multiples répétitions présentes dans ce morceau, mais aussi au fait que certaines mesures se composent exactement des mêmes8.2. Analyses d’une partition 119 hauteurs de note rapportées à l’octave (elles sont parfois sur des octaves différentes), avec les mêmes durées. Si l’on avait produit le biplot pour τ égal à une noire, on aurait obtenu, comme pour la partition de Scarlatti avec τ égal à une mesure, un premier axe différenciant les vrais silences des autres notes, car la durée la plus longue d’un vrai silence dans ce morceau vaut une noire. Pour sélectionner une valeur de τ permettant de visualiser la structure de la partition, l’indice d’autocorrélation, avec τ égal à une mesure, est examiné (graphique de droite de la figure 8.13). Trois pics apparaissent clairement, soit lorsque r = 26, r = 54 et r = 80 mesures. Alors que le premier pic s’explique certainement par le fait que la deuxième partie du morceau, qui est la plus longue, s’étend sur 26 mesures qui sont répétées une fois, le troisième pic s’explique peut-être par la présence des deux autres pics, puisque 26 + 54 = 80. Cependant, la signification du deuxième pic reste encore à établir. Ainsi, le premier pic, soit le seul à être significatif, est sélectionné comme valeur de τ pour le biplot présenté sur le graphique du centre de la figure 8.12. Bien que peu d’intervalles de temps soient représentés sur ce graphique, il reste tout de même difficile de l’interpréter. À noter que le dernier intervalle de temps t = 8 n’est composé que de 4 mesures, car la division de τtot par 26 mesures ne donnait pas un nombre entier. Finalement, on observe que bien que l’inertie expliquée par les premiers facteurs augmente avec la durée τ , comme pour les autres partitions de musique, la courbe croît de manière concave, sans paliers, ni pics (graphique de droite de la figure 8.12). 0 5 10 15 20 25 30 35 -0.4 -0.2 0.0 0.2 0.4 0.6 0.8 1.0 matrice d'échange périodique, r indice d'autocorrélation δ Bach 0 50 100 150 200 -0.2 0.0 0.2 0.4 0.6 0.8 1.0 matrice d'échange périodique, r indice d'autocorrélation δ Scarlatti 0 50 100 150 -0.2 0.0 0.2 0.4 0.6 0.8 1.0 matrice d'échange périodique, r indice d'autocorrélation δ Beethoven Figure 8.13 – Indice d’autocorrélation en fonction du décalage r variant entre 0 et n, avec τ égal à une mesure, pour le « Prélude No1 en do majeur, BWV 846 » de J. S. Bach (gauche), pour la « Sonate en ré majeur, Andante cantabile, L. 12 (K. 478) » de Scarlatti (centre) et pour le 3e mouvement, « Minuetto e Trio », de la « Sonate pour piano No1 en fa mineur, Op. 2, No1 » de Beethoven (droite). 8.2.4 Partition polyphonique avec plusieurs instruments Pour terminer cette analyse de partitions complètes, un morceau polyphonique composé pour quatre instruments est étudié, à savoir le « Canon en ré majeur » de Pachelbel, qui comporte 57 mesures, avec un chiffrage 4/4. La figure 8.14 présente les résultats obtenus avec l’AFC. Lorsque τ est égal à une noire (graphique en haut à gauche), une structure du morceau de musique apparaît clairement, bien qu’elle soit difficile à comprendre. En retirant les lignes qui relient les intervalles de temps et en attribuant le même symbole aux intervalles de temps avec un même décalage de t mod 8 (graphique en haut à droite), on observe que la position d’un intervalle de temps chaque huit noires ne varie que peu sur les deux premiers axes factoriels. En fait, le canon est joué par quatre instruments : trois violons et un clavecin. Alors que le clavecin joue continuellement, le premier violon commence à jouer la mélodie à la 3e mesure, puis le second violon reprend cette mélodie à la 5e mesure et finalement, le troisième violon recommence la même mélodie à partir de la 7e mesure. Ainsi, la structure de base de ce morceau de musique semble se baser sur deux120 8. ANALYSE DE DONNÉES MUSICALES -1.0 -0.5 0.0 0.5 1.0 1.5 -0.5 0.0 0.5 1.0 Premier axe factoriel 45.19 % Deuxième axe factoriel 26.49 % τ = ♩ -1.0 -0.5 0.0 0.5 1.0 1.5 -0.5 0.0 0.5 1.0 Premier axe factoriel 45.19 % Deuxième axe factoriel 26.49 % 0 1 2 4 6 7 9 11 Décalage (modulo 8) de 1 2 3 4 5 6 7 8 τ = ♩ -0.8 -0.6 -0.4 -0.2 0.0 0.2 0.4 0.0 0.5 1.0 1.5 2.0 2.5 3.0 Premier axe factoriel 66.04 % Deuxième axe factoriel 15.62 % 1 57 0 1 7 11 42 9 6 τ = mesure Figure 8.14 – AFC sur le « Canon en ré majeur » de Pachelbel. Biplots avec τ égal à une noire (haut) et à une mesure (bas). mesures, soit huit noires. En particulier, le clavecin, qui constitue la basse du morceau, joue plus de notes simultanément et influence donc fortement le résultat obtenu. Concernant le biplot obtenu lorsque τ est égal à une mesure (graphique du bas), il est plus difficile de visualiser la structure du morceau de musique, car le second axe ne différencie que le do naturel (0) des autres notes. Cela s’explique par le fait que ce do naturel n’apparaît que dans quelques mesures. Contrairement aux partitions de musique polyphoniques pour un seul instrument étudiées dans la section 8.2.3, l’indice d’autocorrélation a été calculé avec τ égal à une noire (graphique de gauche de la figure 8.15), car le résultat obtenu apporte des informations supplémentaires à celles que l’on peut observer lorsque τ est égal à une mesure (graphique de droite de la figure 8.15). En effet, lorsque τ vaut une noire, δ exhibe de nombreuses fluctuations régulières. En particulier, des pics significativement positifs et plus élevés apparaissent toutes les huit noires, ce qui semble cohérent avec l’AFC produite pour τ égal à une noire. Aussi, certaines valeurs de δ, toujours à intervalles réguliers, sont significativement négatives, ce qui n’a jamais été observé pour les autres partitions de musique étudiées. De plus, bien qu’ils soient moins élevés que les premiers, d’autres pics significativement positifs apparaissent pour r = 8c + 2 et pour r = 8c + 6 noires, où c ∈ N. Ces derniers correspondent probablement, en se basant sur une structure de huit noires, aux distances entre les intervalles de temps similaires, soit le cinq8.3. Analyses inter-voix 121 0 50 100 150 200 -0.4 -0.2 0.0 0.2 0.4 0.6 0.8 1.0 matrice d'échange périodique, r indice d'autocorrélation δ τ = ♩ 0 10 20 30 40 50 -0.5 0.0 0.5 1.0 matrice d'échange périodique, r indice d'autocorrélation δ τ = mesure Figure 8.15 – Indice d’autocorrélation en fonction du décalage r variant entre 0 et n pour le « Canon en ré majeur » de Pachelbel, avec τ égal à une noire (gauche) et à une mesure (droite). et le sept, pour le premier, et le deux et le huit, pour le second, selon le graphique en haut à droite de la figure 8.14. En se basant sur ce même graphique, on pourrait s’attendre à trouver des valeurs positives de δ aussi lorsque r = 8c + 5, en raison de la similarité des intervalles de temps un et six. Cependant, ces valeurs sont négatives, car plusieurs positions s’opposent selon le premier axe factoriel, dont l’inertie expliquée est élevée, comme par exemple les intervalles deux et sept. Lorsque τ est égal à une mesure, on constate que δ forme une courbe en dents de scie, oscillant entre des valeurs positives et négatives. Ainsi, lorsque r est paire, δ est positif, et inversement, ce qui, à nouveau, semble cohérent avec une structure de la partition de musique basée sur deux mesures. 8.3 Analyses inter-voix 8.3.1 Traitements Soit Ξ v , la table de contingence normalisée pour une des voix v = 1, . . . , V d’une partition de musique. Alors, la table de contingence complète pour une partition s’obtient comme la matrice concaténée Ξ COMP = (Ξ1 |Ξ 2 |...|Ξ V ). Une AFC est appliquée sur cette table de contingence, de manière identique à celle expliquée dans la section 8.2.1. Alors qu’une analyse des correspondances multiples (AMC) se pratique sur une table disjonctive (voir par exemple Lebart et al., 1995, section 1.4 ; Saporta, 2006, chapitre 10 ; Le Roux et Rouanet, 2010), la procédure est appliquée ici sur des lignes qui, en raison de la normalisation (8.1), contiennent les proportions des hauteurs de note de chaque voix pour un t donné, ce qui constitue une variante « floue » de l’AMC. D’autre part, afin d’étendre l’indice d’autocorrélation à deux voix (α et β), l’indice d’autocorrélation croisée, mesurant la similarité entre la distribution de la hauteur des notes de la voix α et la distribution de la hauteur des notes de la voix β dans un voisinage fixé, est utilisé (cf. section 3.3). Pour ce faire, les coordonnées de haute dimensionalité des lignes, ξ ∗ v tj , sont obtenues par (1.10), puis ces dernières permettent de calculer δ( Ξ∗ α, Ξ ∗ β ) (3.7). Comme pour l’indice d’autocorrélation, on utilise la matrice d’échange périodique (3.2). Pour rappel, plusieurs conditions sont nécessaires à l’application de l’indice d’autocorrélation croisée, à savoir que les deux tables comparées comportent 1) le même nombre de positions, ici les intervalles de temps t, 2) le même nombre de caractéristiques, ici les hauteurs de notes j et que 3) les poids des lignes des deux tables, ft , soient identiques. La condition 1) est systématiquement remplie, car les partitions sont de même longueur pour toutes les voix ; et122 8. ANALYSE DE DONNÉES MUSICALES la condition 3), car la table Ξ v est normalisée. Quant à la condition 2), elle n’est pas toujours remplie, car une hauteur de note peut être présente dans une voix et non dans une autre. Le cas échéant, la note absente dans une des voix est ajoutée avec une faible valeur (10−30) pour chaque t (cf. section 8.3.2). 8.3.2 Un canon Pour commencer, les méthodes décrites ci-dessus sont appliqués au Canon de Pachelbel déjà traité lors de l’étude des partitions complètes (cf. section 8.2.4). En premier lieu, il faut préciser que le fichier Humdrum comportait cinq voix, dont deux pour le clavecin. Néanmoins, pour ce travail, on a choisi de ne considérer que quatre voix, soit une pour chaque instrument. -1.0 -0.5 0.0 0.5 1.0 -2.0 -1.5 -1.0 -0.5 0.0 0.5 1.0 Premier axe factoriel 11.71 % Deuxième axe factoriel 11.1 % V1_0 V1_1 V1_2 V1_4 V1_6 V1_7 V1_9 V1_11 V1_z V2_0 V2_1 V2_2 V2_4 V2_6 V2_7 V2_9 V2_11 V2_z V3_0 V3_1 V3_2 V3_4 V3_6 V3_7 V3_9 V3_11 V3_z V4_0 V4_1 V4_2 V4_4 V4_6 V4_7 V4_9 V4_11 τ = ♩ -1.0 -0.5 0.0 0.5 1.0 -2.0 -1.5 -1.0 -0.5 0.0 0.5 Premier axe factoriel 11.71 % Deuxième axe factoriel 11.1 % 1 228 2 10 15 21 24 25 30 31 102 114 119 192 τ = ♩ -2.0 -1.5 -1.0 -0.5 0.0 0.5 -1.5 -1.0 -0.5 0.0 0.5 1.0 Premier axe factoriel 29.38 % Deuxième axe factoriel 10.8 % V1_0 V1_1 V1_2 V1_4 V1_6 V1_7 V1_9 V1_11 V1_z V2_0 V2_1 V2_2 V2_4 V2_6 V2_7 V2_9 V2_11 V2_z V3_0 V3_1 V3_2 V3_4 V3_6 V3_7 V3_9 V3_11 V3_z V4_0 V4_1 V4_2 V4_4 V4_6 V4_7 V4_9 V4_11 τ = mesure -2.0 -1.5 -1.0 -0.5 0.0 -0.5 0.0 0.5 Premier axe factoriel 29.38 % Deuxième axe factoriel 10.8 % 1 57 2 3 4 5 6 24 25 28 29 49 50 14 21 30 τ = mesure Figure 8.16 – ACM floue sur le « Canon en ré majeur » de Pachelbel, avec τ égal à une noire (haut) et à une mesure (bas). Gauche : coordonnées factorielles des hauteurs de note, dont les noms sont précédés par V1 pour le violon I, V2 pour le violon II, V3 pour le violon III et V4 pour le clavecin. Droite : coordonnées factorielles des intervalles de temps. En appliquant l’ACM sur le canon de Pachelbel (figure 8.16), on constate que lorsque τ est égal à une noire (graphiques du haut), le premier et le second axe factoriel différencient les silences des trois violons de toutes les autres notes, pour la même raison évoquée lorsque l’AFC a été appliquée à la sonate de Scarlatti (cf. figure 8.11). Cela permet aussi de remarquer que des8.3. Analyses inter-voix 123 vrais silences existent pour les trois violons, mais non pour le clavecin 3 . Cette opposition entre les vrais silences et les autres notes met en évidence la structure de la partition de musique par l’intermédiaire de la représentation des intervalles de temps (graphique en haut à droite). En effet, les huit premiers intervalles de temps sont regroupés dans l’extrémité sud-ouest du quadrant sud-ouest, correspondant au début du morceau de musique, lorsque seul le clavecin joue. Ensuite, on observe un regroupement des intervalles de temps neuf à seize, soit la durée pendant laquelle le violon I a rejoint le clavecin. Puis, durant les intervalles de temps dix-sept à vingt-quatre, les violons I et II jouent avec le clavecin. Et finalement, le plus grand groupe au nord est constitué de la majorité des intervalles de temps pendant lesquels tous les instruments jouent. On constate aussi qu’il existe un autre groupe, contenant, par exemple, les intervalles de temps 114 ou 119, et qui correspond à des moments durant lesquels des silences, qui durent une croche, se produisent pour l’un des violons. Les graphiques du bas de la figure 8.16, obtenus avec τ égal à une mesure, ont une interpré- tation similaire. En effet, dans ce cas, le premier axe factoriel (graphique de gauche) oppose les silences aux autres notes et on retrouve (graphique de droite) les deux premières mesures dans cette zone, puis les mesures trois et quatre plus proche du centre, etc. Ces graphiques comportant moins de points que les précédents (graphiques du haut de la figure 8.16), il est aussi possible de mieux observer les mesures contenant des silences lorsque tous les instruments jouent, comme par exemple, les mesures vingt-quatre ou vingt-cinq. La principale différence entre les résultats obtenus avec τ égal à une noire ou égal à une mesure réside dans le fait que les mêmes notes jouées par des instruments différents sont regroupées dans le premier cas et non dans le second (graphiques de gauche). 0 10 20 30 40 50 -0.1 0.0 0.1 0.2 0.3 0.4 0.5 matrice d'échange périodique, r indice d'autocorrélation croisée δ(* Ξ α,* Ξβ ) Violons I et II Violons I et III Violons II et III 0 10 20 30 40 50 -0.10 -0.05 0.00 0.05 0.10 0.15 0.20 matrice d'échange périodique, r indice d'autocorrélation croisée δ(* Ξ α,* Ξβ ) Violon I et Clavecin Figure 8.17 – Indice d’autocorrélation croisée en fonction de la distance r variant entre 0 et n pour le « Canon en ré majeur » de Pachelbel, avec τ égal à une mesure. Sur le graphique de gauche de la figure 8.17, représentant l’indice d’autocorrélation entre les trois violons avec τ égal à une mesure, on observe trois pics plus importants : le premier, entre les violons I et II lorsque r = 2, le second entre les violons II et III aussi lorsque r = 2 et le troisième entre les violons I et III lorsque r = 4 ; ce qui correspond bien aux décalages de deux ou quatre mesures entre les départs de chaque violon. Concernant l’autocorrélation croisée entre le violon I et le clavecin avec τ égal à une mesure, on observe un comportement très similaire à celui de l’autocorrélation pour l’ensemble des instruments avec la même durée τ (cf. figure 8.15), soit des valeurs positives lorsque r est paire et 3. Ainsi, pour calculer l’indice d’autocorrélation croisée entre le clavecin et un autre instrument, il faudra ajouter le silence au premier avec de faibles valeurs, comme il est expliqué dans la section 8.3.1.124 8. ANALYSE DE DONNÉES MUSICALES inversement. En fait, l’indice d’autocorrélation entre le clavecin et n’importe quel autre violon suit toujours cette même alternance. Aussi, en prenant τ égal à une noire, l’autocorrélation croisée entre l’un des violons et le clavecin est très similaire à l’indice d’autocorrélation obtenu avec la même durée τ . Il semble donc que le clavecin comportant plus de notes influence totalement l’indice d’autocorrélation croisée, à l’inverse de chacun des violons. 8.3.3 Un quatuor à cordes Le second et dernier exemple étudié pour l’analyse inter-voix d’une partition est le 1er mouvement « Allegro con brio » du « Quatuor à cordes No1 en fa majeur, Op. 18 No1 » de Beethoven, avec un chiffrage 3/4 et 427 mesures, répétitions incluses. -0.5 0.0 0.5 1.0 1.5 -0.5 0.0 0.5 1.0 1.5 2.0 Premier axe factoriel 5.93 % Deuxième axe factoriel 4.89 % V1_0 V1_1 V1_2 V1_3 V1_5V1_4 V1_6 V1_7 V1_8 V1_9 V1_10 V1_11 V1_z V2_0 V2_1 V2_2 V2_3 V2_4 V2_5 V2_6 V2_7 V2_8 V2_9 V2_10 V2_11 V2_z V3_0 V3_1 V3_2 V3_3 V3_4 V3_5 V3_6 V3_7 V3_8 V3_9 V3_10 V3_11 V3_z V4_0 V4_1 V4_2 V4_3 V4_4 V4_5 V4_6 V4_7 V4_8 V4_9 V4_10 V4_11 V4_z τ = ♩ -0.5 0.0 0.5 1.0 1.5 -1 0 1 2 3 Premier axe factoriel 5.93 % Deuxième axe factoriel 4.89 % 1 1281 τ = ♩ -0.5 0.0 0.5 1.0 1.5 -1 0 1 2 3 Premier axe factoriel 5.93 % Deuxième axe factoriel 4.89 % 1 1281 116 181 195 748 854 925 947 1019 1030 1192 τ = ♩ -1.5 -1.0 -0.5 0.0 0.5 1.0 1.5 -2.0 -1.5 -1.0 -0.5 0.0 0.5 1.0 Premier axe factoriel 6.75 % Deuxième axe factoriel 6.14 % V1_0 V1_1 V1_2 V1_3 V1_4 V1_5 V1_6 V1_7 V1_8 V1_9 V1_10 V1_11 V1_z V2_0 V2_1 V2_2 V2_3 V2_4 V2_5 V2_6 V2_7 V2_8 V2_9 V2_10 V2_11 V2_z V3_0 V3_1 V3_2 V3_3 V3_4 V3_5 V3_6 V3_7 V3_8 V3_9 V3_10 V3_11 V3_z V4_0 V4_1 V4_2 V4_3 V4_4 V4_5 V4_6 V4_7 V4_8 V4_9 V4_10 V4_11 V4_z τ = mesure -2 -1 0 1 -1.5 -1.0 -0.5 0.0 0.5 1.0 Premier axe factoriel 6.75 % Deuxième axe factoriel 6.14 % τ = mesure -2 -1 0 1 -1.5 -1.0 -0.5 0.0 0.5 1.0 Premier axe factoriel 6.75 % Deuxième axe factoriel 6.14 % 1 427 58 269 256 321 331 390 τ = mesure Figure 8.18 – ACM floue sur le 1er mouvement du « Quatuor à cordes No1 en fa majeur, Op. 18 No1 » de Beethoven, avec τ égal à une noire (haut) et à une mesure (bas). Gauche : coordonnées factorielles des hauteurs de note, dont les noms sont précédés par V1 pour le violoncelle, V2 pour l’alto, V3 pour le violon II et V4 pour le violon I. Centre : coordonnées factorielles des intervalles de temps reliées dans l’ordre chronologique. Droite : coordonnées factorielles des intervalles de temps non reliées. Les résultats obtenus avec l’ACM « floue » sont présentés dans la figure 8.18. Lorsque τ est égal à une noire (graphiques du haut), le premier axe oppose, comme pour le Canon de Pachelbel, les silences aux autres hauteurs de note. Ne s’agissant pas d’un canon, il semble difficile de déterminer des zones pour les intervalles de temps du graphique du centre. Cependant, en supprimant les lignes qui relient les intervalles de temps (graphique de droite), plusieurs zones distinctes apparaissent. À l’extrême est se trouvent les intervalles de temps durant lesquels aucun instrument ne joue et à l’extrême ouest, ceux durant lesquels tous les instruments jouent. Concernant les résultats obtenus en posant que τ est égal à une mesure (graphiques du bas), les vrais silences des quatre instruments à cordes sont regroupés dans le quadrant sud-est, mais il est difficile de visualiser la structure du morceau de musique. La figure 8.19 présente l’indice d’autocorrélation croisée entre les différentes paires d’instruments. On remarque diverses oscillations pour toutes les courbes, difficiles à interpréter. Cependant, on retrouve un pic plus important, pour plusieurs des courbes, lorsque r = 1148.3. Analyses inter-voix 125 0 100 200 300 400 0.00 0.05 0.10 0.15 0.20 matrice d'échange périodique, r indice d'autocorrélation croisée δ(* Ξ α,* Ξβ ) Alto et Violoncelle Violon I et Violon II 0 100 200 300 400 0.00 0.05 0.10 0.15 0.20 matrice d'échange périodique, r indice d'autocorrélation croisée δ(* Ξ α,* Ξβ ) Alto et Violoncelle Violon I et Violoncelle 0 100 200 300 400 0.00 0.05 0.10 0.15 matrice d'échange périodique, r indice d'autocorrélation croisée δ(* Ξ α,* Ξβ ) Violon II et Alto Violon I et Violoncelle 0 100 200 300 400 0.00 0.05 0.10 0.15 matrice d'échange périodique, r indice d'autocorrélation croisée δ(* Ξ α,* Ξβ ) Violon II et Violoncelle Violon I et Alto Figure 8.19 – Indice d’autocorrélation croisée en fonction de la distance r variant entre 0 et n pour le 1er mouvement du « Quatuor à cordes No1 en fa majeur, Op. 18 No1 » de Beethoven, avec τ égal à une mesure. mesures, correspondant à la répétition de la première partie de la partition de musique. Deux autres pics (r = 8 et r = 53 mesures) apparaissent pour l’autocorrélation croisée entre le violon II et l’alto, probablement dus à des passages joués une première fois par l’un des instruments et repris par l’autre, ou simplement des hauteurs de notes similaires ; le recours à l’interprétation d’un expert serait ici nécessaire. Aussi, lorsque r = 0, il n’existe pas de décalage entre les deux voix α et β, et l’indice d’autocorrélation croisée δ( Ξ∗ α, Ξ ∗ β ) (r=0) s’interprète alors comme une mesure de similarité entre ces deux voix. Sur la figure 8.19, on constate que certaines paires de voix sont plus similaires que d’autres. La dissimilarité entre les deux voix s’obtient comme Dαβ = 1 − δ( Ξ∗ α, Ξ ∗ β ) (r=0) qui se trouve être une dissimilarité euclidienne carrée. Ainsi, il est possible d’utiliser la classification ascendante hiérarchique, avec le critère de Ward, pour classifier les différents instruments (cf. section 2.1.1). Le résultat obtenu, avec la fonction « hclust » de R, est présenté dans la figure 8.20. Il en ressort que l’alto et le violoncelle, d’une part, et que le violon I et le violon II, d’autre part, partagent plus de similarités mélodiques que les autres paires d’instruments.126 8. ANALYSE DE DONNÉES MUSICALES Violoncelle AltoViolon II Violon I 0.76 0.80 0.84 0.88 Cluster Dendrogram hclust (*, "ward") dist_hclust Hauteur Figure 8.20 – Classification ascendante hiérarchique des quatre voix du 1er mouvement du « Quatuor à cordes No1 en fa majeur, Op. 18 No1 » de Beethoven selon δ( Ξ∗ α, Ξ ∗ β ) (r=0), avec τ égal à une mesure. 8.4 Analyses inter-partitions Dans cette dernière section, on cherche à déterminer les similarités qui existent entre les partitions de musique, de manière à pouvoir les classer selon leur compositeur. Pour ce faire, un échantillon de vingt partitions de musique est constitué (section 8.4.1), puis, en se basant sur une mesure de similarité, une classification ascendante hiérarchique de ces morceaux de musique est effectuée (section 8.4.2). 8.4.1 Données Le jeu de données comprend 20 morceaux de musique écrits par 4 compositeurs, à savoir : — cinq sonates de Domenico Scarlatti (1685 - 1757) ayant toutes un chiffrage 2/2, soit : — la « Sonate en do majeur, Allegro, L. 1 (K. 514) », — la « Sonate en mi bémol majeur, Allegro, L. 16 (K. 306) », — la « Sonate en sol mineur, Allegro, L. 336 (K. 93) », — la « Sonate en la majeur, Allegrissimo, L. 345 (K. 113) », et — la « Sonate en si mineur, Allegro, L. 346 (K. 408) » ; — le premier mouvement de cinq sonates pour piano de Wolfgang Amadeus Mozart (1756 - 1791), soit : — la « Sonate pour piano N˚1 en do majeur, K1 279 / K6 189d, 1. Allegro », — la « Sonate pour piano N˚2 en fa majeur, K1 280 / K6 189e, 1. Allegro assai », — la « Sonate pour piano N˚3 en si bémol majeur, K1 281 / K6 189f, 1. Allegro », — la « Sonate pour piano N˚4 en mi bémol majeur, K1 282 / K6 189g, 1. Adagio », et — la « Sonate pour piano N˚5 en sol majeur, K1 283 / K6 189h, 1. Allegro » ; — le premier mouvement de cinq sonates pour piano de Ludwig van Beethoven (1770 - 1827), soit : — la « Sonate pour piano N˚1 en fa mineur, Op. 2, N˚1, 1. Allegro », — la « Sonate pour piano N˚2 en la majeur, Op. 2, N˚2, 1. Allegro vivace », — la « Sonate pour piano N˚3 en do majeur, Op. 2, N˚3, 1. Allegro con brio », — la « Sonate pour piano N˚4 en mi bémol majeur, Op. 7, 1. Allegro molto con brio », et — la « Sonate pour piano N˚5 en do mineur, Op. 10, N˚1, 1. Allegro molto e con brio » ; et — cinq mazurkas de Frédéric François Chopin (1810 - 1849), soit : — la « Mazurka en fa dièse mineur, Op. 6, N˚1 », — la « Mazurka en si bémol majeur, Op. 7, N˚1 », — la « Mazurka en si bémol majeur, Op. 17, N˚1 »,8.4. Analyses inter-partitions 127 — la « Mazurka en sol mineur, Op. 24, N˚1 », — la « Mazurka en do mineur, Op. 30, N˚1 ». 8.4.2 Traitement et résultat Pour mesurer la similarité de la configuration (configuration similarity) entre deux partitions a et b, on utilise une version duale pondérée du coefficient RV proposé par Robert et Escoufier (1976), à savoir : CSab = Tr(Kˇ aKˇ b ) q Tr((Kˇ a) 2)Tr((Kˇ b) 2) où Kˇ a (respectivement Kˇ b ) sont les produits scalaires pondérés entre les hauteurs de notes de la partition de musique a (resp. b), identiques à ceux calculés dans la section 8.2.1 par (1.24). Cela implique que les deux partitions possèdent les mêmes hauteurs de note. Cependant, si une note est présente dans une des partitions de musique et non dans l’autre, les composantes Kˇ a (ou Kˇ b ) sont nulles par définition. Ainsi, des composantes nulles ont simplement été ajoutées dans les matrices le cas échéant. De plus, pour rendre les partitions comparables, elles ont toutes été transposées en do. Ensuite, on définit la dissimilarité entre deux partitions comme Dab = 1 − CSab. Cette dissimilarité, tout comme la dissimilarité entre deux voix Dαβ, peut s’interpréter comme une géné- ralisation de la distance du cosinus (voir par exemple Weihs, Ligges, Mörchen et Müllensiefen, 2007) et se trouve être une dissimilarité euclidienne carrée. Ainsi, les méthodes de classification usuelles (cf. chapitre 2) peuvent être utilisées sur les dissimilarités Dab, et on utilise, à nouveau, la classification ascendante hiérarchique avec le critère de Ward, par l’intermédiaire de la fonction « hclust ». 50 100 150 50 100 0.2 0.4 0.6 0.8 Mazurka 6: τ [noire] Mazurka 24: τ [noire] 1 − C S 2 4 6 8 10 12 14 2 4 6 8 10 12 0.0 0.1 0.2 0.3 0.4 0.5 0.6 Mazurka 6: τ Mazurka 24: [noire] τ [noire] 1 − C S Figure 8.21 – Dissimilarité entre la « Mazurka en fa dièse mineur, Op. 6, N˚1 » et la « Mazurka en sol mineur, Op. 24, N˚1 » de Chopin en fonction de τ . Avant de procéder à une classification, il faut noter qu’étant donné que Kˇ a et Kˇ b dépendent de la durée τ , il en sera de même pour la dissimilarité Dab. On observe, sur les deux exemples présentés dans les figures 8.21 et 8.22, que la dissimilarité entre les deux partitions Dab augmente de façon irrégulière lorsque la durée τ augmente 4 . 4. Il faut noter que pour créer ces figures, comme déjà mentionné dans la section 8.1.2, les éventuelles anacrouses ont été supprimées pour pouvoir agréger les intervalles de temps de manière complètement automatique.128 8. ANALYSE DE DONNÉES MUSICALES 50 100 150 100 200 300 400 0.2 0.4 0.6 0.8 Chopin, Mazurka 6: τ [noire] Mozart, Sonate 2: τ [noire] 1 − C S 2 4 6 8 10 12 14 2 4 6 8 10 12 0.0 0.1 0.2 0.3 0.4 0.5 0.6 Chopin, Mazurka 6: τ [noire] Mozart, Sonate 2: τ [noire] 1 − C S Figure 8.22 – Dissimilarité entre la « Mazurka en fa dièse mineur, Op. 6, N˚1 » de Chopin et le 1er mouvement de la « Sonate pour piano N˚2 en fa majeur, K1 280 / K6 189e » de Mozart en fonction de τ . Beethoven:sonata04-1 Beethoven:sonata02-1 Beethoven:sonata03-1 Beethoven:sonata01-1 Beethoven:sonata05-1 Mozart:sonata02-1 Mozart:sonata03-1 Mozart:sonata01-1 Mozart:sonata05-1 Scarlatti:L001K514 Chopin:mazurka17-1 Mozart:sonata04-1 Chopin:mazurka07-1 Chopin:mazurka30-1 Chopin:mazurka06-1 Chopin:mazurka24-1 Scarlatti:L016K306 Scarlatti:L336K093 Scarlatti:L345K113 Scarlatti:L346K408 0.0 0.2 0.4 0.6 Cluster Dendrogram hclust (*, "ward") dist_hclust Hauteur Figure 8.23 – Classification ascendante hiérarchique des 20 partitions de musique avec le critère d’agrégation de Ward. Ainsi, afin d’avoir une unité de durée commune à toutes les partitions de musique lors du calcul des distances Dab, on pose τ égal à une mesure. Le résultat obtenu est présenté dans la figure 8.23. Bien que le jeu de données soit restreint, ce premier résultat est encourageant, car les morceaux de musique sont bien regroupés selon leur compositeur, en particulier en ce qui concerne les partitions de Beethoven.8.5. Discussion 129 8.5 Discussion Pour commencer, il faut se rappeler que seul l’aspect catégoriel des notes a été exploité, et non les valeurs numériques des hauteurs. Ainsi, une transposition de l’ensemble de la partition ne changerait pas les résultats et il en serait de même si deux hauteurs de notes étaient systé- matiquement échangées. À l’inverse, un partie répétée mais transposée aura une représentation différente de l’originale. En d’autres termes, la représentation choisie implique que, à l’intérieur d’un intervalle de temps donné t, les notes forment « un sac de notes ». Néanmoins, l’ordre temporel des notes est pris en compte lorsqu’elles n’apparaissent pas durant le même intervalle de temps. Concernant les analyses pratiquées sur les partitions complètes (section 8.2), l’AFC et l’autocorrélation ont été utilisées, et ces deux méthodes ont permis de visualiser certains aspects de la structure des partitions. En particulier, l’AFC a mis en évidence la structure du morceau lorsqu’une valeur adéquate de τ était utilisée et que la partition contenait des motifs récurrents. Les résultats sont plus difficiles à interpréter lorsqu’un motif est transposé ou lorsqu’un vrai silence apparaît, car comme on l’a vu (figure 8.11), dans ce second cas, le premier facteur n’exprime que l’opposition entre le silence et le son. Concernant l’indice d’autocorrélation, il permet principalement de détecter les répétitions, qu’elles soient exactes ou approximatives, mais à la condition qu’elles ne soient pas transposées. De plus, il est souvent un bon indicateur des valeurs de τ pouvant donner lieu à des AFC intéressantes. Au sujet des analyses inter-voix des partitions (section 8.3), l’ACM floue, tout comme l’AFC dans le cas des partitions de musique complètes, a permis de visualiser des éléments structurels des partitions, de manière plus ou moins évidente selon le choix de la valeur de τ . Quant à l’indice d’autocorrélation croisée, il a permis de comparer les différentes voix d’une même partition en mesurant leur similarité selon une distance r. Il est particulièrement adapté pour révéler les passages similaires, mais dans deux voix distinctes. Cet indice pourrait aussi être utilisé pour comparer deux variantes d’un même morceau de musique. Par exemple, Ellis et Poliner (2007) utilisent l’auto-corrélation croisée pour comparer des variantes d’un même morceau dans des fichiers audio. Finalement, l’analyse inter-partitions (section 8.4) a montré des premiers résultats encourageants. En conclusion, la représentation de la musique polyphonique en tables de contingence a permis de visualiser certaines structures inhérentes des partitions, ainsi que d’obtenir une classification non supervisée avec de bons résultats. Évidemment, de nombreuses pistes restent encore à explorer. En premier lieu, seul un petit nombre de partitions a été étudié dans l’ensemble de ce chapitre et il serait assurément intéressant d’en analyser un plus grand nombre, afin de déterminer si certains résultats sont systématiques. En particulier, il faudrait découvrir s’il est possible de déterminer la valeur de τ idéale pour les analyses factorielles, et selon quel critère. Concernant les différents choix opérés lors de la représentation des partitions, d’autres possibilités pourraient être envisagées. Par exemple, les parties répétées et explicitement indiquées comme telles sur la partition pourraient être omises (étape facile à réaliser à partir du format Humdrum). Ainsi, ces parties répétées ne seraient plus détectées, ce qui permettrait peut-être de voir émerger d’autres structures. Aussi, les anacrouses pourraient être retirées, ce qui permettrait d’automatiser davantage la procédure pour la suite des opérations. Pour terminer, concernant la classification des partitions de musique selon les compositeurs, une prochaine étape pourrait consister à augmenter le jeu de données, puis à utiliser des mé- thodes de classification supervisée, telles que l’analyse discriminante (cf. section 2.2.1).Conclusion et discussion Comme il a été expliqué dans l’introduction, la première visée de ce travail était de pratiquer une analyse exploratoire de données textuelles et musicales au moyen d’un formalisme et de méthodes bien contrôlés et compatibles avec des unités de poids possiblement non-uniformes. En particulier, le formalisme s’appuyait sur trois concepts fondamentaux : (i) une table de contingence, (ii) une matrice de dissimilarités euclidiennes carrées et (iii) une matrice d’échange. Grâce à ce formalisme, plusieurs méthodes ont pu être exprimées, à savoir : l’AFC, basée sur (i) ou sur (ii), à condition que ces dernières soient produites sur (i) ; la classification supervisée ou non, parfois combinée aux transformations de Schoenberg, de nouveau basée sur (ii) ; et les indices d’autocorrélation et d’autocorrélation croisée, basés sur (ii) et (iii). Les dissimilarités euclidiennes carrées sont donc au cœur de ces méthodes. Ainsi la première question qu’on est en droit de se poser est « Quelles structures ont pu être découvertes sur les données textuelles et musicales choisies par l’intermédiaire de ces mé- thodes ? », ainsi que « Quelles conclusions peut-on en retirer le cas échéant ? ». Comme déjà mentionné, on ne se positionne pas ici comme spécialiste de l’un ou l’autre des domaines spéci- fiques aux données traitées, mais comme un observateur, ou même un explorateur, espérant que l’une de ses découvertes puisse être utile et offrir un nouveau point de vue à des spécialistes. Concernant la classification automatique de propositions énoncées en types de discours (chapitre 4), plusieurs conclusions émergent. En premier lieu, il faut se demander si le choix de ne représenter les propositions énoncées que par les uni-, bi- et trigrammes de CMS qu’elles contiennent constituait une bonne approche 1 . En d’autres termes, est-ce que le choix d’utiliser des représentations si simples était suffisant pour un problème si complexe ? La littérature relative à ce type de problèmes ne semblait pas aller à l’encontre de ce choix. Ensuite, une première analyse inférentielle (test du khi2) et descriptive (quotient d’indépendance) sur les liens existant entre les CMS et les types de discours, basés sur l’annotation des propositions énoncées par un expert humain, a confirmé ce choix. De plus, les visualisations obtenues par l’AFC semblaient encourageantes, bien que parfois atténuées par la validation par bootstrap. Les résultats de la classification non supervisée pour chacun des quatre contes de Maupassant, par l’intermédiaire de la méthode K-means, combinée à la transformation de puissance de Schoenberg, ainsi que par l’algorithme K-means flou, n’ont finalement pas été aussi concluants que l’on aurait pu l’espérer. Pour commencer, comme il avait déjà été remarqué lors de l’analyse descriptive et de l’AFC, des tendances différentes sont obtenues pour les quatre contes. Qui plus est, les deux indices d’accord entre partitions utilisés ont des comportements très différents et il était donc difficile de parvenir à une conclusion générale pour un texte donné. Néanmoins, 1. On ne reviendra pas ici sur la capacité de TreeTagger à associer correctement, ou non, les CMS à chaque mot (voir par exemple Dejean, Fortun, Massot, Pottier, Poulard et Vernier, 2010, pour le français). 131132 CONCLUSION ET DISCUSSION sans pouvoir en élucider vraiment la raison, il est clair que cette représentation des textes par les CMS a été plus performante pour retrouver les types de discours du conte « Le Voleur » que pour les autres textes. Aussi, au regard des résultats obtenus avec la méthode K-means flou avec laquelle on a fait varier le nombre de groupes construit par l’algorithme, il semble que parfois la génération de plus de six groupes permette un meilleur accord avec les six types de discours annotés. Sans pouvoir l’assurer, faute d’analyses à cet effet, on peut imaginer qu’un autre niveau de structure entre en jeu, peut-être en lien avec la structure hiérarchique des types de discours. On pourrait aussi se demander s’il n’aurait pas été plus pertinent de faire usage de classification supervisée, sortant ainsi du cadre strict de l’analyse exploratoire. Cependant, étant donné qu’une classification supervisée nécessite un ensemble d’apprentissage, le nombre de propositions de certains types de discours semblait trop faible lorsque l’on considère chaque texte séparément. Une alternative pourrait consister à modifier la méthodologie de ce chapitre et concaténer les quatre textes. Finalement, comme on aurait peut-être pu s’y attendre, n’utiliser que les CMS fut un choix un peu trop drastique au vu de la complexité de la tâche à effectuer. Comme il est vrai pour chacune des applications, le sujet reste ouvert et les pistes, nombreuses. Dans le chapitre 5 qui traitait de la classification supervisée multi-étiquette des tours de parole des pages de discussion de Simple English Wikipedia en actes de dialogue, la démarche était clairement différente s’agissant d’un problème supervisé. À nouveau, la représentation des données se voulait simple, intelligible et uniquement axée sur des caractéristiques linguistiques. Pour rappel, les tours de parole étaient représentés par trois caractéristiques considérées séparé- ment : les lemmes, les CMS et le sens des verbes selon WordNet. Ces trois caractéristiques, qui semblaient en accord avec la littérature, ont été sélectionnées pour diverses raisons. Concernant les lemmes, ils ont été pris en compte car il s’agit d’une unité souvent considérée dans ce type d’approches, simple et généralement efficace. Quant aux CMS, elles ont été utilisées au vu des liens qui avaient été déterminés entre ces dernières et les types de discours dans le chapitre précédent. En effet, bien qu’un acte de dialogue ne soit pas un type de discours, il nous semblait, en tant que néophyte dans ces domaines, que ces deux concepts devaient avoir des points communs, choix qui s’avéra judicieux au vu des résultats obtenus. Finalement, l’idée d’utiliser les hyperonymes les plus généraux naquit après avoir travaillé sur les dissimilarités sémantiques présentées dans le chapitre 6. Il nous semblait en effet que certains verbes devaient souvent se retrouver dans certains actes de dialogue et qu’il faudrait donc considérer des classes de verbes. Ainsi, plutôt que de constituer manuellement des classes de verbes comme il avait déjà été fait dans la littérature, on a décidé de les constituer automatiquement par l’intermédiaire de WordNet 2 . Concernant la méthode de classification multi-étiquette, il fallait commencer par décider si les données devaient être transformées pour aboutir à une série de classifications binaires pour chaque étiquette ; ou si au contraire il fallait opter pour une transformation de l’algorithme permettant de traiter en une fois toutes les étiquettes pour chaque individu. Ainsi, une première analyse consista à déterminer l’existence, ou non, de liens entre les étiquettes. Ces liens étant faibles, le choix s’est porté sur la série de classifications binaires. Elle a été effectuée grâce à l’analyse discriminante, encore une fois combinée à la transformation de puissance de Schoenberg. Plusieurs conclusions émergent. En premier lieu, le critère du plus proche centroïde est souvent plus efficace que le critère des plus proches voisins sur ces données. Deuxièmement, la transformation de puissance améliore les résultats obtenus avec la classification selon la F-mesure. Troisièmement, le meilleur résultat sur l’ensemble des étiquettes est obtenu en utilisant les CMS comme caractéristiques. Finalement, bien que les CMS permettent une meilleure classification de l’ensemble des étiquettes, certaines étiquettes sont mieux discriminées par une des deux autres caractéristiques. Au final, il nous semble que l’intérêt de chacune des caractéristiques 2. Comme pour TreeTagger, on ne s’étendra pas ici sur les limitations de WordNet et sur le fait de sélectionner systématiquement le premier sens des mots rencontrés (voir par exemple Hawker et Honnibal, 2006).CONCLUSION ET DISCUSSION 133 linguistiques a été mis en évidence. Le chapitre 6 concernait la dernière application sur des textes, à savoir l’autocorrélation textuelle. Dans ce chapitre, on s’est intéressé à différentes caractéristiques concernant les mots d’un texte, pensé comme une séquence d’unités ordonnées. Pour rappel, les textes ont été choisis pour des raisons techniques, l’accent étant davantage mis sur les propriétés génériques que spécifiques à un texte. Pour commencer, l’indice d’autocorrélation a été mesuré en considérant la longueur des mots, avec des voisinages définis par les trois matrices d’échange présentées dans le chapitre 3, en fonction de r (itérations, distance ou largeur). Comme on l’espérait pour le français, l’indice a correctement détecté une alternance entre des mots courts et des mots longs, correspondant certainement aux mots outils et aux mots pleins lorsque l’on considère un voisinage restreint. Ensuite, l’apparition, ou non, de quatre parties du discours a été analysée avec la matrice d’échange à fenêtres mobiles. Concernant les noms, on a observé qu’ils sont rarement suivis (ou précédés) par un autre nom, ce qui est cohérent avec l’utilisation du français. Inversement, les verbes sont souvent suivis par d’autres verbes, ce que l’on a attribué à l’emploi de temps composés. Concernant les adjectifs et les adverbes, l’indice d’autocorrélation n’était jamais significatif, et seule une tendance à ne pas avoir deux adjectifs (respectivement deux adverbes) qui se suivent, mais à avoir deux adjectifs (respectivement deux adverbes) séparés par une autre CMS, a été observée. Pour terminer, des dissimilarités sémantiques, basées sur WordNet, ont été étudiées avec la matrice d’échange à fenêtres mobiles sur deux textes différents, pour deux parties du discours : les noms et les verbes. Bien qu’en général le choix des textes ait été arbitraire, ici le second texte a été sélectionné avec l’espoir qu’une nouvelle contienne un matériel plus intéressant et hétérogène du point de vue sémantique. En premier lieu, l’indice d’autocorrélation a été mesuré pour chacun des textes et pour chacune des parties du discours, sur la matrice des dissimilarités sémantiques. Dans les deux textes et pour les deux parties du discours, il n’était jamais significatif et se comportait de façon assez régulière en fonction de la taille du voisinage envisagé. On remarque cependant que pour la nouvelle, il est clairement positif et ce pour une grande gamme de voisinages. On peut donc supposer l’existence d’un champ lexical cohérent dans un proche voisinage. Après avoir représenté graphiquement ces dissimilarités au moyen du Multidimensional Scaling (MDS), l’autocorrélation a été mesurée sur les deux premiers facteurs extraits de ce MDS. Finalement, l’interprétation des résultats obtenus pour les deux textes était différente, car les structures produites par le MDS étaient différentes. Premièrement, alors que l’indice d’autoccorélation n’était jamais significatif pour le premier texte, il l’était pour le second texte plus littéraire lorsque le premier facteur était considéré. En particulier, on a constaté que de longs segments de textes contenaient des noms appartenant au même concept parmi les deux concepts observés. Concernant les verbes, on a pu constater la coprésence des verbes d’action, plus nombreux que les verbes d’état. En résumé, même en se limitant à quelques applications, on peut déjà observer les possibilités de cet indice dans une analyse exploratoire de textes. En plus des autres applications qui sont présentées dans les articles cités dans ce chapitre, il en existe de nombreuses autres. Comme dernière application, le chapitre 8 s’intéressait à l’analyse purement exploratoire de partitions musicales. Dans une première partie, les partitions, représentées à l’aide de tables de contingence selon différentes durées d’intervalles de temps, ont été analysées dans leur ensemble. Pour ce faire, l’AFC et l’indice d’autocorrélation ont été utilisés. Notre espoir était ici, d’une part, de pouvoir visualiser la structure d’une partition avec l’AFC et de percevoir des groupements de notes selon les accords ; et d’autre part, de détecter des motifs avec l’indice d’autocorrélation. L’analyse a d’abord été effectuée sur une partition monophonique, ce qui nous a permis de mieux appréhender le genre de résultats que l’on était en droit d’attendre avec ces analyses. Il a rapidement semblé évident que certaines structures pouvaient être visualisées par l’AFC et mises en évidence par l’indice d’autocorrélation, mais qu’il serait difficile de détecter134 CONCLUSION ET DISCUSSION des accords. L’analyse effectuée ensuite sur des partitions polyphoniques a confirmé qu’il était possible de visualiser des structures présentes dans une partition, à condition de sélectionner la « bonne » durée d’intervalles de temps. En revanche, l’indice d’autocorrélation a repéré les structures partiellement répétées, à condition qu’il n’y ait pas de modulation, donc de transposition à l’intérieur d’une partition. Finalement, on comprend qu’il est plus simple de synthétiser l’information de morceaux de musique contenant des formes de répétition et qui correspondent probablement à ceux que l’on retient facilement. L’analyse s’est ensuite portée sur les différentes voix que comprend une partition. Dans ce second cas, il n’y avait pas d’attentes particulières, l’idée étant plutôt d’étendre les analyses effectuées dans la première partie de ce chapitre. Ainsi, une variante flou de l’analyse multiple des correspondances, ainsi qu’un indice d’autocorrélation croisée, ont été utilisés. À nouveau, il a été possible de visualiser certaines structures présentes dans une partition au moyen de l’analyse factorielle et de repérer des répétitions (partielles ou complètes), cette fois entre les différentes voix, grâce à l’indice d’autocorrélation croisée. Malgré ces résultats intéressants, on est derechef confronté au problème de la détermination de la « bonne » durée d’intervalles de temps, question qu’il reste à élucider. Finalement, au vu des caractérisations particulières obtenues pour chaque partition dans la première partie de l’analyse grâce à la représentation choisie, il semblait cohérent de comparer les représentations de chacune des partitions pour examiner si des similitudes se dégageaient entre certaines d’entre elles. Pour cela, une adaptation du coefficient RV permettant de mesurer la similarité entre deux tables de contingence a été proposée. Après avoir transformé les similarités entre 20 partitions en dissimilarités, une classification ascendante hiérarchique a permis de constater qu’en général, les partitions d’un même compositeur étaient regroupées. S’agissant d’une thèse, la recherche ne s’achève pas avec cette conclusion : plusieurs questions restent ouvertes et un grand nombre de pistes concernant les suites possibles de ce travail peuvent être explorées. Ainsi, la deuxième question sera : « Quelles pistes de recherche semblent les plus pertinentes pour continuer cette recherche ? » Pour reprendre la structure de la thèse, on se penchera d’abord sur les nouvelles possibilités à envisager concernant les méthodes. La méthode de visualisation (AFC), ainsi que les méthodes classiques de classification, supervisée ou non, ont été choisies pour leur compatibilité avec des dissimilarités euclidiennes carrées. Ainsi, il a été possible de les utiliser avec des transformations de Schoenberg. Dans cette thèse, seule la transformation de puissance a été envisagée. Bien qu’elle permette des améliorations dans certaines des applications de classification proposées, il serait sans nul doute judicieux d’en expérimenter d’autres, telles que, pour n’en citer qu’une, la transformation gaussienne : ϕ(D) = 1 − exp(−qD) où q ≥ 0 Aussi, comme il a été fait avec la classification non supervisée par l’algorithme K-means, et celle supervisée, avec l’analyse discriminante, il serait possible de combiner facilement les transformations de Schoenberg avec la méthode K-means flou. De plus, il serait également imaginable de visualiser des dissimilarités du khi2 alliées aux transformations de Schoenberg par le MDS. Finalement, une piste certainement pertinente serait, comme il a déjà été proposé dans la discussion du chapitre 5 pour un cas restreint (5.1), de combiner différentes matrices de dissimilarités euclidiennes carrées (correspondant à différentes caractéristiques mesurées sur des données, éventuellement associées à des transformations de Schoenberg), avec des poids nonnégatifs β et normalisés, ce qui permettrait d’obtenir une matrice de dissimilarités euclidiennes carrées globale : Dtot = β1D1 + β2D2 + . . . + βpDp où βk ≥ 0 et β1 + β2 + . . . + βp = 1CONCLUSION ET DISCUSSION 135 Cette nouvelle matrice pourrait alors être utilisée de manière analogue aux autres matrices de dissimilarités avec les différentes méthodes proposées dans cette thèse. À l’extrême, il serait toujours possible de l’associer à de nouvelles transformations de Schoenberg. Pour revenir sur le choix des dissimilarités, seules les dissimilarités du khi2, ou les dissimilarités euclidiennes carrées en général ont été utilisées, car ces dernières possédaient la forme adéquate pour l’ensemble des méthodes expérimentées dans cette thèse. Cela étant, d’autres distances auraient pu être utilisées pour faire de la classification. En particulier, il serait intéressant de considérer des dissimilarités adaptées, pour autant qu’elles existent, aux matrices creuses rencontrées dans certaines de nos applications, en particulier lors de la classification non supervisée des types de discours. À propos de la classification non supervisée : seule une partie des possibilités de la méthode K-means flou a été exploitée dans ce travail. Il serait possible, en particulier, d’y implémenter le principe du recuit-simulé. En bref, ce dernier consiste à démarrer l’itération de l’algorithme, comme dans la version proposée ici, à partir d’une température élevée, puis, à abaisser lentement la température à chaque itération, i.e. suffisamment lentement pour que la convergence soit assurée à chaque étape. L’algorithme convergera alors vers une solution dure, dont on peut espérer que la variance intra-groupe résultante sera plus faible que celle résultante de la méthode K-means dur. Les itérations initiales à température élevée visent, en effet, à permettre au système d’explorer plus efficacement l’ensemble des partitions floues possibles et d’éviter ainsi d’être emprisonné dans une configuration locale dont la variance intra-groupe serait trop élevée (voir par exemple Rose et al., 1990). Au sujet des applications, divers axes de recherche qui nous semblent prometteurs pourraient encore être exploités. Ils seront simplement résumés ici et en partie étendus, car ils ont déjà été largement exposés dans la dernière section de chaque chapitre concernant les applications. Concernant le chapitre 4, la question de la structure hiérarchique des types de discours a simplement été éludée, bien qu’elle puisse, à première vue, déboucher sur différentes nouvelles pistes d’étude. Par exemple, on pourrait analyser si certains types de discours tendent à être systématiquement inclus dans d’autres. On le sait déjà pour le type injonctif qui est systématiquement inclus dans le type dialogal dans les textes traités ici, mais il existe peut-être d’autres inclusions significatives. Aussi, il semblerait que certains passages aient un type de discours dominant. Il serait alors utile qu’un expert humain indique ces dominances dans la hiérarchie, ce qui permettrait de travailler sur des segments plus longs et donc susceptibles de contenir plus d’information à classer. Finalement, il serait certainement précieux de pouvoir disposer d’un plus grand nombre de textes annotés. Dans le chapitre 4, tout comme dans le chapitre 5, il pourrait aussi être intéressant de se pencher sur une vision plus « ingénieure » du problème, c’est-à-dire clairement axée sur la performance, en contraste avec le propos principal de la thèse, axé sur l’analyse exploratoire des données. Il faudrait alors combiner un grand nombre de caractéristiques, y appliquer une sélection de ces caractéristiques, puis combiner différentes méthodes. De plus, il faudrait disposer de données plus étendues : la prise en compte d’un grand nombre de caractéristiques sur des jeux de données relativement réduits étant particulièrement susceptible de produire des règles surparamétrées. Spécifiquement, au sujet du chapitre 5, il a été mis en évidence que certaines des caractéristiques linguistiques utilisées étaient plus efficaces pour discriminer certains actes de dialogue et que les transformations de Schoenberg s’avéraient utiles. En plus de combiner ces caractéristiques et ces transformations comme proposé dans le chapitre ou ci-dessus, on pourrait étudier l’intérêt des différentes caractéristiques pour chaque acte de dialogue. En d’autres termes, il faudrait analyser le rapport entre ces actes et ces caractéristiques. Aussi, comme déjà mentionné dans le chapitre, il pourrait s’avérer intéressant d’utiliser un algorithme qui permette d’attribuer directement toutes les étiquettes à un tour de parole donné, plutôt que de procéder à une série de classifications binaires pour chaque étiquette, malgré la faiblesse des liens statistiques entre136 CONCLUSION ET DISCUSSION les différentes étiquettes. Concernant le chapitre 6, on ne reviendra pas sur l’étendue des applications qui pourraient être effectuée avec cet indice sur des textes, telles que la navigation hypertextuelle. Bien qu’il ne s’agisse pas d’un point strictement central dans ce chapitre, on peut se rappeler que les dissimilarités sémantiques ont pu être représentées grâce à un MDS sur des dissimilarités adéquates, permettant l’émergence de différents groupes de mots. Bien que ces derniers étaient concentrés, effectuer une validation expérimentale de ces groupes par le bootstrap aurait pu certifier la présence desdits groupes. Aussi, ces dissimilarités sémantiques nous semblent particulièrement fascinantes et il serait assurément profitable de les utiliser sur d’autres textes sur lesquels les analyses proposées dans ce chapitre pourraient être effectuées. Un autre axe de recherche pourrait se concentrer sur la définition de nouvelles matrices d’échange, alternatives aux trois familles proposées dans cette thèse, et susceptibles de modéliser différents modes de lecture. Finalement, le chapitre 8 reposait sur une représentation originale de la musique, exploitée en partie seulement. Pour rappel, il resterait encore à définir systématiquement la durée de l’intervalle de temps qui serait la mieux à même de faire émerger des structures intéressantes. Il faudrait aussi étudier dans quelle mesure le problème des passages répétés transposés pourrait être contourné. Effectuer les mêmes analyses que celles présentées dans cette thèse, mais sur un plus grand nombre de partitions, semble une voie toute tracée pour favoriser l’apparition de régularités robustes et de classifications susceptibles d’être interprétées de façon plus stable. Dans le même esprit, il serait également possible d’appliquer le bootstrap pour vérifier la significativité des représentations obtenues à l’aide de l’AFC et de l’analyse des correspondances multiples, comme il a été fait dans le chapitre 4 pour les données textuelles. En guise de conclusion ouverte à ce travail, on peut proposer quelques perspectives supplé- mentaires, dont certaines se situent au-delà des théories ou des données considérées dans cette thèse. La musique et le texte ont clairement été étudiés séparément dans cette thèse, se voyant même dédier deux parties différentes. Cependant, on aurait pu, par exemple, envisager le texte comme une séquence d’unités ordonnées, tel qu’il l’a été fait pour la musique. On pourrait typiquement s’intéresser à la suite des propositions de l’un des textes étudiés au chapitre 4 et, grâce à la table de contingence propositions – CMS à disposition, on pourrait bien évidemment utiliser l’indice d’autocorrélation pour étudier la similarité entre ces propositions (des applications de ce type ont été produites dans les articles cités dans le chapitre 6). Cependant, il serait aussi envisageable de représenter graphiquement ces propositions reliées selon le déroulement du texte avec l’AFC, comme il a été fait pour la musique. On pourrait aussi imaginer de comparer des textes représentés ainsi en mesurant la similarité des configurations avec la version pondérée du coefficient RV utilisé pour la musique, à condition que les textes comportent le même nombre de positions, ce qui est typiquement le cas de corpus parallèles. Aussi, un indice d’autocorrélation croisée a été proposé et appliqué uniquement à la musique. En particulier, il a servi à mesurer les similarités entre les différentes voix d’une même partition. Dans ce contexte particulier, toutes les conditions d’utilisation de l’indice étaient à peu près remplies, à savoir : le même nombre de positions (les intervalles de temps), le même nombre de caractéristiques (les hauteurs de notes) et les mêmes poids en ligne (poids uniformes). Cependant, on imagine l’intérêt que pourrait avoir cet indice pour les textes. Il serait par exemple possible, selon certaines caractéristiques qu’il reste à préciser, de comparer un texte et sa traduction dans une autre langue ou deux versions d’un même texte. Il faudrait alors soit étudier s’il est possible de remplir les différentes conditions d’utilisation, soit généraliser l’indice d’autocorrélation afin qu’il puisse être utilisé dans d’autres conditions. Pour terminer, la musique est souvent accompagnée de texte. Il peut s’agir de métadonnées, mais aussi des paroles d’une chanson ou d’un opéra. Il apparaît alors qu’un grand nombre d’analyses, combinant les deux types de données, pourraient être effectuées. Pour n’en citerCONCLUSION ET DISCUSSION 137 que quelques unes : le rapport entre le texte et la musique, à un instant donné, pourrait être examiné ; les textes associés à une partition pourraient constituer, en des termes qu’il resterait à préciser, une caractéristique supplémentaire pour une classification ; ou encore il serait possible de compléter les dissimilarités concernant la musique par celles caractérisant le texte, produisant finalement de nouvelles mesures d’autocorrélation.ANNEXES 139ANNEXE A Textes de Maupassant annotés Cette annexe présente les textes de Maupassant annotés en types du discours, avec des balises XML, par Raphaël Pittier, étudiant de master en sciences du langage et de la communication, ainsi qu’en français moderne (orientation linguistique française), en 2011. Ces textes ont été utilisés pour les analyses du chapitre 4. La définition des balises employées pour l’annotation, ainsi que la description de ce corpus, se trouvent dans la section 4.1.2. Les quatre contes annotés sont : — « L’Orient » (section A.1), — « Le Voleur » (section A.2), — « Un Fou ? » (section A.3) et — « Un Fou » (section A.4). A.1 L’Orient 1 2 < text source = " http: // un2sg4 . unige . ch / athena / selva / maupassant / textes / orient . html " date = " 2011.03.05 " > 3 < title >L ’ Orient 4 < div type =" narratif "> 5 Voici l ’ automne ! 6 Je ne puis sentir ce premier frisson d ’ hiver sans songer à l ’ ami 7 qui vit là - bas sur la fronti è re de l ’ Asie . < cr /> 8 La derni è re fois que j ’ entrai chez lui , 9 je compris 10 que je ne le reverrais plus . 11 < div type = " descriptif " > 12 C ’é tait vers la fin de septembre , voici trois ans . 13 14 Je le trouvai tant ô t couch é sur un divan , en plein r ê ve d ’ opium . 15 Il me tendit la main sans remuer le corps , 16 et me dit : < cr / > 17 < div type = " dialogal " > 141142 A. TEXTES DE MAUPASSANT ANNOTÉS 18 < div type =" injonctif " > 19 Reste là , parle , 20 21 < div type =" argumentatif " > 22 je te ré pondrai de temps en temps , 23 < div type =" explicatif " > 24 mais je ne bougerai point , 25 car tu sais qu ’ une fois la drogue aval ée 26 il faut demeurer sur le dos . < cr / > 27 28 29 30 Je m ’ assis 31 et je lui racontai mille choses , des choses de Paris et du boulevard . < cr / > 32 Il me dit : < cr / > 33 < div type =" dialogal " > 34 - Tu ne m ’ int é resses pas ; 35 je ne songe plus qu ’ aux pays clairs . 36 Oh ! comme ce pauvre Gautier devait souffrir , toujours habit é par le d é sir de l ’ Orient . 37 Tu ne sais pas 38 ce que c ’est , 39 comme il vous prend , ce pays , 40 vous captive , 41 vous pén è tre jusqu ’au coeur , 42 et ne vous l â che plus . 43 Il entre en vous par l ’oeil , par la peau , par toutes ses sé ductions invincibles , 44 et il vous tient par un invisible fil 45 qui vous tire sans cesse , en quelque lieu du monde 46 que le hasard vous ait jet é. 47 < div type =" explicatif " > 48 Je prends la drogue 49 pour y penser dans la d é licieuse torpeur de l ’ opium . < cr /> 50 51 52 Il se tut 53 et ferma les yeux . 54 Je demandai : < cr / > 55 < div type =" dialogal " > 56 < div type =" explicatif "> 57 - Qu ’é prouves - tu de si agr é able à prendre ce poison ? 58 Quel bonheur physique donne -t - il donc , 59 qu ’on en absorbe jusqu ’à la mort ? 60 61 62 Il ré pondit : < cr / > 63 < div type = " dialogal " >A.1. L’Orient 143 64 < div type =" explicatif " > 65 < div type =" descriptif " > 66 - Ce n ’ est point un bonheur physique ; 67 c ’ est mieux , 68 c ’ est plus . 69 Je suis souvent triste ; 70 71 je dé teste la vie , 72 qui me blesse chaque jour par tous ses angles , par toutes ses duret és . 73 L ’ opium console de tout , 74 fait prendre son parti de tout . 75 Connais - tu cet é tat de l ’âme 76 que je pourrais appeler l ’ irritation harcelante ? 77 Je vis ordinairement dans cet é tat . 78 Deux choses m ’en peuvent gu é rir : l ’ opium , ou l ’ Orient . 79 < div type =" narratif " > 80 A peine ai - je pris l ’ opium 81 que je me couche , 82 et j ’ attends . 83 J ’ attends une heure , deux heures parfois . 84 Puis , je sens d ’ abord de l é gers fr é missements dans les mains et dans les pieds , non pas une crampe , mais un engourdissement vibrant . 85 Puis peu à peu j ’ ai l ’é trange et dé licieuse sensation de la disparition de mes membres . 86 Il me semble 87 qu ’on me les ô te . 88 Cela gagne , 89 monte , 90 m ’ envahit enti è rement . 91 Je n ’ ai plus de corps . 92 Je n ’ en garde plus qu ’ une sorte de souvenir agr é able . 93 Ma tê te seule est là , 94 et travaille . 95 Je pense . 96 Je pense avec une joie mat é rielle infinie , avec une lucidit é sans é gale , avec une pé né tration surprenante . 97 Je raisonne , 98 je dé duis , 99 je comprends tout , 100 je dé couvre des id é es 101 qui ne m ’ avaient jamais effleur é ; 102 je descends en des profondeurs nouvelles , 103 je monte à des hauteurs merveilleuses ; 104 je flotte dans un oc é an de pens ées , 105 et je savoure l ’ incomparable bonheur , l ’ id é ale jouissance de cette pure et sereine ivresse de la144 A. TEXTES DE MAUPASSANT ANNOTÉS seule intelligence . < cr /> 106 107 108 109 Il se tut encore 110 et ferma de nouveau les yeux . 111 Je repris : < cr /> 112 < div type =" dialogal "> 113 < div type =" explicatif "> 114 - Ton dé sir de l ’ Orient ne vient que de cette constante ivresse . 115 Tu vis dans une hallucination . 116 Comment dé sirer ce pays barbare 117 où l ’ Esprit est mort , 118 où la Pens é e st é rile ne sort point des é troites limites de la vie , 119 ne fait aucun effort pour s ’é lancer , grandir et conqu é rir ? 120 121 122 Il ré pondit : < cr / > 123 < div type =" dialogal " > 124 < div type = " explicatif " > 125 - Qu ’ importe la pens ée pratique ! 126 Je n ’ aime que le rê ve . 127 Lui seul est bon , 128 lui seul est doux . 129 La ré alit é implacable me conduirait au suicide 130 si le rê ve ne me permettait d ’ attendre . < cr /> 131 132 < div type =" argumentatif "> 133 " Mais tu as dit 134 < div type =" descriptif "> 135 que l ’ Orient é tait la terre des barbares ; 136 137 < div type =" injonctif " > 138 tais - toi , malheureux 139 140 < div type =" descriptif " > 141 c ’ est la terre des sages , la terre chaude 142 où on laisse couler la vie , 143 où on arrondit les angles . < cr /> 144 145 < div type =" descriptif "> 146 Nous sommes les barbares , nous autres gens de l ’ Occident 147 qui nous disons civilis é s ; 148 nous sommes d ’ odieux barbares 149 qui vivons durement , comme des brutes . < cr /> 150 151 < div type =" injonctif " >A.1. L’Orient 145 152 " Regarde nos villes de pierres , nos meubles de bois anguleux et durs . 153 154 < div type =" explicatif "> 155 Nous montons en haletant des escaliers é troits et rapides 156 pour entrer en des appartements é trangl és , 157 où le vent glac é pén è tre en sifflant pour s ’ enfuir aussit ô t par un tuyau de chemin ée en forme de pompe , < /e > 158 qui é tablit des courants d ’ air mortels , forts à faire tourner des moulins . 159 160 < div type =" descriptif "> 161 Nos chaises sont dures , 162 nos murs froids , couverts d ’un odieux papier ; 163 partout des angles nous blessent . 164 Angles des tables , des chemin é es , des portes , des lits . 165 166 < div type =" explicatif " > 167 Nous vivons debout ou assis , jamais couch és , sauf pour dormir , 168 ce qui est absurde , 169 car on ne per ç oit plus dans le sommeil le bonheur d ’ê tre é tendu . < cr /> 170 171 < div type =" injonctif " > 172 " Mais songe aussi à notre vie intellectuelle . 173 174 < div type =" descriptif "> 175 C ’ est la lutte , la bataille incessante . 176 177 Le souci plane sur nous , 178 les pr é occupations nous harc è lent ; 179 nous n ’ avons plus le temps de chercher et de poursuivre les deux ou trois bonnes choses à port é e de nos mains . < cr /> 180 < div type =" descriptif "> 181 " C ’ est le combat à outrance . 182 183 Plus que nos meubles encore , notre caract è re a des angles , toujours des angles ! < cr / > 184 "A peine lev és , nous courons au travail par la pluie ou la gel ée . 185 Nous luttons contre les rivalit és , les comp é titions , les hostilit és . 186 < div type =" descriptif " > 187 Chaque homme est un ennemi 188 qu ’ il faut craindre et terrasser , 189 avec qui il faut ruser . 146 A. TEXTES DE MAUPASSANT ANNOTÉS 190 191 < div type =" descriptif " > 192 L ’ amour mê me a , chez nous , des aspects de victoire et de dé faite : 193 c ’ est encore une lutte ." 194 195 196 197 Il songea quelques secondes et reprit : 198 < div type =" dialogal " > 199 < div type = " descriptif " > 200 - La maison que je vais acheter , 201 je la connais . 202 Elle est carr ée , avec un toit plat et des dé coupures de bois à la mode orientale . 203 De la terrasse , on voit la mer , 204 où passent ces voiles blanches , en forme d ’ ailes pointues , des bateaux grecs ou musulmans . 205 Les murs du dehors sont presque sans ouvertures . 206 Un grand jardin , 207 où l ’ air est lourd sous le parasol des palmiers , 208 forme le milieu de cette demeure . 209 Un jet d ’ eau monte sous les arbres 210 et s ’é miette en retombant dans un large bassin de marbre 211 dont le fond est sabl é de poudre d ’or . 212 Je m ’y baignerai à tout moment , entre deux pipes , deux rê ves ou deux baisers . 213 214 " Je n ’ aurai point la servante , la hideuse bonne au tablier gras , 215 et qui rel è ve en s ’ en allant , d ’ un coup de sa savate us ée , le bas fangeux de sa jupe . 216 Oh ! ce coup de talon 217 qui montre la cheville jaune , 218 il me remue le coeur de dé go ût , 219 et je ne le puis é viter . 220 Elles l ’ ont toutes , les mis é rables ! < cr /> 221 " Je n ’ entendrai plus le claquement de la semelle sur le parquet , le battement des portes lanc é es à toute vol ée , le fracas de la vaisselle 222 qui tombe . < cr /> 223 " J ’ aurai des esclaves noirs et beaux , drap és dans un voile blanc 224 et qui courent , nu - pieds , sur les tapis sourds . 225 " Mes murs seront moelleux et rebondissants comme des poitrines de femmes , 226 et , sur mes divans en cercle autour de chaque appartement , toutes les formes de coussins me permettront de me coucher dans toutes les postures 227 qu ’ on peut prendre . < cr />A.1. L’Orient 147 228 " Puis , 229 quand je serai las du repos d é licieux , las de jouir de l ’ immobilit é de mon rê ve é ternel , las du calme plaisir d ’ê tre bien , 230 je ferai amener devant ma porte un cheval blanc ou noir 231 qui courra tr ès vite . < cr / > 232 " Et je partirai sur son dos , en buvant l ’ air 233 qui fouette 234 et grise , 235 l ’ air sifflant des galops furieux . < cr / > 236 " Et j ’ irai comme une fl è che sur cette terre color ée 237 qui enivre le regard , 238 dont la vue est savoureuse comme un vin . < cr /> 239 " A l ’ heure calme du soir , j ’ irai , d ’ une course affol ée , vers le large horizon 240 que le soleil couchant teinte en rose . 241 < div type =" descriptif " > 242 Tout devient rose , là -bas , au cr é puscule : les montagnes br û lées , le sable , les v ê tements des Arabes , la robe blanche des chevaux . 243 244 " Les flamants roses s ’ envoleront des marais sur le ciel rose ; 245 et je pousserai des cris de d é lire , noy é dans la roseur illimit ée du monde . < cr /> 246 " Je ne verrai plus , le long des trottoirs , assourdis par le bruit dur des fiacres sur les pav és , des hommes v ê tus de noir , assis sur des chaises incommodes , boire l ’ absinthe en parlant d ’ affaires . < cr / > 247 "J ’ ignorerai le cours de la Bourse , les fluctuations des valeurs , toutes les inutiles bê tises 248 où nous gaspillons notre courte , mis é rable et trompeuse existence . 249 < div type =" explicatif " > 250 Pourquoi ces peines , ces souffrances , ces luttes ? 251 252 Je me reposerai à l ’ abri du vent dans ma somptueuse et claire demeure . < cr /> 253 " Et j ’ aurai quatre ou cinq é pouses en des appartements moelleux , cinq é pouses venues des cinq parties du monde , 254 et qui m ’ apporteront la saveur de la beaut é f é minine é panouie dans toutes les races ." < cr / > 255 256 Il se tut encore , 257 puis pronon ça doucement : < cr /> 258 < div type =" dialogal " > 259 < div type =" injonctif " > 260 - Laisse - moi . < cr /> 261 148 A. TEXTES DE MAUPASSANT ANNOTÉS 262 263 Je m ’ en allai . 264 Je ne le revis plus . < cr /> 265 Deux mois plus tard , il m ’ é crivit ces trois mots seuls : 266 < div type =" dialogal " > 267 " Je suis heureux ." 268 269 Sa lettre sentait l ’ encens et d ’ autres parfums tr è s doux . < cr / > 270 271 A.2 Le Voleur 1 2 < text source = " http: // un2sg4 . unige . ch / athena / selva / maupassant / textes / voleur . html " date = " 2011.07.06 " date - origin =" 1882.06.21 " > 3 < title > LE VOLEUR 4 < div type = " dialogal " > 5 " Puisque je vous dis 6 qu ’ on ne la croira pas . < cr /> 7 < div type =" injonctif " > 8 - Racontez tout de m ê me . < cr / > 9 10 < div type =" argumentatif " > 11 - Je le veux bien . 12 Mais j ’ é prouve d ’ abord le besoin de vous affirmer 13 que mon histoire est vraie en tous points , quelque invraisemblable qu ’ elle paraisse . 14 Les peintres seuls ne s ’ é tonneront point , surtout les vieux 15 qui ont connu cette é poque 16 où l ’ esprit farceur s é vissait si bien 17 qu ’ il nous hantait encore dans les circonstances les plus graves ." 18 19 20 < div type =" narratif " > 21 Et le vieil artiste se mit à cheval sur une chaise . < cr / > 22 < div type =" descriptif " > 23 Ceci se passait dans la salle à manger d ’un hô tel de Barbizon . < cr / > 24 25 Il reprit : 26 < div type =" dialogal "> 27 < div type =" descriptif "> 28 " Donc nous avions d în é ce soir -là chez le pauvre Sorieul , aujourd ’ hui mort , le plus enrag é de nous . 29 Nous é tions trois seulement : Sorieul , moi et LeA.2. Le Voleur 149 Poittevin , je crois ; 30 mais je n ’ oserais affirmer 31 que c ’é tait lui . 32 Je parle , bien entendu , du peintre de marine Eug è ne Le Poittevin , mort aussi , et non du paysagiste , bien vivant et plein de talent . < cr / > 33 Dire que nous avions d îné chez Sorieul , cela signifie 34 que nous é tions gris . 35 Le Poittevin seul avait gard é sa raison , un peu noy ée il est vrai , mais claire encore . 36 Nous é tions jeunes , en ce temps -l à. 37 Etendus sur des tapis , nous discourions extravagamment dans la petite chambre qui touchait à l ’ atelier . 38 Sorieul , le dos à terre , les jambes sur une chaise , parlait bataille , 39 discourait sur les uniformes de l ’ Empire , 40 41 < div type =" narratif " > 42 et soudain se levant , il prit dans sa grande armoire aux accessoires une tunique compl è te de hussard , 43 et s ’en rev ê tit . 44 Apr è s quoi il contraignit Le Poittevin à se costumer en grenadier . 45 Et comme celui - ci r é sistait , 46 nous l ’ empoign â mes , 47 et , apr ès l ’ avoir d é shabill é , nous l ’ introduis î mes dans un uniforme immense 48 où il fut englouti . 49 Je me dé guisai moi - mê me en cuirassier . 50 Et Sorieul nous fit ex é cuter un mouvement compliqu é. 51 Puis il s ’é cria : 52 < div type =" dialogal " > 53 " Puisque nous sommes ce soir des soudards , 54 < div type =" injonctif " > 55 buvons comme des soudards ." < cr /> 56 57 58 Un punch fut allum é , aval é , 59 puis une seconde fois la flamme s ’é leva sur le bol rempli de rhum . 60 Et nous chantions à pleine gueule des chansons anciennes , des chansons 61 que braillaient jadis les vieux troupiers de la grande arm é e. < cr / > 62 Tout à coup Le Poittevin , 63 qui restait , malgr é tout , presque ma î tre de lui , 64 nous fit taire , 65 puis , apr è s un silence de quelques secondes , il dit à mi - voix : 150 A. TEXTES DE MAUPASSANT ANNOTÉS 66 < div type =" dialogal " > 67 " Je suis sû r qu ’ on a march é dans l ’ atelier ." 68 69 Sorieul se leva comme il put , 70 et s ’é cria : 71 < div type =" dialogal "> 72 " Un voleur ! quelle chance !" 73 74 Puis , soudain , il entonna la Marseillaise : < cr / > 75 < div type =" dialogal "> 76 Aux armes , citoyens ! < cr / > 77 78 Et , se pr é cipitant sur une panoplie , il nous é quipa , selon nos uniformes . 79 J ’ eus une sorte de mousquet et un sabre ; 80 Le Poittevin , un gigantesque fusil à ba ï onnette , 81 et Sorieul , ne trouvant pas ce qu ’il fallait , 82 s ’ empara d ’un pistolet d ’ar ç on 83 qu ’il glissa dans sa ceinture , et d ’ une hache d ’ abordage 84 qu ’il brandit . 85 Puis il ouvrit avec pr é caution la porte de l ’ atelier , 86 et l ’ arm ée entra sur le territoire suspect . < cr / > 87 Quand nous fû mes au milieu de la vaste pi è ce encombr ée de toiles immenses , de meubles , d ’ objets singuliers et inattendus , 88 Sorieul nous dit : 89 < div type =" dialogal "> 90 " Je me nomme g én é ral . 91 Tenons un conseil de guerre . 92 Toi , les cuirassiers , tu vas couper la retraite à l ’ ennemi , c ’est -à - dire donner un tour de clef à la porte . 93 Toi , les grenadiers , tu seras mon escorte ." < cr / > 94 95 J ’ex é cutai le mouvement command é , 96 puis je rejoignis le gros des troupes 97 qui op é rait une reconnaissance . < cr / > 98 Au moment o ù j ’ allais le rattraper derri è re un grand paravent , 99 un bruit furieux é clata . 100 Je m ’é lan ç ai , portant toujours une bougie à la main . 101 Le Poittevin venait de traverser d ’ un coup de ba ï onnette la poitrine d ’un mannequin 102 dont Sorieul fendait la t ê te à coups de hache . 103 L ’ erreur reconnue , le gé né ral commanda : 104 < div type =" dialogal "> 105 < div type =" injonctif " > 106 " Soyons prudents " , A.2. Le Voleur 151 107 108 109 et les op é rations recommenc è rent . < cr / > 110 < div type =" descriptif "> 111 Depuis vingt minutes au moins on fouillait tous les coins et recoins de l ’ atelier , sans succ ès , 112 quand Le Poittevin eut l ’id ée d ’ ouvrir un immense placard . 113 Il é tait sombre et profond , 114 j ’ avan ç ai mon bras 115 qui tenait la lumi è re , 116 et je reculai stup é fait ; 117 un homme é tait l à , un homme vivant , 118 qui m ’ avait regard é. < cr / > 119 120 Imm é diatement , je refermai le placard à deux tours de clef , 121 et on tint de nouveau conseil . < cr / > 122 < div type =" descriptif " > 123 Les avis é taient tr ès partag és . 124 Sorieul voulait enfumer le voleur . 125 Le Poittevin parlait de le prendre par la famine . 126 Je proposai de faire sauter le placard avec de la poudre . 127 128 L ’ avis de Le Poittevin pr é valut ; 129 et , pendant qu ’ il montait la garde avec son grand fusil , 130 nous all â mes chercher le reste du punch et nos pipes ; 131 puis on s ’ installa devant la porte ferm ée , 132 et on but au prisonnier . < cr / > 133 Au bout d ’ une demi - heure , Sorieul dit : 134 < div type =" dialogal " > 135 "C ’ est é gal , 136 je voudrais bien le voir de pr è s . 137 Si nous nous emparions de lui par la force ?" < cr / > 138 139 Je criai : 140 < div type =" dialogal " > 141 " Bravo !" 142 143 Chacun s ’é lan ça sur ses armes ; 144 la porte du placard fut ouverte , 145 et Sorieul , armant son pistolet 146 qui n ’é tait pas charg é , 147 se pr é cipita le premier . 148 Nous le suiv î mes en hurlant . 149 Ce fut une bousculade effroyable dans l ’ ombre ; 152 A. TEXTES DE MAUPASSANT ANNOTÉS 150 et apr è s cinq minutes d ’ une lutte invraisemblable , nous ramen â mes au jour une sorte de vieux bandit à cheveux blancs , sordide et dé guenill é . 151 On lui lia les pieds et les mains , 152 puis on l ’ assit dans un fauteuil . 153 Il ne pronon ç a pas une parole . < cr / > 154 Alors Sorieul , p én é tr é d ’ une ivresse solennelle , se tourna vers nous : < cr / > 155 < div type =" dialogal " > 156 " Maintenant nous allons juger ce mis é rable . " 157 158 J ’é tais tellement gris 159 que cette proposition me parut toute naturelle . < cr /> 160 Le Poittevin fut charg é de pr é senter la dé fense 161 et moi de soutenir l ’ accusation . 162 Il fut condamn é à mort à l ’ unanimit é moins une voix , celle de son dé fenseur . < cr /> 163 < div type =" dialogal "> 164 " Nous allons l ’ ex é cuter " 165 166 , dit Sorieul . 167 Mais un scrupule lui vint : 168 < div type =" dialogal " > 169 " Cet homme ne doit pas mourir priv é des secours de la religion . 170 Si on allait chercher un pr ê tre ? " 171 172 J ’ objectai 173 qu ’ il é tait tard . 174 < div type =" argumentatif " > 175 Alors Sorieul me proposa de remplir cet office ; 176 et il exhorta le criminel à se confesser dans mon sein . < cr /> 177 178 L ’ homme , depuis cinq minutes , roulait des yeux é pouvant és , 179 se demandant à quel genre d ’ ê tres il avait affaire . 180 Alors il articula d ’ une voix creuse , br ûl ée par l ’ alcool 181 < div type =" dialogal " > 182 " Vous voulez rire , sans doute . " 183 184 Mais Sorieul l ’ agenouilla de force , 185 et , de crainte que ses parents eussent omis de le faire baptiser , 186 il lui versa sur le cr â ne un verre de rhum . < cr / > 187 Puis il dit : < cr /> 188 < div type =" dialogal " > 189 < div type = " injonctif " >A.2. Le Voleur 153 190 " Confesse - toi à monsieur ; 191 192 ta derni è re heure a sonn é ." < cr / > 193 194 Eperdu , le vieux gredin se mit à crier : < cr / > 195 < div type =" dialogal " > 196 " Au secours ! " 197 198 avec une telle force qu ’ on fut contraint de le b â illonner pour ne pas ré veiller tous les voisins . 199 Alors il se roula par terre , ruant et se tordant , renversant les meubles , crevant les toiles . 200 A la fin , Sorieul , impatient é , cria : 201 < div type =" dialogal " > 202 < div type =" injonctif " > 203 " Finissons - en . " 204 205 206 Et visant le mis é rable é tendu par terre , il pressa la dé tente de son pistolet . 207 Le chien tomba avec un bruit sec . 208 Emport é par l ’ exemple , je tirai à mon tour . 209 Mon fusil , qui é tait à pierre , lan ça une é tincelle 210 dont je fus surpris . < cr /> 211 Alors Le Poittevin pronon ça gravement ces paroles : 212 < div type =" dialogal " > 213 " Avons - nous bien le droit de tuer cet homme ? " < cr /> 214 215 Sorieul , stup é fait , r é pondit : 216 < div type =" dialogal " > 217 < div type = " explicatif " > 218 " Puisque nous l ’ avons condamn é à mort !" < cr /> 219 220 221 < div type =" argumentatif "> 222 Mais Le Poittevin reprit : 223 < div type =" dialogal " > 224 " On ne fusille pas les civils , 225 celui - ci doit ê tre livr é au bourreau . 226 Il faut le conduire au poste ." < cr / > 227 228 229 L ’ argument nous parut concluant . 230 On ramassa l ’ homme , 231 < div type =" explicatif "> 232 et comme il ne pouvait marcher , 233 il fut plac é sur une planche de table à mod èle , solidement attach é , 234 et je l ’ emportai avec Le Poittevin , 235 tandis que Sorieul , arm é jusqu ’ aux dents , fermait la154 A. TEXTES DE MAUPASSANT ANNOTÉS marche . < cr /> 236 237 Devant le poste , la sentinelle nous arr ê ta . 238 Le chef de poste , mand é , nous reconnut , 239 < div type =" explicatif "> 240 et , comme chaque jour il é tait té moin de nos farces , de nos scies , de nos inventions invraisemblables , 241 il se contenta de rire 242 et refusa notre prisonnier . < cr /> 243 244 Sorieul insista : 245 alors le soldat nous invita sé vè rement à retourner chez nous sans faire de bruit . < cr / > 246 La troupe se remit en route 247 et rentra dans l ’ atelier . 248 Je demandai : 249 < div type =" dialogal " > 250 "Qu ’ allons - nous faire du voleur ?" < cr / > 251 252 Le Poittevin , attendri , affirma 253 qu ’il devait ê tre bien fatigu é , cet homme . 254 En effet , il avait l ’ air agonisant , ainsi ficel é , bâ illonn é , ligatur é sur sa planche . 255 Je fus pris à mon tour d ’ une piti é violente , une piti é d ’ ivrogne , 256 et , enlevant son bâ illon , je lui demandai : 257 < div type =" dialogal " > 258 " Eh bien , mon pauv ’ vieux , comment ç a va -t - il ?" < cr / > 259 260 Il gé mit : 261 < div type =" dialogal " > 262 "J ’ en ai assez , nom d ’ un chien !" 263 264 Alors Sorieul devint paternel . 265 Il le dé livra de tous ses liens , 266 le fit asseoir , 267 le tutoya , 268 et , pour le ré conforter , nous nous m î mes tous trois à pr é parer bien vite un nouveau punch . 269 Le voleur , tranquille dans son fauteuil , nous regardait . 270 Quand la boisson fut pr ête , 271 on lui tendit un verre - 272 nous lui aurions volontiers soutenu la tê te , 273 et on trinqua . 274 Le prisonnier but autant qu ’un ré giment . 275 Mais , comme le jour commen ç ait à para î tre , 276 il se leva , et , d ’un air fort calme : 277 < div type =" dialogal " >A.3. Un Fou ? 155 278 < div type =" explicatif " > 279 " Je vais ê tre oblig é de vous quitter , 280 parce qu ’ il faut que je rentre chez moi ." < cr / > 281 282 283 Nous fû mes dé sol és ; 284 on voulut le retenir , 285 mais il se refusa à rester plus longtemps . 286 Alors on se serra la main , 287 et Sorieul , avec sa bougie , l ’é claira dans le vestibule . en criant : 288 < div type =" dialogal "> 289 < div type =" injonctif "> 290 " Prenez garde à la marche sous la porte coch è re ." < cr / > 291 292 293 294 295 On riait franchement autour du conteur . 296 Il se leva , alluma sa pipe , 297 et il ajouta , en se campant en face de nous . < cr /> 298 < div type =" dialogal "> 299 " Mais le plus dr ô le de mon histoire c ’ est qu ’ elle est vraie ." < cr / > 300 301 302 A.3 Un Fou ? 1 2 < text source = " http: // un2sg4 . unige . ch / athena / maupassant / maup_fou . html " date =" 2011.02.07 " > 3 < title > Un fou ? 4 < div type = " explicatif " > 5 < div type =" narratif " > 6 Quand on me dit: 7 < div type = " dialogal " > 8 " Vous savez 9 que Jacques Parent est mort fou dans une maison de sant é" , 10 11 un frisson douloureux , un frisson de peur et d ’ angoisse me courut le long des os ; 12 et je le revis brusquement , ce grand gar ç on é trange , fou depuis longtemps peut -ê tre , maniaque inqui é tant , effrayant m ê me . < cr / > 13 < div type =" descriptif "> 14 C ’é tait un homme de quarante ans , haut , maigre , un peu vo ûté , avec des yeux d ’ hallucin é , des yeux noirs , si156 A. TEXTES DE MAUPASSANT ANNOTÉS noirs 15 qu ’on ne distinguait pas la pupille , 16 des yeux mobiles , r ô deurs , malades , hant é s. 17 Quel ê tre singulier , troublant 18 < div type =" narratif " > 19 qui apportait , qui jetait un malaise autour de lui , un malaise vague , de l ’âme , du corps , un de ces é nervements incompr é hensibles 20 qui font croire à des influences surnaturelles . < cr /> 21 22 Il avait un tic g ê nant: la manie de cacher ses mains . 23 < div type =" narratif "> 24 Presque jamais il ne les laissait errer , 25 comme nous faisons tous sur les objets , sur les tables . 26 Jamais il ne maniait les choses tra î nantes avec ce geste familier 27 qu ’ ont presque tous les hommes . 28 Jamais il ne les laissait nues , ses longues mains osseuses , fines , un peu f é briles . 29 Il les enfon ç ait dans ses poches , sous les revers de ses aisselles en croisant les bras . 30 < div type =" explicatif " > 31 On eû t dit 32 qu ’il avait peur 33 qu ’ elles ne fissent , malgr é lui , quelque besogne dé fendue , 34 qu ’ elles n ’ accomplissent quelque action honteuse ou ridicule 35 s ’il les laissait libres et ma î tresses de leurs mouvements . < cr /> 36 37 Quand il é tait oblig é de s ’ en servir pour tous les usages ordinaires de la vie , 38 il le faisait par saccades brusques , par é lans rapides du bras 39 < div type =" explicatif " > 40 comme s ’il n ’eût pas voulu leur laisser le temps d ’ agir par elles -m ê mes , de se refuser à sa volont é , d ’ex é cuter autre chose . 41 42 A table , il saisissait son verre , sa fourchette ou son couteau si vivement 43 qu ’on n ’ avait jamais le temps de pr é voir 44 ce qu ’il voulait faire 45 avant qu ’il ne l ’eû t accompli . < cr /> 46 47 48 < div type =" argumentatif ">A.3. Un Fou ? 157 49 Or , j ’ eus un soir l ’ explication de la surprenante maladie de son â me . < cr /> 50 51 II venait passer de temps en temps quelques jours chez moi , à la campagne , 52 < div type =" descriptif "> 53 et ce soir - là il me paraissait particuli è rement agit é ! < cr /> 54 55 < div type =" descriptif "> 56 Un orage montait dans le ciel , é touffant et noir , apr ès une journ é e d ’ atroce chaleur . 57 Aucun souffle d ’ air ne remuait les feuilles . 58 Une vapeur chaude de four passait sur les visages , 59 faisait haleter les poitrines . 60 61 < div type =" descriptif "> 62 Je me sentais mal à l ’ aise , agit é , 63 64 et je voulus gagner mon lit . < cr / > 65 Quand il me vit me lever pour partir , 66 Jacques Parent me saisit le bras d ’un geste effar é . < cr /> 67 < div type =" dialogal "> 68 - Oh ! non , 69 < div type =" injonctif "> 70 reste encore un peu , 71 72 73 me dit - il . < cr / > 74 Je le regardai avec surprise en murmurant: < cr /> 75 < div type =" dialogal "> 76 - C ’ est que cet orage me secoue les nerfs . < cr / > 77 78 Il gé mit , 79 ou plut ô t il cria: 80 < div type =" dialogal " > 81 - Et moi donc ! Oh ! 82 < div type = " injonctif " > 83 reste , 84 je te prie ; 85 86 je ne voudrais pas demeurer seul . 87 88 < div type =" descriptif " > 89 Il avait l ’ air affol é . < cr /> 90 91 Je pronon ç ai: < cr /> 92 < div type =" dialogal "> 93 - Qu ’est - ce que tu as ? 94 Perds - tu la t ê te ? 158 A. TEXTES DE MAUPASSANT ANNOTÉS 95 96 Et il balbutia: < cr / > 97 < div type =" dialogal " > 98 < div type =" explicatif " > 99 - Oui , par moments , dans les soirs comme celui -ci , dans les soirs d ’é lectricit é ... j ’ ai ... j ’ ai ... j ’ai peur ... j ’ ai peur de moi ... 100 tu ne me comprends pas ? 101 C ’ est que je suis dou é d ’ un pouvoir ... non ... d ’ une puissance ... non ... d ’ une force ... 102 Enfin je ne sais pas dire 103 ce que c ’est , 104 < div type =" argumentatif " > 105 mais j ’ ai en moi une action magn é tique si extraordinaire 106 que j ’ai peur , oui , j ’ ai peur de moi , 107 comme je te le disais tout à l ’ heure ! < cr / > 108 109 110 111 Et il cachait , avec des frissons é perdus , ses mains vibrantes sous les revers de sa jaquette . 112 < div type =" descriptif " > 113 Et moi -m ê me je me sentis soudain tout tremblant d ’ une crainte confuse , puissante , horrible . 114 115 J ’ avais envie de partir , de me sauver , de ne plus le voir , de ne plus voir son oeil errant passer sur moi , puis s ’ enfuir , tourner autour du plafond , chercher quelque coin sombre de la pi è ce pour s ’y fixer , 116 < div type =" explicatif " > 117 comme s ’il eû t voulu cacher aussi son regard redoutable . < cr /> 118 119 Je balbutiai: < cr /> 120 < div type =" dialogal " > 121 - Tu ne m ’ avais jamais dit ça ! 122 123 Il reprit: 124 < div type = " dialogal " > 125 - Est - ce que j ’en parle à personne ? 126 < div type =" injonctif " > 127 Tiens , 128 é coute , 129 130 ce soir je ne puis me taire . 131 Et j ’ aime mieux 132 que tu saches tout ; 133 d ’ ailleurs , tu pourras me secourir . < cr /> 134 < div type =" explicatif "> 135 < div type =" argumentatif ">A.3. Un Fou ? 159 136 Le magn é tisme ! 137 Sais - tu ce que c ’ est ? 138 Non . 139 Personne ne sait . 140 On le constate pourtant . 141 On le reconna ît , 142 les m é decins eux -m ê mes le pratiquent ; 143 un des plus illustres , M. Charcot , le professe ; 144 donc , pas de doute , cela existe . < cr / > 145 Un homme , un ê tre a le pouvoir , effrayant et incompr é hensible , d ’ endormir , par la force de sa volont é , un autre ê tre , et , 146 pendant qu ’il dort , 147 de lui voler sa pens ée 148 comme on volerait une bourse . 149 Il lui vole sa pens ée , c ’est -à - dire son âme , l ’â me , ce sanctuaire , ce secret du Moi , l ’âme , ce fond de l ’ homme 150 qu ’on croyait imp é né trable , 151 l ’âme , cet asile des inavouables id é es , 152 de tout ce qu ’on cache , 153 de tout ce qu ’on aime , 154 de tout ce qu ’on veut celer à tous les humains , 155 il l ’ ouvre , 156 la viole , 157 l ’é tale , 158 la jette au public ! 159 160 N ’est - ce pas atroce , criminel , inf â me ? 161 Pourquoi , comment cela se fait - il ? 162 Le sait - on ? 163 Mais que sait - on ? 164 Tout est myst è re . 165 Nous ne communiquons avec les choses que par nos mis é rables sens , incomplets , infirmes , si faibles 166 qu ’ ils ont à peine la puissance de constater 167 ce qui nous entoure . 168 Tout est myst è re . 169 < div type =" argumentatif "> 170 < div type =" injonctif " > 171 Songe à la musique , cet art divin , cet art 172 qui bouleverse l ’â me , 173 l ’ emporte , 174 la grise , 175 l ’ affole , 176 177 qu ’est - ce donc ? 178 Rien . < cr /> 179 Tu ne me comprends pas ? 180 < div type =" injonctif " > 181 Ecoute . 160 A. TEXTES DE MAUPASSANT ANNOTÉS 182 183 Deux corps se heurtent . 184 L ’ air vibre . 185 Ces vibrations sont plus ou moins nombreuses , plus ou moins rapides , plus ou moins fortes , selon la nature du choc . 186 Or nous avons dans l ’ oreille une petite peau 187 qui re ç oit ces vibrations de l ’ air 188 et les transmet au cerveau sous forme de son . 189 < div type =" injonctif " > 190 Imagine qu ’un verre d ’ eau se change en vin dans ta bouche . 191 192 Le tympan accomplit cette incroyable m é tamorphose , ce surprenant miracle de changer le mouvement en son . 193 Voil à. < cr / > 194 La musique , cet art complexe et myst é rieux , pr é cis comme l ’ alg è bre et vague comme un r êve , cet art fait de math é matiques et de brise , ne vient donc que de la propri été é trange d ’ une petite peau . 195 Elle n ’ existerait point , cette peau , 196 que le son non plus n ’ existerait pas , 197 puisque par lui - mê me il n ’ est qu ’ une vibration . 198 Sans l ’ oreille , devinerait - on la musique ? 199 Non . 200 < div type =" explicatif "> 201 Eh bien ! nous sommes entour és de choses 202 que nous ne soup ç onnerons jamais , 203 parce que les organes nous manquent 204 qui nous les r év é leraient . < cr / > 205 206 207 Le magn é tisme est de celles -là peut -ê tre . 208 Nous ne pouvons que pressentir cette puissance , 209 que tenter en tremblant ce voisinage des esprits , 210 qu ’ entrevoir ce nouveau secret de la nature , 211 parce que nous n ’ avons point en nous l ’ instrument rév é lateur . 212 213 Quant à moi ... Quant à moi , je suis dou é d ’ une puissance affreuse . 214 On dirait un autre ê tre enferm é en moi , 215 qui veut sans cesse s ’é chapper , 216 agir malgr é moi , 217 qui s ’ agite , 218 me ronge , 219 m ’é puise . 220 Quel est - il ? 221 Je ne sais pas , 222 < div type =" argumentatif " >A.3. Un Fou ? 161 223 mais nous sommes deux dans mon pauvre corps , 224 et c ’ est lui , l ’ autre , qui est souvent le plus fort , comme ce soir . < cr / > 225 226 Je n ’ai qu ’à regarder les gens pour les engourdir 227 comme si je leur avais vers é de l ’ opium . 228 Je n ’ai qu ’à é tendre les mains pour produire des choses ... des choses ... terribles . 229 Si tu savais ? 230 Oui . 231 Si tu savais ? 232 < div type =" argumentatif "> 233 Mon pouvoir ne s ’é tend pas seulement sur les hommes , mais aussi sur les animaux et m ê me ... sur les objets ... < cr / > 234 235 Cela me torture 236 et m ’é pouvante . 237 J ’ai eu envie souvent de me crever les yeux et de me couper les poignets . 238 Mais je vais ... 239 je veux que tu saches tout . 240 < div type =" injonctif " > 241 Tiens . 242 243 < div type =" argumentatif " > 244 Je vais te montrer cela ... non pas sur des cr é atures humaines , 245 c ’ est ce qu ’on fait partout , 246 mais sur ... sur ... des bê tes . < cr / > 247 248 < div type =" injonctif " > 249 Appelle Mirza . < cr / > 250 251 252 Il marchait à grands pas avec des airs d ’ hallucin é , 253 et il sortit ses mains cach é es dans sa poitrine . 254 < div type =" descriptif "> 255 Elles me sembl è rent effrayantes 256 comme s ’il eû t mis à nu deux é pé es . 257 258 Et je lui ob é is machinalement , subjugu é , vibrant de terreur et dé vor é d ’ une sorte de dé sir imp é tueux de voir . 259 J ’ ouvris la porte 260 et je sifflai ma chienne 261 qui couchait dans le vestibule . 262 J ’ entendis aussit ôt le bruit pr é cipit é de ses ongles sur les marches de l ’ escalier , 263 et elle apparut , joyeuse , remuant la queue . < cr / > 264 Puis je lui fis signe de se coucher sur un fauteuil ; 162 A. TEXTES DE MAUPASSANT ANNOTÉS 265 elle y sauta , 266 et Jacques se mit à la caresser en la regardant . < cr / > 267 < div type =" descriptif " > 268 D ’ abord , elle sembla inqui è te ; 269 elle frissonnait , 270 tournait la t ê te pour é viter l ’ oeil fixe de l ’ homme , 271 semblait agit ée d ’ une crainte grandissante . 272 273 Tout à coup , elle commen ç a à trembler , 274 comme tremblent les chiens . 275 Tout son corps palpitait , secou é de longs frissons , 276 et elle voulut s ’ enfuir . 277 < div type =" argumentatif "> 278 Mais il posa sa main sur le cr â ne de l ’ animal 279 qui poussa , sous ce toucher , un de ces longs hurlements 280 qu ’on entend , la nuit , dans la campagne . < cr /> 281 282 < div type =" descriptif "> 283 Je me sentais moi -m ê me engourdi , é tourdi , 284 ainsi qu ’on l ’est 285 lorsqu ’on monte en barque . 286 287 Je voyais se pencher les meubles , remuer les murs . 288 Je balbutiai: 289 < div type = " dialogal " > 290 < div type =" injonctif " > 291 " Assez , Jacques , assez . " 292 293 294 < div type = " argumentatif " > 295 Mais il ne m ’é coutait plus , 296 297 il regardait Mirza d ’ une fa ç on continue , effrayante . 298 Elle fermait les yeux maintenant 299 et laissait tomber sa tê te 300 comme on fait en s ’ endormant . 301 Il se tourna vers moi . < cr / > 302 < div type =" dialogal " > 303 - C ’ est fait , 304 305 dit - il , 306 < div type = " dialogal " > 307 < div type =" injonctif " > 308 vois maintenant . 309 310 311 Et jetant son mouchoir de l ’ autre cô té de l ’ appartement , il cria: 312 < div type = " dialogal " >A.3. Un Fou ? 163 313 < div type =" injonctif " > 314 " Apporte ! " 315 316 317 La bê te alors se souleva 318 et chancelant , tr é buchant 319 comme si elle eût ét é aveugle , remuant ses pattes 320 comme les paralytiques remuent leurs jambes , 321 elle s ’ en alla vers le linge 322 qui faisait une tache blanche contre le mur . 323 Elle essaya plusieurs fois de le prendre dans sa gueule , 324 mais elle mordait à cô té 325 < div type =" explicatif "> 326 comme si elle ne l ’e ût pas vu . 327 328 Elle le saisit enfin , 329 et revint de la m ê me allure ballott é e de chien somnambule . < cr / > 330 < div type =" descriptif " > 331 C ’é tait une chose terrifiante à voir . 332 333 Il commanda: 334 < div type =" dialogal "> 335 < div type =" injonctif " > 336 " Couche - toi ." 337 338 339 Elle se coucha . 340 Alors , lui touchant le front , il dit: 341 < div type =" dialogal "> 342 < div type =" injonctif " > 343 " Un li è vre , pille , 344 pille ." 345 346 347 Et la bê te , toujours sur le flanc , essaya de courir , 348 s ’ agita 349 comme font les chiens 350 qui r ê vent , 351 et poussa , sans ouvrir la gueule , des petits aboiements é tranges , des aboiements de ventriloque . 352 < div type =" descriptif " > 353 Jacques semblait devenu fou . 354 355 La sueur coulait de son front . 356 Il cria: 357 < div type =" dialogal " > 358 < div type =" injonctif " > 359 " Mords - le , 360 mords ton ma î tre ." 164 A. TEXTES DE MAUPASSANT ANNOTÉS 361 362 363 Elle eut deux ou trois soubresauts terribles . 364 < div type =" explicatif " > 365 On eû t jur é 366 qu ’ elle ré sistait , 367 qu ’ elle luttait . 368 369 Il ré pé ta: 370 < div type = " dialogal " > 371 < div type =" injonctif " > 372 " Mords - le ." 373 374 375 Alors , se levant , ma chienne s ’en vint vers moi , 376 et moi je reculais vers la muraille , fr é missant d ’é pouvante , le pied lev é pour la frapper , pour la repousser . < cr / > 377 Mais Jacques ordonna: 378 < div type = " dialogal " > 379 < div type =" injonctif " > 380 " Ici , tout de suite ." 381 382 383 Elle se retourna vers lui . 384 Alors , de ses deux grandes mains , il se mit à lui frotter la tê te 385 < div type = " explicatif " > 386 comme s ’il l ’eût dé barrass é e de liens invisibles . < cr / > 387 388 Mirza rouvrit les yeux: 389 < div type = " dialogal " > 390 "C ’ est fini " , 391 392 dit - il . 393 Je n ’ osais point la toucher 394 et je poussai la porte 395 < div type =" explicatif "> 396 pour qu ’ elle s ’ en all â t . 397 398 Elle partit lentement , tremblante , é puis ée , 399 et j ’ entendis de nouveau ses griffes frapper les marches . 400 Mais Jacques revint vers moi: 401 < div type = " dialogal " > 402 " Ce n ’ est pas tout . 403 Ce qui m ’ effraie le plus , 404 c ’ est ceci , 405 < div type =" injonctif " > 406 tiens . A.3. Un Fou ? 165 407 408 Les objets m ’ ob é issent . " 409 410 < div type =" descriptif " > 411 Il y avait sur ma table une sorte de couteau - poignard 412 dont je me servais pour couper les feuillets des livres . 413 414 Il allongea sa main vers lui . 415 < div type =" descriptif " > 416 Elle semblait ramper , 417 s ’ approchait lentement ; 418 419 et tout d ’ un coup je vis , oui , je vis le couteau lui - mê me tressaillir , 420 puis il remua , 421 puis il glissa doucement , tout seul , sur le bois vers la main arr êt ée 422 qui l ’ attendait , 423 et il vint se placer sous ses doigts . < cr / > 424 Je me mis à crier de terreur . 425 < div type =" argumentatif "> 426 Je crus 427 que je devenais fou moi -m ême , 428 mais le son aigu de ma voix me calma soudain . < cr /> 429 430 Jacques reprit: < cr / > 431 < div type =" dialogal "> 432 - Tous les objets viennent ainsi vers moi . 433 < div type =" explicatif "> 434 C ’ est pour cela que je cache mes mains . 435 436 Qu ’ est cela ? 437 Du magn é tisme , de l ’é lectricit é , de l ’ aimant ? 438 Je ne sais pas , 439 < div type =" argumentatif "> 440 < div type =" descriptif "> 441 mais c ’ est horrible . < cr / > 442 443 444 < div type =" explicatif " > 445 Et comprends - tu 446 pourquoi c ’ est horrible ? 447 Quand je suis seul , 448 aussit ô t que je suis seul , 449 je ne puis m ’ emp ê cher d ’ attirer tout 450 ce qui m ’ entoure . 451 Et je passe des jours entiers à changer des choses de place , ne me lassant jamais d ’ essayer ce pouvoir abominable , 166 A. TEXTES DE MAUPASSANT ANNOTÉS 452 comme pour voir 453 s ’il ne m ’a pas quitt é . < cr /> 454 455 456 Il avait enfoui ses grandes mains dans ses poches 457 et il regardait dans la nuit . 458 Un petit bruit , un fr é missement l é ger semblait passer dans les arbres . < cr /> 459 C ’é tait la pluie qui commen ç ait à tomber . < cr / > 460 Je murmurai: 461 < div type =" dialogal " > 462 < div type =" descriptif " > 463 "C ’ est effrayant !" 464 465 466 Il ré pé ta: 467 < div type = " dialogal " > 468 < div type =" descriptif " > 469 "C ’ est horrible ." < cr / > 470 471 472 < div type = " descriptif " > 473 Une rumeur accourut dans ce feuillage , comme un coup de vent . 474 C ’é tait l ’ averse , l ’ ond ée é paisse , torrentielle . < cr /> 475 476 Jacques se mit à respirer par grands souffles 477 qui soulevaient sa poitrine . < cr / > 478 < div type =" dialogal " > 479 < div type =" injonctif " > 480 - Laisse - moi , 481 482 483 dit - il , 484 < div type =" dialogal " > 485 la pluie va me calmer . 486 Je dé sire ê tre seul à pr é sent . < cr / > 487 488 489 490 A.4 Un Fou 1 2 < text source = " http: // un2sg4 . unige . ch / athena / selva / maupassant / textes / unfou . html " date =" 2011.04.26 " > 3 < title > UN FOU 4 < div type = " narratif " > 5 < div type =" descriptif " >A.4. Un Fou 167 6 Il é tait mort chef d ’un haut tribunal , magistrat int è gre 7 dont la vie irr é prochable é tait cit ée dans toutes les cours de France . 8 Les avocats , les jeunes conseillers , les juges saluaient en s ’ inclinant tr ès bas , par marque d ’un profond respect , sa grande figure blanche et maigre 9 qu ’é clairaient deux yeux brillants et profonds . < cr / > 10 < div type =" argumentatif " > 11 Il avait pass é sa vie à poursuivre le crime et à prot é ger les faibles . 12 Les escrocs et les meurtriers n ’ avaient point eu d ’ ennemi plus redoutable , 13 car il semblait lire , au fond de leurs â mes , leurs pens é es secr è tes , et d ém ê ler , d ’ un coup d ’oeil , tous les myst è res de leurs intentions . 14 15 Il é tait donc mort , à l ’â ge de quatre - vingt - deux ans , entour é d ’ hommages et poursuivi par les regrets de tout un peuple . 16 Des soldats en culotte rouge l ’ avaient escort é jusqu ’à sa tombe , 17 et des hommes en cravate blanche avaient r é pandu sur son cercueil des paroles d é sol é es et des larmes 18 qui semblaient vraies . 19 20 Or , voici l ’é trange papier que le notaire , é perdu , dé couvrit dans le secr é taire 21 o ù il avait coutume de serrer les dossiers des grands criminels . < cr / > 22 Cela portait pour titre : < cr />< cr /> 23 < div type =" explicatif "> 24 POURQUOI ? < cr / >< cr / > 25 < div type =" date " > 26 20 juin 1851. 27 28 - Je sors de la sé ance ? 29 J ’ai fait condamner Blondel à mort ! 30 Pourquoi donc cet homme avait - il tu é ses cinq enfants ? < /e > 31 Pourquoi ? 32 < div type =" argumentatif " > 33 Souvent , on rencontre de ces gens 34 chez qui d é truire la vie est une volupt é. 35 Oui , oui , ce doit ê tre une volupt é , la plus grande de toutes peut - ê tre ; 36 car tuer n ’est - il pas ce qui ressemble le plus à cr é er ? 37 Faire et d é truire ! 38 Ces deux mots enferment l ’ histoire des univers , toute l ’ histoire des mondes , tout ce qui est , tout ! 168 A. TEXTES DE MAUPASSANT ANNOTÉS 39 40 Pourquoi est - ce enivrant de tuer ? < cr /> 41 42 < div type =" date " > 43 25 juin . 44 45 - Songer qu ’un ê tre est l à qui vit , 46 qui marche , 47 qui court ... 48 Un ê tre ? 49 Qu ’est - ce qu ’un ê tre ? 50 Cette chose anim ée , 51 qui porte en elle le principe du mouvement et une volont é ré glant ce mouvement ! 52 Elle ne tient à rien cette chose . 53 Ses pieds ne communiquent pas au sol . 54 C ’ est un grain de vie 55 qui remue sur la terre ; 56 et ce grain de vie , venu je ne sais d ’où , on peut le d é truire comme on veut . 57 Alors rien , plus rien . 58 Ça pourrit , 59 c ’ est fini . < cr /> 60 < div type =" explicatif "> 61 < div type =" date " > 62 26 juin . 63 64 - Pourquoi donc est - ce un crime de tuer ? 65 oui , pourquoi ? 66 C ’est , au contraire , la loi de la nature . 67 Tout ê tre a pour mission de tuer : 68 il tue pour vivre 69 et il tue pour tuer . 70 71 < div type =" argumentatif " > 72 - Tuer est dans notre temp é rament ; 73 il faut tuer ! 74 La bê te tue sans cesse , tout le jour , à tout instant de son existence . 75 - L ’ homme tue sans cesse pour se nourrir , 76 mais comme il a besoin de tuer aussi , par volupt é , 77 il a invent é la chasse ! 78 L ’ enfant tue les insectes 79 qu ’ il trouve , 80 les petits oiseaux , tous les petits animaux 81 qui lui tombent sous la main . 82 Mais cela ne suffisait pas à l ’ irr é sistible besoin de massacre 83 qui est en nous . 84 Ce n ’ est point assez de tuer la bê te ; 85 nous avons besoin aussi de tuer l ’ homme . A.4. Un Fou 169 86 Autrefois , on satisfaisait ce besoin par des sacrifices humains . 87 Aujourd ’ hui la n é cessit é de vivre en soci été a fait du meurtre un crime . 88 On condamne 89 et on punit l ’ assassin ! 90 Mais comme nous ne pouvons vivre 91 sans nous livrer à cet instinct naturel et imp é rieux de mort , 92 nous nous soulageons de temps en temps , par des guerres < /e > 93 où un peuple entier é gorge un autre peuple . 94 C ’ est alors une dé bauche de sang , une d é bauche 95 où s ’ affolent les arm é es 96 et dont se grisent encore les bourgeois , les femmes et les enfants 97 qui lisent , le soir , sous la lampe , le r é cit exalt é des massacres . < cr / > 98 Et on pourrait croire 99 qu ’on m é prise ceux destin é s à accomplir ces boucheries d ’ hommes ! 100 Non . 101 On les accable d ’ honneurs ! 102 On les habille avec de l ’ or et des draps é clatants ; 103 ils portent des plumes sur la t ête , des ornements sur la poitrine ; 104 et on leur donne des croix , des ré compenses , des titres de toute nature . 105 Ils sont fiers , respect és , aim és des femmes , acclam é s par la foule , 106 uniquement parce qu ’ ils ont pour mission de ré pandre le sang humain ! 107 Ils tra î nent par les rues leurs instruments de mort 108 que le passant v ê tu de noir regarde avec envie . 109 Car tuer est la grande loi jet é e par la nature au coeur de l ’ê tre ! 110 Il n ’ est rien de plus beau et de plus honorable que de tuer ! < cr /> 111 112 < div type =" explicatif "> 113 < div type =" date " > 114 30 juin . 115 116 - Tuer est la loi ; 117 parce que la nature aime l ’é ternelle jeunesse . 118 Elle semble crier par tous ses actes inconscients : 119 < div type =" dialogal " > 120 " Vite ! vite ! vite !" 121 122 Plus elle d é truit , 123 plus elle se renouvelle . 170 A. TEXTES DE MAUPASSANT ANNOTÉS 124 125 < div type =" argumentatif " > 126 < div type =" date " > 127 2 juillet . 128 129 - L ’ê tre - qu ’est - ce que l ’ê tre ? 130 Tout et rien . 131 Par la pens ée , il est le reflet de tout . 132 Par la m é moire et la science , il est un abr égé du monde , 133 dont il porte l ’ histoire en lui . 134 Miroir des choses et miroir des faits , chaque ê tre humain devient un petit univers dans l ’ univers ! < cr /> 135 < div type =" injonctif "> 136 Mais voyagez ; 137 regardez grouiller les races , 138 et l ’ homme n ’ est plus rien ! plus rien , rien ! 139 Montez en barque , 140 é loignez - vous du rivage couvert de foule , 141 et vous n ’ apercevrez bient ôt plus rien que la cô te . 142 L ’ê tre imperceptible dispara ît , 143 tant il est petit , insignifiant . 144 Traverser l ’ Europe dans un train rapide , 145 et regardez par la porti è re . 146 Des hommes , des hommes , toujours des hommes , innombrables , inconnus , 147 qui grouillent dans les champs , 148 qui grouillent dans les rues ; 149 des paysans stupides sachant tout juste retourner la terre ; 150 des femmes hideuses sachant tout juste faire la soupe du mâ le et enfanter . 151 Allez aux Indes , 152 allez en Chine , 153 et vous verrez encore s ’ agiter des milliards d ’ê tres qui naissent , 154 vivent 155 et meurent 156 sans laisser plus de trace 157 que la fourmi é cras ée sur les routes . 158 Allez au pays des noirs , gît és en des cases de boue ; au pays des Arabes blancs , abrit és sous une toile brune 159 qui flotte au vent , 160 et vous comprendrez 161 que l ’ê tre isol é , d é termin é , n ’ est rien , rien . 162 La race est tout ! 163 Qu ’est - ce que l ’ê tre , l ’ê tre quelconque d ’ une tribu errante du dé sert ? 164 Et ces gens , A.4. Un Fou 171 165 qui sont des sages 166 , ne s ’ inqui è tent pas de la mort . 167 L ’ homme ne compte point chez eux . 168 On tue son ennemi : 169 c ’ est la guerre . 170 Cela se faisait ainsi jadis , de manoir à manoir , de province à province . < cr /> 171 < div type =" explicatif "> 172 Oui , traversez le monde 173 et regardez grouiller les humains innombrables et inconnus . 174 Inconnus ? 175 Ah ! voil à le mot du probl è me ! 176 Tuer est un crime 177 parce que nous avons num é rot é les ê tres ! 178 179 Quand ils naissent , 180 on les inscrit , 181 on les nomme , 182 on les baptise . 183 La loi les prend ! 184 Voil à ! 185 L ’ê tre qui n ’ est point enregistr é ne compte pas : 186 tuez - le dans la lande ou dans le d é sert , 187 tuez - le dans la montagne ou dans la plaine , qu ’ importe ! 188 La nature aime la mort ; 189 elle ne punit pas , elle ! < cr / > 190 191 < div type =" explicatif " > 192 Ce qui est sacr é , par exemple , 193 c ’ est l ’é tat civil ! 194 Voil à ! 195 C ’ est lui qui dé fend l ’ homme . 196 L ’ê tre est sacr é 197 parce qu ’ il est inscrit à l ’é tat civil ! 198 Respect à l ’é tat civil , le Dieu lé gal . 199 A genoux ! < cr / > 200 L ’é tat peut tuer , lui , 201 parce qu ’ il a le droit de modifier l ’é tat civil . 202 Quand il a fait é gorger deux cent mille hommes dans une guerre , 203 il les raye sur son é tat civil , 204 il les supprime par la main de ses greffiers . 205 C ’ est fini . 206 Mais nous , qui ne pouvons point changer les é critures des mairies , 207 nous devons respecter la vie . 208 É tat civil , glorieuse Divinit é 209 qui r è gnes dans les temples des municipalit és , 210 je te salue . 172 A. TEXTES DE MAUPASSANT ANNOTÉS 211 Tu es plus fort que la Nature . 212 Ah ! Ah ! 213 214 215 < div type =" descriptif " > 216 < div type = " date " > 217 3 juillet . 218 219 - Ce doit ê tre un é trange et savoureux plaisir que de tuer , 220 d ’ avoir là , devant soi , l ’ê tre vivant , pensant ; 221 de faire devant un petit trou , rien qu ’ un petit trou , 222 de voir couler cette chose rouge 223 qui est le sang , 224 qui fait la vie , 225 et de n ’ avoir plus devant soi , qu ’un tas de chair molle , froide , inerte , vide de pens é e ! < cr / > 226 227 < div type =" date " > 228 5 ao û t . 229 230 - Moi qui ai pass é mon existence à juger , à condamner , à tuer par des paroles prononc ées , à tuer par la guillotine ceux 231 qui avaient tu é par le couteau , moi ! moi ! 232 si je faisais comme tous les assassins 233 que j ’ai frapp és , moi ! moi ! 234 qui le saurait ? < cr / > 235 < div type =" date " > 236 10 ao ût. 237 238 - Qui le saurait jamais 239 Me soup ç onnerait - on , moi , moi , 240 surtout si je choisis un ê tre 241 que je n ’ai aucun int é rêt à supprimer ? < cr / > 242 < div type =" descriptif "> 243 < div type =" date "> 244 15 ao ût . 245 246 - La tentation ! 247 La tentation , elle est entr ée en moi comme un ver 248 qui rampe . 249 Elle rampe , 250 elle va ; 251 elle se prom è ne dans mon corps entier , dans mon esprit , 252 qui ne pense plus qu ’à ceci : 253 tuer ; 254 dans mes yeux , 255 qui ont besoin de regarder du sang , A.4. Un Fou 173 256 de voir mourir ; 257 dans mes oreilles , 258 où passe sans cesse quelque chose d ’ inconnu , d ’ horrible , de dé chirant et d ’ affolant , comme le dernier cri d ’un ê tre ; 259 dans mes jambes , 260 où frissonne le dé sir d ’ aller , d ’ aller à l ’ endroit 261 où la chose aura lieu ; 262 dans mes mains 263 qui fr é missent du besoin de tuer . 264 Comme cela doit ê tre bon , rare , digne d ’un homme libre , au - dessus des autres , ma î tre de son coeur 265 et qui cherche des sensations raffin é es ! < cr / > 266 267 < div type =" narratif " > 268 < div type =" date " > 269 22 ao ût. 270 271 - Je ne pouvais plus ré sister . 272 J ’ai tu é une petite bê te pour essayer , pour commencer . < cr / > 273 Jean , mon domestique , avait un chardonneret dans une cage suspendue à la fen ê tre de l ’ office . 274 Je l ’ai envoy é faire une course , 275 et j ’ai pris le petit oiseau dans ma main , dans ma main < /e > 276 où je sentais battre son coeur . 277 Il avait chaud . 278 Je suis mont é dans ma chambre . 279 De temps en temps , je le serrais plus fort ; 280 son coeur battait plus vite ; 281 c ’é tait atroce et d é licieux . 282 < div type =" argumentatif "> 283 J ’ai failli l ’é touffer . 284 Mais je n ’ aurais pas vu le sang . 285 Alors j ’ai pris des ciseaux , de courts ciseaux à ongles , 286 et je lui ai coup é la gorge en trois coups , tout doucement . 287 288 Il ouvrait le bec , 289 il s ’ effor ç ait de m ’é chapper , 290 mais je le tenais , 291 oh ! je le tenais ; 292 j ’ aurais tenu un dogue enrag é 293 et j ’ai vu le sang couler . 294 Comme c ’ est beau , rouge , luisant , clair , du sang ! 295 J ’ avais envie de le boire . 296 J ’y ai tremp é le bout de ma langue ! 297 C ’ est bon . 298 Mais il en avait si peu , 174 A. TEXTES DE MAUPASSANT ANNOTÉS 299 ce pauvre petit oiseau ! 300 Je n ’ai pas eu le temps de jouir de cette vue 301 comme j ’ aurais voulu . 302 Ce doit ê tre superbe de voir saigner un taureau . < cr /> 303 Et puis j ’ ai fait comme les assassins , comme les vrais . 304 J ’ai lav é les ciseaux , 305 je me suis lav é les mains ; 306 j ’ai jet é l ’eau 307 et j ’ai port é le corps , le cadavre , dans le jardin pour l ’ enterrer . 308 Je l ’ai enfoui sous un fraisier . 309 On ne le trouvera jamais . 310 Je mangerai tous les jours une fraise à cette plante . 311 Vraiment , comme on peut jouir de la vie , 312 quand on sait ! 313 Mon domestique a pleur é ; 314 il croit son oiseau parti . 315 Comment me soup ç onnerait - il ? 316 Ah ! Ah ! 317 318 < div type =" date " > 319 25 ao ût. 320 321 - Il faut que je tue un homme ! 322 Il le faut . 323 < div type =" date " > 324 30 ao ût . 325 326 - C ’ est fait . 327 Comme c ’ est peu de chose ! 328 < div type =" narratif " > 329 < div type = " descriptif " > 330 J ’é tais all é me promener dans le bois de Vernes . 331 Je ne pensais à rien , non , à rien . 332 Voil à un enfant dans le chemin , un petit gar ç on 333 qui mangeait une tartine de beurre . < cr / > 334 335 Il s ’ arr ê te pour me voir passer 336 et dit : 337 < div type = " dialogal " > 338 - Bonjour , m ’ sieu le pr é sident . < cr /> 339 340 Et la pens é e m ’ entre dans la tê te : 341 < div type = " dialogal " > 342 " Si je le tuais ? " 343 344 Je ré ponds : 345 < div type = " dialogal " >A.4. Un Fou 175 346 - Tu es tout seul , mon gar ç on ? < cr / > 347 - Oui , m ’ sieu . < cr /> 348 - Tout seul dans le bois ? < cr / > 349 - Oui , msieur . < cr /> 350 351 < div type =" descriptif "> 352 L ’ envie de le tuer me grisait comme de l ’ alcool . 353 354 Je m ’ approchai tout doucement , persuad é 355 qu ’il allait s ’ enfuir . 356 Et voil à que je le saisis à la gorge ... 357 Je le serre , 358 je le serre de toute ma force ! 359 Il m ’a regard é avec des yeux effrayants ! 360 < div type =" descriptif "> 361 Quels yeux ! 362 Tout ronds , profonds , limpides , terribles ! 363 Je n ’ai jamais é prouv é une é motion si brutale ... 364 mais si courte ! 365 Il tenait mes poignets dans ses petites mains , 366 et son corps se tordait ainsi qu ’ une plume sur le feu . 367 Puis il n ’a plus remu é . 368 369 Mon coeur battait , 370 ah ! le coeur de l ’ oiseau ! 371 J ’ai jet é le corps dans le foss é , puis de l ’ herbe par - dessus . < cr /> 372 Je suis rentr é , 373 j ’ai bien d în é. 374 Comme c ’ est peu de chose ! 375 Le soir , j ’é tais tr ès gai , l é ger , rajeuni , 376 j ’ai pass é la soir é e chez le pr é fet . 377 On m ’a trouv é spirituel . 378 < div type =" argumentatif " > 379 Mais je n ’ ai pas vu le sang ! 380 Je suis tranquille . < cr /> 381 382 < div type =" date " > 383 30 ao ût . 384 385 - On a dé couvert le cadavre . 386 On cherche l ’ assassin . 387 Ah ! ah ! 388 < div type = " date " > 389 1 er septembre . 390 391 - On a arr ê té deux r ô deurs . 392 Les preuves manquent . 393 < div type = " date " > 394 2 septembre . 176 A. TEXTES DE MAUPASSANT ANNOTÉS 395 396 - Les parents sont venus me voir . 397 Ils ont pleur é ! 398 Ah ! ah ! 399 < div type =" date " > 400 6 octobre . 401 402 - On n ’a rien dé couvert . 403 Quelque vagabond errant aura fait le coup . 404 Ah ! ah ! 405 < div type =" argumentatif "> 406 Si j ’ avais vu le sang couler , 407 il me semble 408 que je serais tranquille à pr é sent ! < cr / > 409 410 411 < div type =" date " > 412 10 octobre . 413 414 - L ’ envie de tuer me court dans les moelles . 415 Cela est comparable aux rages d ’ amour 416 qui vous torturent à vingt ans . 417 < div type =" narratif " > 418 < div type = " date " > 419 20 octobre . 420 421 - Encore un . 422 J ’ allais le long du fleuve , apr ès dé jeuner . 423 Et j ’ aper ç us , sous un saule , un p ê cheur endormi . 424 Il é tait midi . 425 < div type = " descriptif " > 426 Une b ê che semblait , tout expr ès , plant ée dans un champ de pommes de terre voisin . 427 428 Je la pris , 429 je revins ; 430 je la levai comme une massue 431 et , d ’un seul coup , par le tranchant , je fendis la tê te du pê cheur . 432 Oh ! il a saign é , celui -l à ! 433 < div type =" descriptif "> 434 Du sang rose , plein de cervelle ! 435 Cela coulait dans l ’eau , tout doucement . 436 437 Et je suis parti d ’ un pas grave . 438 < div type =" argumentatif "> 439 Si on m ’ avait vu ! 440 Ah ! ah ! j ’ aurais fait un excellent assassin . < cr /> 441 442 < div type =" date ">A.4. Un Fou 177 443 25 octobre . 444 445 - L ’ affaire du p ê cheur soul è ve un grand bruit . 446 On accuse du meurtre son neveu , 447 qui p ê chait avec lui . < cr / > 448 < div type =" date " > 449 26 octobre . 450 451 - Le juge d ’ instruction affirme 452 que le neveu est coupable . 453 Tout le monde le croit par la ville . 454 Ah ! ah ! < cr /> 455 < div type =" date " > 456 27 octobre . 457 458 - Le neveu se d é fend bien mal . 459 Il é tait parti au village acheter du pain et du fromage , 460 affirme -t - il . 461 Il jure 462 qu ’on a tu é son oncle pendant son absence ! 463 Qui le croirait ? 464 < div type =" date " > 465 28 octobre . 466 467 < div type =" argumentatif " > 468 - Le neveu a failli avouer , 469 tant on lui fait perdre la tê te ! 470 471 Ah ! ah ! 472 La justice ! 473 < div type =" date " > 474 15 novembre . 475 476 - On a des preuves accablantes contre le neveu , 477 qui devait hé riter de son oncle . 478 Je pr é siderai les assises . < cr / > 479 < div type =" date " > 480 15 janvier . 481 482 - A mort ! à mort ! à mort ! 483 Je l ’ai fait condamner à mort ! 484 Ah ! ah ! 485 L ’ avocat g én é ral a parl é comme un ange ! 486 Ah ! ah ! 487 Encore un . 488 J ’ irai le voir ex é cuter . < cr /> 489 < div type =" date " > 490 10 mars . 491 492 - C ’ est fini . 178 A. TEXTES DE MAUPASSANT ANNOTÉS 493 On l ’a guillotin é ce matin . 494 Il est tr ès bien mort ! 495 tr ès bien ! 496 Cela m ’a fait plaisir ! 497 Comme c ’ est beau de voir trancher la tê te d ’ un homme ! 498 Le sang a jailli comme un flot , comme un flot ! 499 Oh ! si j ’ avais pu , 500 j ’ aurais voulu me baigner dedans . 501 Quelle ivresse de me coucher l à - dessous , 502 de recevoir cela dans mes cheveux et sur mon visage , 503 et de me relever tout rouge , tout rouge ! 504 Ah ! si on savait ! 505 Maintenant j ’ attendrai , 506 je puis attendre . 507 Il faudrait si peu de chose 508 pour me laisser surprendre . < cr /> 509 510 < div type =" descriptif "> 511 Le manuscrit contenait encore beaucoup de pages , 512 mais sans relater aucun crime nouveau . < cr /> 513 514 Les m é decins ali é nistes , 515 à qui on l ’a confi é , 516 affirment 517 qu ’il existe dans le monde beaucoup de fous ignor és , aussi adroits et aussi redoutables que ce monstrueux dé ment . < cr /> 518 519 ANNEXE B Liens entre types de discours et CMS La section B.1 présente, pour les quatre textes de Maupassant exposés dans l’annexe A réunis et pour chacun de ces textes considéré séparément, le nombre de CMS contenu dans chacun des types de discours. La section B.2 montre, pour les mêmes textes, les valeurs obtenues pour le khi2 ponctuel (1.3) et celles qui sont significatives au niveau α = 0.1%. Pour rappel, section 1.2.2.1, χ 2 1−0.001[1] = 10.83. Ces résultats sont utilisés dans la section 4.1.4 du chapitre 4. Les définitions de toutes les abréviations de CMS utilisées par TreeTagger pour le français sont les suivantes 1 : ABR Abréviation ADJ Adjectif ADV Adverbe DET:ART Déterminant article DET:POS Déterminant possessif (mon, ma, ton, ta,...) INT Interjection KON Conjonction NAM Nom propre NOM Nom NUM Numéral PRO Pronom (un exemple est présenté dans la figure 4.2) PRO:DEM Pronom démonstratif PRO:IND Pronom indéfini PRO:PER Pronom personnel PRO:POS Pronom possessif (mien, tien,...) PRO:REL Pronom relatif PRP Préposition PRP:det Préposition et article (au,du,aux,des) PUN Ponctuation PUN:cit Ponctuation de citation 1. Il s’agit de traductions des définitions disponibles sur le site : http://www.cis.uni-muenchen.de/~schmid/ tools/TreeTagger/data/french-tagset.html. 179180 B. LIENS ENTRE TYPES DE DISCOURS ET CMS SENT Balise de phrase VER:cond Verbe au conditionnel VER:futu Verbe au futur VER:impe Verbe à l’impératif VER:impf Verbe à l’imparfait VER:infi Verbe à l’infinitif VER:pper Verbe au participe passé VER:ppre Verbe au participe présent VER:pres Verbe au présent VER:simp Verbe au passé simple VER:subi Verbe à l’imparfait du subjonctif VER:subp Verbe au présent du subjonctif B.1 Tables des effectifs croisés nar arg expl descr dial inj ABR 1 0 0 0 0 0 ADJ 142 58 57 106 58 22 ADV 193 89 73 65 71 42 DET:ART 284 129 68 129 84 37 DET:POS 70 21 17 19 15 6 INT 22 8 7 0 10 3 KON 148 75 63 49 48 18 NAM 37 4 7 18 7 5 NOM 515 239 147 243 161 83 NUM 18 7 5 10 4 0 PRO 2 0 0 0 0 0 PRO:DEM 45 40 33 28 27 6 PRO:IND 20 16 13 11 10 0 PRO:PER 475 127 126 89 129 36 PRO:REL 51 28 26 30 22 10 PRP 323 123 99 142 91 37 PRP:det 42 30 14 33 33 18 PUN 369 131 91 155 101 67 PUN:cit 0 3 4 7 60 24 SENT 232 76 77 73 85 39 VER:cond 12 8 3 1 4 0 VER:futu 6 2 2 2 21 3 VER:impe 0 0 0 0 0 1 VER:impf 83 13 9 60 8 1 VER:infi 106 39 51 39 34 8 VER:pper 113 27 28 39 25 7 VER:ppre 34 2 4 7 5 2 VER:pres 144 97 96 58 82 64 VER:simp 169 7 4 8 1 0 VER:subi 3 0 8 1 0 0 VER:subp 1 2 2 0 4 1 Table B.1 – Effectifs des CMS pour chaque type de discours pour les quatre textes de Maupassant réunis.B.1. Tables des effectifs croisés 181 « L’Orient » « Le Voleur » « Un Fou ? » « Un Fou » nar arg expl descr dial inj nar arg expl descr dial inj nar arg expl descr dial inj nar arg expl descr dial inj ABR 1 0 0 0 0 0 ADJ 23 2 21 21 42 4 41 4 1 13 7 3 43 29 21 27 6 1 35 23 14 45 3 14 ADV 32 5 19 12 24 2 51 10 3 17 16 2 46 38 36 11 26 7 64 36 15 25 5 31 DET:ART 27 9 26 35 50 0 107 8 3 29 16 2 64 48 12 26 16 6 86 64 27 39 2 29 DET:POS 3 3 4 2 10 3 19 2 4 2 4 0 29 9 5 2 0 2 19 7 4 13 1 1 INT 0 0 0 0 3 0 0 0 0 0 2 0 1 3 2 0 3 3 21 5 5 0 2 0 KON 17 5 12 7 27 2 46 5 10 12 7 0 43 32 30 10 13 1 42 33 11 20 1 15 NAM 2 0 4 3 3 0 25 2 2 11 2 0 9 2 0 1 2 2 1 0 1 3 0 3 NOM 51 19 49 73 98 5 175 12 12 37 35 5 131 86 40 45 23 16 158 122 46 88 5 57 NUM 5 2 1 4 4 0 5 0 0 2 0 0 5 3 0 2 0 0 3 2 4 2 0 0 PRO 2 0 0 0 0 0 PRO:DEM 4 0 9 10 6 0 8 2 0 5 8 0 5 25 16 8 13 2 28 13 8 5 0 4 PRO:IND 1 0 5 3 9 0 6 2 1 1 0 0 7 4 5 2 1 0 6 10 2 5 0 0 PRO:PER 62 8 27 20 44 2 134 11 14 20 31 2 135 51 61 28 49 9 144 57 24 21 5 23 PRO:REL 4 0 10 10 12 0 17 3 1 3 2 0 11 11 8 2 8 1 19 14 7 15 0 9 PRP 32 10 35 28 56 3 113 6 12 26 13 4 98 42 32 23 21 5 80 65 20 65 1 25 PRP:det 5 3 6 16 23 0 13 0 1 4 7 1 9 8 3 4 3 0 15 19 4 9 0 17 PUN 33 8 23 39 49 5 135 5 11 28 13 3 103 64 35 30 30 19 98 54 22 58 9 40 PUN:cit 0 2 0 2 15 2 0 1 4 1 35 8 0 0 0 4 6 14 0 0 0 0 4 0 SENT 22 4 19 18 22 3 51 4 4 14 25 4 39 27 23 19 29 13 120 41 31 22 9 19 VER:cond 1 0 2 0 0 0 1 0 0 1 1 0 0 4 1 0 2 0 10 4 0 0 1 0 VER:futu 0 1 1 1 18 0 0 1 0 0 2 0 0 0 1 0 1 0 6 0 0 1 0 3 VER:impe 0 0 0 0 0 1 VER:impf 2 0 1 2 1 0 21 2 3 20 2 0 33 4 4 21 4 0 27 7 1 17 1 1 VER:infi 3 2 17 5 8 0 23 3 4 8 12 0 39 5 15 7 14 0 41 29 15 19 0 8 VER:pper 7 2 5 5 13 0 32 1 5 11 4 0 14 1 10 10 8 0 60 23 8 13 0 7 VER:ppre 0 0 2 1 4 0 16 0 0 1 0 0 16 1 2 1 1 0 2 1 0 4 0 2 VER:pres 28 6 27 32 23 6 7 4 4 4 22 5 22 38 33 5 36 17 87 49 32 17 1 36 VER:simp 17 0 0 0 0 0 96 3 4 4 0 0 50 4 0 4 1 0 6 0 0 0 0 0 VER:subi 1 0 0 0 0 0 2 0 8 1 0 0 VER:subp 0 0 0 0 2 0 0 1 0 0 0 0 0 0 0 0 2 0 1 1 2 0 0 1 Table B.2 – Effectifs des CMS pour chaque type de discours pour chacun des quatre textes de Maupassant, considéré séparément.182 B. LIENS ENTRE TYPES DE DISCOURS ET CMS B.2 Khi2 ponctuel nar arg expl descr dial inj ABR 1.56 0.18 0.14 0.18 0.15 0.06 ADJ 9.74 1.29 0.24 27.50* 0.03 0.55 ADV 2.00 1.32 1.32 3.95 0.12 4.62 DET:ART 0.02 4.45 5.91 3.69 1.26 0.73 DET:POS 4.23 0.07 0.06 0.65 0.97 0.82 INT 0.50 0.04 0.17 9.01 2.31 0.00 KON 0.86 4.58 5.07 2.88 0.27 1.27 NAM 2.29 5.99 0.73 3.79 1.04 0.06 NOM 2.77 6.46 3.58 6.75 2.19 0.13 NUM 0.06 0.03 0.02 1.95 0.55 2.71 PRO 3.11 0.35 0.28 0.36 0.29 0.12 PRO:DEM 14.97* 7.79 6.84 0.03 0.83 1.96 PRO:IND 3.29 3.44 2.76 0.01 0.13 4.32 PRO:PER 39.47* 3.59 0.52 32.03* 0.10 8.94 PRO:REL 5.25 0.43 1.90 1.01 0.02 0.01 PRP 0.10 0.01 0.00 3.43 2.20 2.49 PRP:det 15.10* 0.97 2.45 2.39 6.72 7.39 PUN 0.67 0.33 4.45 2.44 2.85 4.53 PUN:cit 63.63* 11.04* 6.01 4.99 207.51* 63.81* SENT 0.15 1.79 0.72 3.39 1.76 0.99 VER:cond 0.17 4.08 0.05 2.95 0.05 1.72 VER:futu 7.65 2.52 1.46 2.61 66.95* 0.44 VER:impe 0.64 0.18 0.14 0.18 0.15 16.33* VER:impf 5.49 7.84 8.03 51.17* 10.73 8.80 VER:infi 0.09 0.18 10.61 0.28 0.08 4.36 VER:pper 6.87 2.60 0.04 0.24 1.23 3.64 VER:ppre 12.97* 5.42 1.13 0.21 0.62 0.43 VER:pres 37.66* 3.94 17.06* 8.93 2.79 38.76* VER:simp 204.95* 19.24* 18.12* 17.99* 26.08* 11.81* VER:subi 1.01 2.12 33.57* 0.44 1.77 0.74 VER:subp 3.56 0.20 0.58 1.79 6.61 0.33 Table B.3 – khi2 ponctuels entre les CMS et les types de discours pour les quatre textes de Maupassant réunis. Les valeurs significatives pour α = 0.1% sont suivies d’une étoile.B.2. Khi2 ponctuel 183 « L’Orient » « Le Voleur » nar arg expl descr dial inj nar arg expl descr dial inj ABR ADV 0.14 2.89 0.00 0.14 1.28 1.18 0.00 0.16 2.17 1.21 0.83 1.79 ADV 8.76 0.00 0.17 3.21 2.12 0.00 2.83 6.43 1.12 0.71 0.46 0.00 DET:ART 1.10 0.28 0.08 1.49 0.20 3.47 2.07 0.00 4.48 1.60 2.63 0.67 DET:POS 1.42 2.38 0.11 2.27 0.68 11.97* 0.04 0.19 3.52 1.58 0.02 0.67 INT 0.84 0.16 0.69 0.75 6.28 0.06 2.95 0.10 0.11 0.33 12.43* 0.04 KON 0.27 0.56 0.10 4.52 1.28 0.19 0.15 0.39 8.35 0.03 1.83 1.78 NAM 0.19 0.66 1.74 0.19 0.30 0.26 0.00 0.00 0.03 4.97 2.98 0.91 NOM 4.21 1.10 0.91 5.10 0.12 0.30 1.95 0.14 0.66 0.20 0.38 0.12 NUM 0.85 1.74 1.62 0.26 0.40 0.35 0.41 0.35 0.40 1.17 1.13 0.15 PRO PRO:DEM 1.11 1.62 3.02 3.90 1.84 0.64 5.95 0.77 1.32 1.06 8.52 0.50 PRO:IND 2.81 1.00 1.02 0.12 2.59 0.39 0.00 5.09 0.42 0.15 1.62 0.21 PRO:PER 27.87* 0.03 0.48 6.65 2.37 0.69 1.29 0.08 0.71 4.58 0.11 1.52 PRO:REL 2.46 2.02 2.05 1.41 0.02 0.79 0.37 2.62 0.12 0.16 0.84 0.56 PRP 0.55 0.29 0.91 0.94 0.26 0.07 2.27 0.76 0.88 0.07 6.56 0.04 PRP:det 4.89 0.02 1.90 3.58 3.04 1.18 1.01 1.33 0.12 0.03 3.76 0.40 PUN 0.06 0.00 1.76 2.58 0.10 0.95 8.37 2.37 0.03 0.00 9.43 0.32 PUN:cit 5.92 0.80 4.85 1.45 14.82* 5.63 74.16* 0.84 0.77 6.16 139.47* 49.94* SENT 0.56 0.08 0.55 0.01 2.29 0.75 4.12 0.18 0.44 0.03 10.21 1.78 VER:cond 0.24 0.16 4.59 0.75 1.44 0.06 0.86 0.15 0.17 0.89 0.95 0.06 VER:futu 5.92 0.01 2.68 3.07 27.64* 0.46 4.43 5.36 0.17 0.50 7.01 0.06 VER:impe 1.48 0.05 0.06 0.17 0.16 46.97* VER:impf 0.47 0.33 0.01 0.67 0.68 0.13 5.13 0.04 0.07 30.14* 3.88 1.05 VER:infi 3.66 0.02 21.23* 0.72 1.47 0.77 3.94 0.16 0.70 0.12 4.41 1.09 VER:pper 0.00 0.07 0.19 0.38 1.02 0.70 0.01 1.01 1.77 1.86 1.82 1.16 VER:ppre 1.96 0.39 0.46 0.14 1.97 0.15 8.49 0.86 0.97 0.99 2.76 0.37 VER:pres 0.10 0.02 1.09 3.23 10.93* 4.97 38.54* 1.57 1.03 1.20 45.50* 17.81* VER:simp 61.64* 0.94 3.92 4.28 8.21 0.37 42.71* 0.99 0.59 10.30 18.25* 2.41 VER:subi 0.68 0.05 0.06 0.17 0.16 0.02 VER:subp 0.56 0.11 0.46 0.50 4.18 0.04 1.48 19.86* 0.06 0.17 0.16 0.02 « Un Fou ? » « Un Fou » nar arg expl descr dial inj nar arg expl descr dial inj ABR 1.59 0.28 0.11 0.20 0.02 0.13 ADJ 0.36 0.43 0.14 13.72* 6.85 4.27 9.16 2.02 0.05 29.63* 0.32 0.09 ADV 5.20 0.75 5.86 3.50 2.30 0.02 0.38 0.31 0.39 0.72 1.70 7.56 DET:ART 0.06 6.13 9.94 2.90 1.37 0.43 1.59 2.20 0.33 0.10 1.13 0.06 DET:POS 13.30* 0.06 0.82 2.30 6.60 0.01 0.26 1.15 0.05 5.08 0.10 3.73 INT 4.09 0.15 0.02 1.51 1.88 11.81* 8.85 0.95 1.04 6.60 4.08 4.23 KON 0.53 1.52 6.52 1.59 0.53 4.37 0.92 1.77 0.11 0.00 0.52 0.14 NAM 2.76 0.64 2.92 0.39 0.00 2.40 2.30 2.28 0.06 2.56 0.13 5.53 NOM 0.73 5.28 3.96 1.64 10.61 0.04 6.86 3.95 0.03 1.60 1.18 0.29 NUM 0.81 0.55 1.82 0.79 1.38 0.47 0.59 0.10 8.69 0.02 0.18 1.40 PRO 3.19 0.57 0.22 0.40 0.03 0.25 PRO:DEM 25.93* 10.70 3.35 0.01 3.01 0.42 2.35 0.00 1.01 2.67 0.98 1.12 PRO:IND 0.00 0.00 1.77 0.01 0.84 0.90 1.52 6.11 0.04 0.46 0.38 2.94 PRO:PER 2.90 6.36 2.58 2.92 2.42 2.85 24.86* 0.32 0.43 17.08* 0.07 2.47 PRO:REL 1.63 1.01 0.55 1.66 2.14 0.41 2.17 0.00 0.08 2.28 1.08 0.52 PRP 6.68 0.35 0.14 0.14 1.55 2.80 6.31 1.70 1.35 15.99* 2.68 0.62 PRP:det 0.11 1.38 0.38 0.37 0.03 1.28 6.31 2.15 0.97 0.28 1.08 15.33* PUN 0.01 0.97 2.03 0.07 0.61 3.76 1.78 1.55 1.47 3.83 4.76 2.75 PUN:cit 13.83* 6.26 4.39 0.74 3.78 163.53* 2.51 1.14 0.44 0.79 241.52* 0.51 SENT 7.36 0.63 0.00 0.36 7.79 6.45 13.47* 4.14 2.52 10.49 7.14 3.05 VER:cond 4.01 5.77 0.01 0.88 1.79 0.33 5.02 0.18 1.65 2.98 2.38 1.91 VER:futu 1.14 0.52 1.85 0.25 2.70 0.09 1.95 2.86 1.10 0.31 0.17 3.53 VER:impe VER:impf 5.46 8.69 4.50 29.13* 2.33 3.19 3.03 2.69 3.98 8.94 0.02 4.87 VER:infi 5.49 10.32 0.73 0.48 2.25 3.88 0.19 0.94 1.60 0.02 1.93 1.97 VER:pper 0.27 8.88 2.10 6.45 1.73 2.06 11.66* 0.14 0.93 1.92 1.91 2.82 VER:ppre 14.53* 3.23 0.55 0.87 1.07 1.00 1.02 0.64 0.99 5.11 0.15 1.09 VER:pres 32.83* 2.11 5.21 9.96 20.69* 17.07* 0.04 0.00 5.51 13.60* 2.08 5.89 VER:simp 61.12* 7.00 10.95* 1.17 6.15 2.84 9.58 1.71 0.66 1.19 0.10 0.76 VER:subi 1.57 2.85 27.98* 0.05 1.52 0.52 VER:subp 1.14 0.52 0.36 0.25 14.52* 0.09 0.73 0.01 5.10 0.99 0.08 0.38 Table B.4 – khi2 ponctuels entre les CMS et les types de discours pour chaque texte de Maupassant considéré séparément. Les valeurs significatives pour α = 0.1% sont suivies d’une étoile.ANNEXE C Classification non supervisée en types de discours Les sections C.1 et C.2 présentent des résultats supplémentaires ou complémentaires à ceux de la section 4.3, concernant la classification non supervisée en types de discours des propositions des quatre contes de Maupassant, présentés dans l’annexe A. C.1 K-means Pour compléter les résultats présentés dans les figures 4.11 à 4.14 de la section 4.3.1.2, la section C.1.1 présente les mêmes résultats, obtenus avec l’algorithme K-means et les deux indices d’accord de partitions, Rand corrigé et Jaccard, mais en y ajoutant les écarts-types. Dans la section C.1.2, les résultats, toujours pour la méthode K-means, sont présentés en utilisant le V de Cramer pour comparer les partitions, soit : V := r khi2 khi2max = s khi2 n min(m1 − 1, m2 − 1) ∈ [0, 1] Le nombre de groupes à retrouver par l’algorithme étant imposé (m = 6) et le nombre de types de discours étant fixé aussi (à nouveau 6), le dénominateur du V de Cramer reste constant pour un texte et une longueur de n-gramme donnée, car dans ce cas le nombre de propositions, n, est constant aussi. Ainsi, le V de Cramer varie uniquement en fonction du khi2 pour chaque courbe. 185186 C. CLASSIFICATION NON SUPERVISÉE EN TYPES DE DISCOURS C.1.1 Indices d’accord entre partitions 1.0 0.8 0.6 0.4 0.2 0.00 0.02 0.04 0.06 Puissance (q) Indice de Rand corrigé 1.0 0.8 0.6 0.4 0.2 0.12 0.14 0.16 0.18 Puissance (q) Indice de Jaccard Figure C.1 – « L’Orient » avec l’algorithme K-means. Moyennes (lignes épaisses) et écartstypes (lignes fines) pour l’indice de Rand corrigé (gauche) et de Jaccard (droite) en fonction de la puissance q. (——– = unigrammes, − − − = bigrammes et · · · · · · = trigrammes). 1.0 0.8 0.6 0.4 0.2 -0.05 0.00 0.05 0.10 0.15 Puissance (q) Indice de Rand corrigé 1.0 0.8 0.6 0.4 0.2 0.14 0.16 0.18 0.20 0.22 0.24 Puissance (q) Indice de Jaccard Figure C.2 – « Le Voleur » avec l’algorithme K-means. Moyennes (lignes épaisses) et écartstypes (lignes fines) pour l’indice de Rand corrigé (gauche) et de Jaccard (droite) en fonction de la puissance q. (——– = unigrammes, − − − = bigrammes et · · · · · · = trigrammes).C.1. K-means 187 1.0 0.8 0.6 0.4 0.2 -0.02 0.00 0.02 0.04 0.06 0.08 Puissance (q) Indice de Rand corrigé 1.0 0.8 0.6 0.4 0.2 0.11 0.12 0.13 0.14 0.15 0.16 0.17 Puissance (q) Indice de Jaccard Figure C.3 – « Un Fou ? » avec l’algorithme K-means. Moyennes (lignes épaisses) et écartstypes (lignes fines) pour l’indice de Rand corrigé (gauche) et de Jaccard (droite) en fonction de la puissance q. (——– = unigrammes, − − − = bigrammes et · · · · · · = trigrammes). 1.0 0.8 0.6 0.4 0.2 -0.01 0.00 0.01 0.02 0.03 0.04 0.05 0.06 Puissance (q) Indice de Rand corrigé 1.0 0.8 0.6 0.4 0.2 0.12 0.14 0.16 0.18 Puissance (q) Indice de Jaccard Figure C.4 – « Un Fou » avec l’algorithme K-means. Moyennes (lignes épaisses) et écarts-types (lignes fines) pour l’indice de Rand corrigé (gauche) et de Jaccard (droite) en fonction de la puissance q. (——– = unigrammes, − − − = bigrammes et · · · · · · = trigrammes).188 C. CLASSIFICATION NON SUPERVISÉE EN TYPES DE DISCOURS C.1.2 V de Cramer 1.0 0.8 0.6 0.4 0.2 0.18 0.20 0.22 0.24 0.26 Puissance (q) V de Cramer 1.0 0.8 0.6 0.4 0.2 0.15 0.20 0.25 0.30 Puissance (q) V de Cramer Figure C.5 – « L’Orient » avec l’algorithme K-means : V de Cramer en fonction de la puissance q. Gauche : moyenne des résultats obtenus pour chaque valeur de q, où ◦ = unigrammes, 4 = bigrammes et × = trigrammes. Droite : moyenne (lignes épaisses) et écarts-types (lignes fines), où ——– = unigrammes, − − − = bigrammes et · · · · · · = trigrammes. 1.0 0.8 0.6 0.4 0.2 0.15 0.20 0.25 0.30 0.35 Puissance (q) V de Cramer 1.0 0.8 0.6 0.4 0.2 0.15 0.20 0.25 0.30 0.35 Puissance (q) V de Cramer Figure C.6 – « Le Voleur » avec l’algorithme K-means : V de Cramer en fonction de la puissance q. Gauche : moyenne des résultats obtenus pour chaque valeur de q, où ◦ = unigrammes, 4 = bigrammes et × = trigrammes. Droite : moyenne (lignes épaisses) et écarts-types (lignes fines), où ——– = unigrammes, − − − = bigrammes et · · · · · · = trigrammes.C.1. K-means 189 1.0 0.8 0.6 0.4 0.2 0.15 0.20 0.25 0.30 Puissance (q) V de Cramer 1.0 0.8 0.6 0.4 0.2 0.15 0.20 0.25 0.30 0.35 Puissance (q) V de Cramer Figure C.7 – « Un Fou ? » avec l’algorithme K-means : V de Cramer en fonction de la puissance q. Gauche : moyenne des résultats obtenus pour chaque valeur de q, où ◦ = unigrammes, 4 = bigrammes et × = trigrammes. Droite : moyenne (lignes épaisses) et écarts-types (lignes fines), où ——– = unigrammes, − − − = bigrammes et · · · · · · = trigrammes. 1.0 0.8 0.6 0.4 0.2 0.13 0.14 0.15 0.16 0.17 0.18 0.19 Puissance (q) V de Cramer 1.0 0.8 0.6 0.4 0.2 0.12 0.14 0.16 0.18 0.20 Puissance (q) V de Cramer Figure C.8 – « Un Fou » avec l’algorithme K-means : V de Cramer en fonction de la puissance q. Gauche : moyenne des résultats obtenus pour chaque valeur de q, où ◦ = unigrammes, 4 = bigrammes et × = trigrammes. Droite : moyenne (lignes épaisses) et écarts-types (lignes fines), où ——– = unigrammes, − − − = bigrammes et · · · · · · = trigrammes.190 C. CLASSIFICATION NON SUPERVISÉE EN TYPES DE DISCOURS C.2 K-means flou Les figures de cette section présentent, avec l’algorithme K-means flou, le nombre de groupes final M, l’indice de Rand corrigé et l’indice de Jaccard, en fonction de la température relative, trel. Les graphiques de droite des figures 4.15 à 4.22 de la section 4.3.2.2 sont des représentations paramétriques de ces résultats, en fonction de trel. 0.05 0.10 0.15 0.20 0.25 0.30 0 20 40 60 80 100 120 Température relative (trel ) Nombre de groupes Unigrammes Bigrammes Trigrammes 0.05 0.10 0.15 0.20 0.25 0.30 -0.01 0.00 0.01 0.02 Température relative (trel ) Indice de Rand corrigé Unigrammes Bigrammes Trigrammes 0.05 0.10 0.15 0.20 0.25 0.30 0.05 0.10 0.15 0.20 Température relative (trel ) Indice de Jaccard Unigrammes Bigrammes Trigrammes Figure C.9 – « L’Orient » avec l’algorithme K-means flou. En haut : nombre de groupes en fonction de la température relative. En bas, à gauche : indice de Rand corrigé en fonction de la température relative. En bas à droite : indice de Jaccard en fonction de la température relative.C.2. K-means flou 191 0.05 0.10 0.15 0.20 0.25 0.30 0 50 100 150 Température relative (trel ) Nombre de groupes Unigrammes Bigrammes Trigrammes 0.05 0.10 0.15 0.20 0.25 0.30 0.00 0.05 0.10 0.15 0.20 0.25 0.30 Température relative (trel ) Indice de Rand corrigé Unigrammes Bigrammes Trigrammes 0.05 0.10 0.15 0.20 0.25 0.30 0.0 0.1 0.2 0.3 0.4 Température relative (trel ) Indice de Jaccard Unigrammes Bigrammes Trigrammes Figure C.10 – « Le Voleur » avec l’algorithme K-means flou. En haut : nombre de groupes en fonction de la température relative. En bas, à gauche : indice de Rand corrigé en fonction de la température relative. En bas à droite : indice de Jaccard en fonction de la température relative.192 C. CLASSIFICATION NON SUPERVISÉE EN TYPES DE DISCOURS 0.05 0.10 0.15 0.20 0.25 0.30 0 50 100 150 Température relative (trel ) Nombre de groupes Unigrammes Bigrammes Trigrammes 0.05 0.10 0.15 0.20 0.25 0.30 0.00 0.01 0.02 0.03 0.04 0.05 0.06 Température relative (trel ) Indice de Rand corrigé Unigrammes Bigrammes Trigrammes 0.05 0.10 0.15 0.20 0.25 0.30 0.05 0.10 0.15 0.20 Température relative (trel ) Indice de Jaccard Unigrammes Bigrammes Trigrammes Figure C.11 – « Un Fou ? » avec l’algorithme K-means flou. En haut : nombre de groupes en fonction de la température relative. En bas, à gauche : indice de Rand corrigé en fonction de la température relative. En bas à droite : indice de Jaccard en fonction de la température relative.C.2. K-means flou 193 0.05 0.10 0.15 0.20 0.25 0.30 0 50 100 150 Température relative (trel ) Nombre de groupes Unigrammes Bigrammes Trigrammes 0.05 0.10 0.15 0.20 0.25 0.30 -0.03 -0.02 -0.01 0.00 Température relative (trel ) Indice de Rand corrigé Unigrammes Bigrammes Trigrammes 0.05 0.10 0.15 0.20 0.25 0.30 0.05 0.10 0.15 0.20 0.25 Température relative (trel ) Indice de Jaccard Unigrammes Bigrammes Trigrammes Figure C.12 – « Un Fou » avec l’algorithme K-means flou. En haut : nombre de groupes en fonction de la température relative. En bas, à gauche : indice de Rand corrigé en fonction de la température relative. En bas à droite : indice de Jaccard en fonction de la température relative.Bibliographie Adam, J.M. (2008a). La linguistique textuelle : Introduction à l’analyse textuelle des discours. 2ème éd. Paris : Armand Colin. Adam, J.M. (2008b). Les textes : types et prototypes. 2ème éd. Paris : Armand Colin. Austin, J.L. (1962). How to do Things with Words. London : Oxford University Press. Bavaud, F. (2004). Generalized Factor Analyses for Contingency Tables. In D. Banks, F. McMorris, P. Arabie et W. Gaul (Eds.), Classification, Clustering, and Data Mining Applications, Studies in Classification, Data Analysis, and Knowledge Organisation, pp. 597–606. Berlin ; Heidelberg : Springer. Bavaud, F. (2009). Aggregation invariance in general clustering approaches. Advances in Data Analysis and Classification, 3 (3) : 205–225. Bavaud, F. (2010). Euclidean Distances, Soft and Spectral Clustering on Weighted Graphs. In J. Balcázar, F. Bonchi, A. Gionis et M. Sebag (Eds.), Machine Learning and Knowledge Discovery in Databases, t. 6321 de Lecture Notes in Computer Science, pp. 103–118. Berlin ; Heidelberg : Springer. Bavaud, F. (2011). On the Schoenberg Transformations in Data Analysis : Theory and Illustrations. Journal of Classification, 28 (3) : 297–314. Bavaud, F. (2013). Testing Spatial Autocorrelation in Weighted Networks : the Modes Permutation Test. Journal of Geographical Systems, 15 (3) : 233–247. Bavaud, F. et Cocco, C. (accepté pour publication). Factor Analysis of Local Formalism. In Data Analysis, Learning by Latent Structures, and Knowledge Discovery, Studies in Classification, Data Analysis, and Knowledge Organization. Berlin ; Heidelberg : Springer. Bavaud, F., Cocco, C. et Xanthos, A. (2012). Textual autocorrelation : formalism and illustrations. In JADT 2012 : 11èmes Journées internationales d’Analyse statistique des Données Textuelles, pp. 109–120. Bavaud, F., Cocco, C. et Xanthos, A. (accepté pour publication). Textual navigation and autocorrelation. In G. Mikros et J. Mačutek (Eds.), Sequences in Language and Text, Quantitative Linguistics. Berlin : De Gruyter. Benzécri, J.P. et al. (1973). L’Analyse des Données : 1 La taxinomie. Paris : Dunod. 195196 BIBLIOGRAPHIE Benzécri, J.P. et al. (1980). L’Analyse des Données : 2 L’analyse des correspondances. 3ème éd. Paris : Dunod. Biber, D. (1988). Variation across Speech and Writing. Cambridge, UK : Cambridge University Press. Box, G.E.P. et Jenkins, G.M. (1976). Time series analysis : forecasting and control. San Francisco, CA : Holden-Day. Boyer, K., Ha, E.Y., Phillips, R., Wallis, M., Vouk, M. et Lester, J. (2010). Dialogue Act Modeling in a Complex Task-Oriented Domain. In Proceedings of the SIGDIAL 2010 Conference, pp. 297–305. Tokyo, Japan : Association for Computational Linguistics. Bronckart, J.P. (1996). Activité langagière, textes et discours : Pour un interactionisme sociodiscursif. Lausanne ; Paris : Delachaux et Niestlé. Camiz, S. (2005). The Guttman Effect : its Interpretation and a New Redressing Method. Tetradia Analushsq Dedomenwn (Data Analysis Bulletin), 5 : 7–34. Celeux, G. et Govaert, G. (1992). A classification {EM} algorithm for clustering and two stochastic versions. Computational Statistics & Data Analysis, 14 (3) : 315 – 332. Charaudeau, P. (1992). Grammaire du sens et de l’expression. Paris : Hachette. Cliff, A.D. et Ord, J.K. (1981). Spatial Processes : Models and Applications. London : Pion. Cocco, C. (2012a). Catégorisation automatique de propositions textuelles en types de discours. In Lire demain : des manuscrits antiques à l’ère digitale = Reading tomorrow : from ancient manuscripts to the digital era, pp. 689–707. Lausanne : PPUR. Cocco, C. (2012b). Discourse Type Clustering using POS n-gram Profiles and High-Dimensional Embeddings. In Proceedings of the Student Research Workshop at the 13th Conference of the European Chapter of the Association for Computational Linguistics, pp. 55–63. Avignon, France : Association for Computational Linguistics. Cocco, C. (2014). Classification supervisée multi-étiquette en actes de dialogue : analyse discriminante et transformations de schoenberg. In JADT 2014 : 12èmes Journées internationales d’Analyse statistique des Données Textuelles, pp. 147–160. Cocco, C. et Bavaud, F. (accepté pour publication). Correspondence Analysis, CrossAutocorrelation and Clustering in Polyphonic Music. In Data Analysis, Learning by Latent Structures, and Knowledge Discovery, Studies in Classification, Data Analysis, and Knowledge Organization. Berlin ; Heidelberg : Springer. Cocco, C., Pittier, R., Bavaud, F. et Xanthos, A. (2011). Segmentation and Clustering of Textual Sequences : a Typological Approach. In Proceedings of the International Conference Recent Advances in Natural Language Processing 2011, pp. 427–433. Hissar, Bulgaria : RANLP 2011 Organising Committee. Cohen, W.W., Carvalho, V.R. et Mitchell, T.M. (2004). Learning to Classify Email into “Speech Acts”. In D. Lin et D. Wu (Eds.), Proceedings of EMNLP 2004, pp. 309–316. Barcelona, Spain : Association for Computational Linguistics. Colineau, N. et Caelen, J. (1995). Étude de marqueurs dans les actes de dialogue dans un corpus de conception. In 01Design’95 : Aspects communicatifs en conception, 4ème table ronde francophone sur la conception, pp. 127–139.BIBLIOGRAPHIE 197 Critchley, F. et Fichet, B. (1994). The partial order by inclusion of the principal classes of dissimilarity on a finite set, and some of their basic properties. In B.V. Cutsem (Ed.), Classification and Dissimilarity Analysis, no 93 in Lecture Notes in Statistics, pp. 5–65. New York : Springer. Cuadras, C.M. et Fortiana, J. (1996). Weighted continuous metric scaling. In A.K. Gupta et V.L. Girko (Eds.), Multidimensional Statistical Analysis and Theory of Random Matrices, pp. 27–40. Zeist, The Netherlands : VSP. Daoust, F., Marcoux, Y. et Viprey, J.M. (2010). L’annotation structurelle. In JADT 2010 : 10th International Conference on Statistical Analysis of Textual Data. de Maupassant, G. (1882). Le voleur. Gil Blas. http://un2sg4.unige.ch/athena/selva/ maupassant/textes/voleur.html. Thierry Selva. Consulté le 6 juillet 2011. de Maupassant, G. (1883). L’orient. Le Gaulois. http://un2sg4.unige.ch/athena/selva/ maupassant/textes/orient.html. Thierry Selva. Consulté le 5 mars 2011. de Maupassant, G. (1884). Un fou ? Le Figaro. http://un2sg4.unige.ch/athena/maupassant/ maup_fou.html. Thierry Selva. Consulté le 7 février 2011. de Maupassant, G. (1885). Un fou. Le Gaulois. http://un2sg4.unige.ch/athena/selva/ maupassant/textes/unfou.html. Thierry Selva. Consulté le 26 avril 2011. Dejean, C., Fortun, M., Massot, C., Pottier, V., Poulard, F. et Vernier, M. (2010). Un étiqueteur de rôles grammaticaux libre pour le français intégré à Apache UIMA. In Actes de la 17e Conférence sur le Traitement Automatique des Langues Naturelles. Montréal, Canada. Denœud, L. et Guénoche, A. (2006). Comparison of Distance Indices Between Partitions. In V. Batagelj, H.H. Bock, A. Ferligoj et A. Žiberna (Eds.), Data Science and Classification, Studies in Classification, Data Analysis, and Knowledge Organization, pp. 21–28. Berlin ; Heidelberg : Springer. Dupuis, F. et Lebart, L. (2009). Visualization, validation and seriation : Application to a corpus of medieval texts. In M. Dufresne, F. Dupuis et E. Vocaj (Eds.), Historical Linguistics 2007, n o 308 in Current Issues in Linguistic Theory, pp. 269–284. Amsterdam : John Benjamins Publishing Company. Efron, B. et Tibshirani, R.J. (1993). An Introduction to the Bootstrap. No 57 in Monographs on Statistics and Applied Probability. New York : Chapman & Hall. Ellis, D. et Poliner, G.E. (2007). Identifying ‘Cover Songs’ with Chroma Features and Dynamic Programming Beat Tracking. In IEEE International Conference on Acoustics, Speech and Signal Processing, 2007. ICASSP 2007, t. 4, pp. IV–1429–IV–1432. Estivill-Castro, V. (2002). Why So Many Clustering Algorithms : A Position Paper. SIGKDD Explorations Newsletter, 4 (1) : 65–75. Faget, Z. (2011). Un modèle pour la gestion des séquences temporelles synchronisées. Application aux données musicales symboliques. Thèse de doctorat, Université Paris-Dauphine. Fellbaum, C. (1998). WordNet : An Electronic Lexical Database. Cambridge, MA : MIT Press. Ferschke, O., Gurevych, I. et Chebotar, Y. (2012). Behind the Article : Recognizing Dialog Acts in Wikipedia Talk Pages. In Proceedings of the 13th Conference of the European Chapter of the Association for Computational Linguistics, pp. 777–786. Avignon, France : Association for Computational Linguistics.198 BIBLIOGRAPHIE Filliettaz, L. (2001). Les types de discours. Círculo de ling˜uistica aplicada a la communicación, 8 : http://www.ucm.es/info/circulo/no8/filliettaz.htm. Fisher, R.A. (1936). The Use of Multiple Measurements in Taxonomic Problems. Annals of Eugenics, 7 (2) : 179–188. Francis, W.N. et Kučera, H. (1967). Computational analysis of present-day American English. Providence : Brown University Press. Francis, W.N. et Kučera, H. (1982). Frequency analysis of English usage : lexicon and grammar. Boston : Houghton Mifflin. Gauch, H.G., Whittaker, R.H. et Wentworth, T.R. (1977). A Comparative Study of Reciprocal Averaging and Other Ordination Techniques. Journal of Ecology, 65 (1) : 157–174. Geary, R.C. (1954). The Contiguity Ratio and Statistical Mapping. The Incorporated Statistician, 5 (3) : 115–145. Goldstein, J. et Sabin, R. (2006). Using Speech Acts to Categorize Email and Identify Email Genres. In Proceedings of the 39th Annual Hawaii International Conference on System Sciences, 2006., t. 3, p. 50b. Greenacre, M.J. (1984). Theory and Applications of Correspondence Analysis. London : Academic Press. Halkidi, M., Batistakis, Y. et Vazirgiannis, M. (2002). Cluster Validity Methods : Part I. SIGMOD Record, 31 (2) : 40–45. Hall, M., Frank, E., Holmes, G., Pfahringer, B., Reutemann, P. et Witten, I.H. (2009). The WEKA Data Mining Software : An Update. SIGKDD Explorations Newsletter, 11 (1) : 10–18. Hawker, T. et Honnibal, M. (2006). Improved default sense selection forword sense disambiguation. In Proceedings of the Australasian Language Technology Workshop 2006, pp. 11–17. Sydney, Australia. Hildebrand, G.H. et Mace, A. (1950). The Employment Multiplier in an Expanding Industrial Market : Los Angeles County, 1940-47. The Review of Economics and Statistics, 32 (3) : 241–249. Houle, M., Kriegel, H.P., Kröger, P., Schubert, E. et Zimek, A. (2010). Can Shared-Neighbor Distances Defeat the Curse of Dimensionality ? In M. Gertz et B. Ludäscher (Eds.), Scientific and Statistical Database Management, t. 6187 de Lecture Notes in Computer Science, pp. 482– 500. Berlin ; Heidelberg : Springer. Hubert, L. et Arabie, P. (1985). Comparing partitions. Journal of Classification, 2 (1) : 193–218. Huron, D. (1994). The Humdrum Toolkit : Reference Manual. Menlo Park, CA : Center for Computer Assisted Research in the Humanities. Huron, D. (1998). Humdrum User’s Guide. http://humdrum.ccarh.org/. Consulté le 17 mars 2014. Husson, F., Josse, J., Le, S. et Mazet, J. (2013). FactoMineR : Multivariate Exploratory Data Analysis and Data Mining with R. R package version 1.25. Jain, A.K., Murty, M.N. et Flynn, P.J. (1999). Data Clustering : A Review. ACM Computing Surveys, 31 (3) : 264–323.BIBLIOGRAPHIE 199 Karlgren, J. et Cutting, D. (1994). Recognizing Text Genres with Simple Metrics Using Discriminant Analysis. In Proceedings of the 15th conference on Computational linguistics, t. 2 de COLING ’94, pp. 1071–1075. Stroudsburg, PA, USA : Association for Computational Linguistics. Kim, S.N., Cavedon, L. et Baldwin, T. (2010). Classifying Dialogue Acts in One-on-One Live Chats. In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, pp. 862–871. Cambridge, MA : Association for Computational Linguistics. Koppel, M. et Schler, J. (2003). Exploiting Stylistic Idiosyncrasies for Authorship Attribution. In IJCAI’03 Workshop on Computational Approaches to Style Analysis and Synthesis, pp. 69–72. Kriesel, V. (2013). Music Synchronization, Audio Matching, Pattern Detection, and User Interfaces for a Digital Music Library System. Thèse de doctorat, Universität Bonn. Lavrenko, V. et Pickens, J. (2003). Polyphonic Music Modeling with Random Fields. In Proceedings of the eleventh ACM international conference on Multimedia, MULTIMEDIA ’03, pp. 120–129. Berkeley, CA : ACM. Lê, S., Josse, J. et Husson, F. (2008). FactoMineR : An R Package for Multivariate Analysis. Journal of Statistical Software, 25 (1) : 1–18. Le Roux, B. et Rouanet, H. (2004). Geometric Data Analysis : From Correspondence Analysis to Structured Data Analysis. Dordrecht : Kluwer Academic Publishers. Le Roux, B. et Rouanet, H. (2010). Multiple Correspondence Analysis. No 163 in Quantitative Applications in the Social Sciences. Thousand Oaks, CA : Sage. Lebart, L. et Salem, A. (1994). Statistique textuelle. Paris : Dunod. Lebart, L. (1969). Analyse Statistique de la Contiguïté. Publications de l’Institut de Statistique des Universités de Paris, XVIII : 81–112. Lebart, L. (2007). Which Bootstrap for Principal Axes Methods ? In P. Brito, G. Cucumel, P. Bertrand et F. de Carvalho (Eds.), Selected Contributions in Data Analysis and Classifi- cation, Studies in Classification, Data Analysis, and Knowledge Organization, pp. 581–588. Berlin ; Heidelberg : Springer. Lebart, L., Morineau, A. et Piron, M. (1995). Statistique exploratoire multidimensionnelle. Paris : Dunod. Li, Y., Luo, C. et Chung, S.M. (2008). Text Clustering with Feature Selection by Using Statistical Data. IEEE Transactions on Knowledge and Data Engineering, 20 : 641–652. Luaces, O., Dìez, J., Barranquero, J., del Coz, J.J. et Bahamonde, A. (2012). Binary relevance efficacy for multilabel classification. Progress in Artificial Intelligence, 1 (4) : 303–313. MacQueen, J. (1967). Some methods for classification and analysis of multivariate observations. In Proceedings of the Fifth Berkeley Symposium on Mathematical Statistics and Probability, t. 1, pp. 281–297. Berkeley : University of California Press. Malrieu, D. et Rastier, F. (2001). Genres et variations morphosyntaxiques. Traitement automatique des langues, 42 (2) : 547–577. Manning, C.D. et Schütze, H. (1999). Foundations of Statistical Natural Language Processing. 1ère éd. Cambridge, MA : The MIT Press.200 BIBLIOGRAPHIE Mardia, K.V., Kent, J.T. et Bibby, J.M. (1979). Multivariate analysis. London : Academic Press. Matheron, G. (1965). Les variables régionalisées et leur estimation : une application de la théorie des fonctions aléatoires aux sciences de la nature. Paris : Masson. McLachlan, G.J. et Krishnan, T. (1997). The EM algorithm and extensions. New York : John Wiley. Meilˇa, M. (2003). Comparing Clusterings by the Variation of Information. In B. Schölkopf et M. Warmuth (Eds.), Learning Theory and Kernel Machines, t. 2777 de Lecture Notes in Computer Science, pp. 173–187. Berlin ; Heidelberg : Springer. Miller, G.A. (1995). WordNet : A Lexical Database for English. Communications of the ACM, 38 (11) : 39–41. Milligan, G.W. et Cooper, M.C. (1986). A Study of the Comparability of External Criteria for Hierarchical Cluster Analysis. Multivariate Behavioral Research, 21 (4) : 441–458. Moran, P.A.P. (1950). Notes on continuous stochastic phenomena. Biometrika, 37 : 17–23. Morando, B. (1981). L’analyse statistique des partitions de musique. In J.P. Benzécri et al. (Eds.), Pratique de l’analyse des données, tome 3 : Linguistique et lexicologie, pp. 507–522. Paris : Dunod. Müller, M. et Ewert, S. (2011). Chroma Toolbox : Matlab Implementations for Extracting Variants of Chroma-based Audio Features. In Proceedings of the 12th International Conference on Music Information Retrieval (ISMIR), pp. 215–220. Murtagh, F. et Legendre, P. (2011). Ward’s hierarchical clustering method : Clustering criterion and agglomerative algorithm. arXiv:1111.6285 [stat.ML]. Nenadic, O. et Greenacre, M. (2007). Correspondence Analysis in R, with Two- and Threedimensional Graphics : The ca Package. Journal of Statistical Software, 20 (3) : 1–13. Palmer, A., Ponvert, E., Baldridge, J. et Smith, C. (2007). A Sequencing Model for Situation Entity Classification. In Proceedings of the 45th Annual Meeting of the Association of Computational Linguistics, pp. 896–903. Prague, Czech Republic. Park, C.H. et Lee, M. (2008). On applying linear discriminant analysis for multi-labeled problems. Pattern Recognition Letters, 29 (7) : 878 – 887. Pedersen, T., Patwardhan, S. et Michelizzi, J. (2004). WordNet::Similarity - Measuring the Relatedness of Concepts. In D.M. Susan Dumais et S. Roukos (Eds.), HLT-NAACL 2004 : Demonstration Papers, pp. 38–41. Boston, Massachusetts, USA : Association for Computational Linguistics. Pfitzner, D., Leibbrandt, R. et Powers, D. (2009). Characterization and evaluation of similarity measures for pairs of clusterings. Knowledge and Information Systems, 19 (3) : 361–394. Qadir, A. et Riloff, E. (2011). Classifying Sentences as Speech Acts in Message Board Posts. In Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing, pp. 748–758. Edinburgh, Scotland, UK. : Association for Computational Linguistics. R Core Team (2013). R : A Language and Environment for Statistical Computing. R Foundation for Statistical Computing, Vienna, Austria.BIBLIOGRAPHIE 201 Read, J., Pfahringer, B., Holmes, G. et Frank, E. (2011). Classifier chains for multi-label classification. Machine Learning, 85 (3) : 333–359. Rennie, J. (2000). WordNet::QueryData : a Perl module for accessing the WordNet database. http://people.csail.mit.edu/~jrennie/WordNet. Resnik, P. (1995). Using Information Content to Evaluate Semantic Similarity in a Taxonomy. In Proceedings of the 14th International Joint Conference on Artificial Intelligence (IJCAI- 95), pp. 448–453. Resnik, P. (1999). Semantic Similarity in a Taxonomy : An Information-Based Measure and its Application to Problems of Ambiguity in Natural Language. Journal of Artificial Intelligence Research, 11 : 95–130. Robert, P. et Escoufier, Y. (1976). A Unifying Tool for Linear Multivariate Statistical Methods : The RV -Coefficient. Journal of the Royal Statistical Society. Series C (Applied Statistics), 25 (3) : pp. 257–265. Rose, K., Gurewitz, E. et Fox, G.C. (1990). Statistical mechanics and phase transitions in clustering. Physical Review Letters, 65 (8) : 945–948. Rukhin, A.L. et Vallejos, R. (2008). Codispersion coefficients for spatial and temporal series. Statistics & Probability Letters, 78 (11) : 1290 – 1300. Salton, G. et McGill, M.J. (1983). Introduction to Modern Information Retrieval. McGraw-Hill computer science series. New York : McGraw-Hill Book Company. Samsonovich, A.V. (2014). Semantic cross-correlation as a measure of social interaction. Biologically Inspired Cognitive Architectures, 7 : 1–8. Saporta, G. (2006). Probabilités, analyse des données et statistique. 2ème éd. Paris : Editions Technip. Sapp, C.S. (2005). Online Database of Scores in the Humdrum File Format. In Proceedings of the 6th International Conference on Music Information Retrieval (ISMIR), pp. 664–665. London, UK. Schmid, H. (1994). Probabilistic part-of-speech tagging using decision trees. In Proceedings of the International Conference on New Methods in Language Processing, pp. 44–49. Schoenberg, I.J. (1937). On Certain Metric Spaces Arising From Euclidean Spaces by a Change of Metric and Their Imbedding in Hilbert Space. Annals of Mathematics, 38 (4) : 787–793. Schoenberg, I.J. (1938). Metric Spaces and Positive Definite Functions. Transactions of the American Mathematical Society, 44 (3) : 522–536. Searle, J.R. (1969). Speech Acts : An Essay in the Philosophy of Language. Cambridge, UK : Cambridge University Press. Sebastiani, F. (2002). Machine Learning in Automated Text Categorization. ACM Computing Surveys, 34 (1) : 1–47. Smith, C.S. (2003). Modes of Discourse : The Local Structure of Texts. No 103 in Cambridge Studies in Linguistics. Cambridge, UK : Cambridge University Press. Sokolova, M. et Lapalme, G. (2009). A systematic analysis of performance measures for classi- fication tasks. Information Processing & Management, 45 (4) : 427 – 437.202 BIBLIOGRAPHIE Stolcke, A., Ries, K., Coccaro, N., Shriberg, E., Bates, R., Jurafsky, D., Taylor, P., Martin, R., Ess-Dykema, C.V. et Meteer, M. (2000). Dialogue Act Modeling for Automatic Tagging and Recognition of Conversational Speech. Computational Linguistics, 26 (3) : 339–373. Tsoumakas, G., Katakis, I. et Vlahavas, I. (2010). Mining Multi-label Data. In O. Maimon et L. Rokach (Eds.), Data Mining and Knowledge Discovery Handbook, pp. 667–685. 2ème éd. New York : Springer. Van Asch, V. (2012). Macro- and micro-averaged evaluation measures. http://www.clips. uantwerpen.be/~vincent/pdf/microaverage.pdf, consulté le 04 février 2014. van Rijsbergen, C.J. (1979). Information retrieval. 2ème éd. London : Butterworths. Vatolkin, I. (2013). Improving Supervised Music Classification by Means of Multi-Objective Evolutionary Feature Selection. Thèse de doctorat, Technische Universität Dortmund. Warrens, M.J. (2008). On Association Coefficients for 2×2 Tables and Properties That Do Not Depend on the Marginal Distributions. Psychometrika, 73 (4) : 777–789. Weihs, C., Ligges, U., Mörchen, F. et Müllensiefen, D. (2007). Classification in Music Research. Advances in Data Analysis and Classification, 1 (3) : 255–291. Yang, Y. (1999). An Evaluation of Statistical Approaches to Text Categorization. Information Retrieval, 1 (1-2) : 69–90. Yang, Y. et Pedersen, J.O. (1997). A Comparative Study on Feature Selection in Text Categorization. In Proceedings of the 14th International Conference on Machine Learning, pp. 412–420. Youness, G. et Saporta, G. (2004). Une Méthodologie pour la Comparaison de Partitions. Revue de Statistique Appliquée, 52 (1) : 97–120. Young, G. et Householder, A. (1938). Discussion of a set of points in terms of their mutual distances. Psychometrika, 3 (1) : 19–22. Yule, G.U. (1900). On the Association of Attributes in Statistics : With Illustrations from the Material of the Childhood Society, &c. Philosophical Transactions of the Royal Society of London. Series A, Containing Papers of a Mathematical or Physical Character, 194 (252-261) : 257–319. Yule, G.U. (1912). On the Methods of Measuring Association Between Two Attributes. Journal of the Royal Statistical Society, 75 (6) : 579–652. Réseaux urbains de capteurs sans-fil : Applications, caract´erisation et protocoles Pr´esent´ee Devant, Quentin Lampin To cite this version: Pr´esent´ee Devant, Quentin Lampin. R´eseaux urbains de capteurs sans-fil : Applications, caract´erisation et protocoles. Networking and Internet Architecture. INSA de Lyon, 2014. French. HAL Id: tel-01095797 https://hal.inria.fr/tel-01095797 Submitted on 16 Dec 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.N d’ordre 2014-ISAL-0001 Année 2014 Thèse Réseaux urbains de capteurs sans-fil : Applications, caractérisation et protocoles Présentée devant L’Institut National des Sciences Appliquées de Lyon pour obtenir Le grade de docteur Par Quentin Lampin Projet INRIA Urbanet, Laboratoire CITI, INSA de Lyon Ecole doctorale : InfoMaths Spécialité : Informatique Soutenue le 30 janvier 2014 devant la Commission d’examen Jury Marcelo Dias de Amorim Dir. Recherche au CNRS, UPMC Rapporteur (Paris, France) Mischa Dohler Prof. au King’s College London Rapporteur (London, United Kingdom) Xavier Lagrange Prof. à Telecom Bretagne Rapporteur (Cesson Sévigné, France) Daniel Kofman Prof. à Telecom ParisTech Examinateur (Paris, France) Pascal Thubert Pr. Research Scientist à Cisco Systems Examinateur (Mougins, France) Fabrice Valois Prof. à l’INSA de Lyon Directeur de thèse (Villeurbanne, France) Isabelle Augé-Blum MdC. à l’INSA de Lyon Co-encadrante de thèse (Villeurbanne, France) Dominique Barthel Ing. à Orange Labs Co-encadrant industriel (Meylan, France)iiiii Résumé des travaux de thèse Les réseaux de capteurs sans-fil sont composés de dispositifs électroniques conçus pour mesurer une grandeur physique de l’environnement dans lequel ils sont déployés et pour acheminer ces mesures à un système d’information. Dans nos travaux de thèse, nous avons étudié les architectures de réseau (longue-portée vs multi-sauts) et les protocoles de communication associés (MAC et routage) afin de déterminer les configurations les mieux indiquées pour des scénarios typiques d’un réseau de capteurs pour la Ville Intelligente (Smart Cities). Après avoir recensé les caractéristiques de ces applications en matière de trafic et de Qualité de Service attendue, nous avons construit des modèles analytiques permettant de comparer les différentes familles de protocoles MAC en terme de taux de livraison et de consommation d’énergie. Ces travaux permettent ainsi de motiver le choix d’un protocole synchrone ou asynchrone, à contention ou à accès direct, en fonction du scé- nario applicatif et du déploiement de réseau considéré. Ces travaux ont notamment mené à la définition d’un schéma de synchronisation quasi-optimal en terme de consommation d’énergie au niveau des capteurs pour un scénario de collecte de données. Ces résultats incluent également un modèle mathématique identifiant l’algorithme de contention à coût énergétique minimum pour un taux de livraison cible. Nous fournissons également les expressions en forme-close de la consommation d’énergie moyenne et du taux de livraison pour les méthodes de partage d’accès au medium de communication couramment utilisées. Ces résultats et modèles sont ensuite utilisés dans une étude comparative des architectures réseaux prédominantes dans les déploiements urbains de capteurs sans-fil, c’est à dire les architectures longue-portée et multi-sauts. Dans ces travaux, nous montrons que l’architecture réseau à radio longue-portée et bas-débit, typiquement d’une portée supérieure à 1km & 100bits/s de débit, présente une consommation d’énergie moindre pour des déploiements peu denses en capteurs et pour des volumes de trafic faibles, c’est à dire moins de 5000 capteurs par passerelle de collecte et moins de 4 trames de données par capteur et par jour. Une densification du réseau ou une intensification des collectes d’information nécessite au contraire l’usage d’un réseau multi-sauts à débit supérieur, typiquement 20kbits/s et 100-400m de portée radio. Nos modélisations, calibrées pour des capteurs actuellement en production par un partenaire industriel, montrent que de tels déploiements sont en mesure de supporter 4 fois plus de trafic applicatif et jusqu’à deux fois plus de nœuds dans le dé- ploiement pour un scénario de relève de compteurs. Sur la base des résultats de cette étude, c’est à dire l’architecture et les choix de protocoles adaptés à chaque scénario de déploiement, nous proposons ensuite un ensemble d’optimisation des protocoles de communication permettant d’améliorer la Qualité de Service et la dépense énergétique des compteurs. Ces optimisations comportent trois volets. Nous proposons dans un premier temps une mé- thode d’accès au médium de communication permettant l’allocation de plusieurs instants de transmission en une phase unique de tournoi. Cette optimisation vise à réduire le pôle de consommation majoritaire des réseaux multi-sauts, tel qu’identifié dans l’étude précédente. Le protocole résultant, nommé Cascading Tournament MAC Protocol (CT-MAC), résout l’allocation de plusieurs instants de transmission en une unique phase de compétition et de manière distribuée. Comparé aux protocoles existants, où chaque instant de transmission fait l’objet d’un tournoi distinct, CT-MAC réduit la consommation d’énergie de l’arbitrage du médium. Nos simulations montrent en effet une puissance dissipée inférieure de 12% à celui du protocole SCP-MAC. Ce gain résulte de la réduction de la fréquence d’échantillonnage du médium, c’est à dire Carrier Sense, d’un facteur égal au nombre d’instants résolus simultanément par tournoi. Nous proposons ensuite un mécanisme de relayage adaptatif pour l’architecture de réseau longue-portée. Le protocole associé, nommé The Self-Adaptingiv Receiver Initiated MAC protocol (SARI-MAC), est conçu de manière à pallier aux ‘trous’ de couverture que présentent les systèmes radio longue-portée lorsqu’ils sont déployés dans un habitat urbain dense. Pour cela, SARI-MAC propose d’exploiter certains nœuds du réseau, choisis pour leurs ressources en énergie, en tant que relais pour leurs voisins dont le bilan radio est insuffisant pour respecter les exigences de Qualité de Service de l’application. SARI-MAC est un protocole MAC asynchrone, initié récepteur dont les paramètres s’adaptent automatiquement aux conditions de trafic et aux contraintes de cycle d’activité imposées par la durée de vie souhaitée des nœuds capteurs et par la législation. SARI-MAC exhibe une consommation énergétique inférieure de 50% à celle du protocole de l’état de l’art RI-MAC. Par ailleurs, contrairement à ce dernier, SARI-MAC est en mesure d’adapter ces paramètres de fonctionnement aux conditions de trafic, sans intervention extérieure. Finalement, nous proposons un schéma de routage opportuniste appelé The QoS oriented Opportunistic Routing Protocol (QOR). QOR est un protocole de routage qui tire profit des liens radio longue portée, opportunistes afin d’améliorer la fiabilité et la latence des transmissions de données dans un réseau de collecte. Pour ce faire, QOR propose une structure de routage combinée à un schéma d’adressage permettant d’identifier un ensemble de nœuds du déploiement jouant le rôle de relais entre une source et la passerelle de collecte. Ces nœuds relais exécutent un algorithme d’acquittement en cascade garantissant la fiabilité des transmissions et l’absence de duplication de trames applicatives. D’après nos simulations, QOR montre une amélioration significative du taux de livraison (+15% sur le taux de livraison), une diminution des latences de livraison (jusqu’à 40% inférieurs) et une baisse de la consommation d’énergie (5%) lorsqu’il est comparé au protocole développé par l’IETF et standardisé en 2012, RPL. Thesis summary Wireless Sensors are small electronic devices made for measuring physical properties of their environment and communicating them wirelessly to an information system. In this thesis, we study existing network architectures (long-range vs multihop) and protocols (MAC and routing protocols) to devise the best-suited configuration for typical urban wireless Sensor Network use-cases, i.e. applications, QoS/energy constraints and network topology. To that effect, we provide comprehensive analytical models to compare the different families of MAC protocols in terms of Delivery Rate and Energy Consumption, e.g. synchronous vs asynchronous, contention-based vs direct access etc. Headlines results include a near-optimal synchronization scheme with regards to the overall energy consumption in a data collection use-case, a mathematical framework to devise the least energy-cost contention algorithm for a given Delivery Rate and closed-form expressions of the Energy Consumption and Delivery Rate for popular access control protocols. These results are then synthesised in a comparison study of the two prevailing urban sensors network architectures, i.e. long-range and multihop. We show that long-range sensor networks are best-suited for low-traffic and sparser network topologies, i.e. less than 4 frames per node per day with less than 5000 nodes sharing the same collection gateway, or sink. Indeed, in our model setup, i.e. 100 bit/s to 2400bits/s radio chips, such networks perform better in terms of energy efficiency versus Delivery Rate than our reference multihop architecture. Higher traffic loads and denser network topologies, however, demand switching to a multihop network operating a synchronous MAC protocol on higher bitrate radios. In our modelisation setup, i.e. a commercial 19.2Kbits radio chip, multihop networks are shown to cope with up to 4 times more trafic and 2 times more nodes in thev topology than long-range networks. Based on the analysis of the architectures best suited for each use-case scenario, i.e. low traffic loads/sparse network and high traffic loads/dense network, we identify suitable optimisations to improve the QoS performance and energy efficiency of said architectures. Those optimisations are threefold. First, we improve on the energy efficiency of the arbitration of the medium access by defining a cascading tournament contention algorithm. This protocol, named Cascading Tournament MAC Protocol (CT-MAC), resolve multiple timeslots allocation in a single, energy efficient contention tournament. Compared to prior existing works, where each medium access is solved independently, CT-MAC decreases the energy expenditure of the medium arbitration by up to 12%. This gain is achieved by reducing the medium polling, i.e. carrier sense, frequency by up to the number of simultaneous access that are resolved in a single tournament. Second, we propose an adaptive relaying scheme for the long-range network architecture named The Self-Adapting Receiver Initiated MAC protocol (SARI-MAC). This scheme is an attempt to cope with coverage holes that occurs when using long-range in a dense urban habitat by letting sensor nodes relay communications of nodes whose link budgets are incompatible with the QoS requirements of the network. To that effect, we propose a receiver-initiated MAC protocol that self-adapts to the traffic condition so that the duty-cycle of relayers is kept as low as possible with respect to the load of frames to relay. SARI-MAC shows a decrease of the energy-consumption of up to 50% when compared to the existing state-of-the-art protocol RI-MAC. Unlike RI-MAC, SARI-MAC also proves to self-adapt to the traffic condition of all the setups of our study, without the need of calibrating its parameters. Finally, we proposed an opportunistic relaying scheme named QOR, The QoS oriented Opportunistic Routing Protocol. QOR is a routing protocol that exploits long-range, opportunistic radio links to provide faster and more reliable transmissions. To that effect, QOR proposes a joint routing structure and addressing scheme that allows identifying a limited set of nodes than can become opportunistic relayers between a source sensor and the sink. Those nodes then follow an original cascaded acknowledgement mechanism that brings reliable acknowledgment and ensures a replication-free forwarding of the data frames. QOR shows a significant decrease of the delivery delay with up to 40% shorter delays in our simulation setups. QOR also improves on the reliability of the transmissions (up to 15% more deliveries) and on the energy consumption (5% less energy consumption).Table des matières 1 Introduction 1 1.1 Réseaux de capteurs sans-fil . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 La ville intelligente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.3 Qualité de Service . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.4 Architecture et dimensionnement . . . . . . . . . . . . . . . . . . . . . . . . 3 1.5 Contributions et organisation du document . . . . . . . . . . . . . . . . . . 3 1.5.1 Chapitre 2 : Qualité de Service et réseaux urbains de capteurs sans-fil 3 1.5.2 Chapitre 3 : État de l’art . . . . . . . . . . . . . . . . . . . . . . . . 3 1.5.3 Chapitre 4 : Protocole d’accès au médium radio et dimensionnement : accès synchrone ou asynchrone ? . . . . . . . . . . . . . . . . . . . . 4 1.5.4 Chapitre 5 : Dimensionnement et choix d’un algorithme de contention pour protocole d’accès synchrone . . . . . . . . . . . . . . . . . . . . 4 1.5.5 Chapitre 6 : Choix et dimensionnement de l’architecture et du protocole MAC d’un réseau de capteurs sous exigences de Qualité de Service . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.5.6 Chapitre 7 : The Cascading Tournament Protocol (CT-MAC) : augmenter la durée de vie du réseau par la factorisation du coût énergé- tique de l’arbitrage au médium de communication . . . . . . . . . . 5 1.5.7 Chapitre 8 : The Self-Adapting Receiver-Initiated MAC protocol (SARIMAC) : amélioration de la couverture et la capacité d’un réseau de collecte longue portée par un relayage adaptatif . . . . . . . . . . . . 5 1.5.8 Chapitre 9 : The QoS-oriented Opportunistic Routing protocol (QOR) : amélioration conjointe du taux de livraison, du délai et de la durée de vie des capteurs par l’usage opportuniste des liens longue distance et fluctuants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 I Réseaux urbains de capteurs, applications, protocoles, définition des besoins et challenges 7 2 Qualité de Service et réseaux urbains de capteurs sans-fil 9 2.1 Caractéristiques des réseaux de capteurs urbains . . . . . . . . . . . . . . . 9 2.1.1 Matériel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.1.2 Déploiement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.1.3 Spectre radio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.1.4 Environnement radio . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.2 Applications de la ville intelligente et Qualité de Service . . . . . . . . . . . 14 2.2.1 Télé-relève de compteurs . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.2.2 Gestion de l’éclairage public . . . . . . . . . . . . . . . . . . . . . . . 15 viTABLE DES MATIÈRES vii 2.2.3 Gestion de parcs de stationnement . . . . . . . . . . . . . . . . . . . 16 2.2.4 Surveillance de la pollution . . . . . . . . . . . . . . . . . . . . . . . 16 2.2.5 Gestion des déchets . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.3 Synthèse et problèmes clés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.3.1 Mutualisation du réseau et charge de trafic . . . . . . . . . . . . . . 17 2.3.2 Respect des taux de perte maximum sur les données . . . . . . . . . 17 2.3.3 Respect du délai de livraison . . . . . . . . . . . . . . . . . . . . . . 17 2.3.4 Contraintes matérielles et passage à l’échelle . . . . . . . . . . . . . . 17 2.3.5 Durée de vie des nœuds capteurs . . . . . . . . . . . . . . . . . . . . 18 2.4 Quels mécanismes et protocoles pour répondre aux exigences de Qualité de Service et de durée de vie ? . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.4.1 Couche physique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.4.2 Couche liaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.4.3 Couche réseau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.4.4 Couche transport . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.4.5 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.5 Synthèse sur le choix des protocoles étudiés, adéquation avec les contraintes des réseaux de capteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.5.1 Protocoles MAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.5.2 Protocoles de Routage . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.6 Scénarios, modèles et hypothèses . . . . . . . . . . . . . . . . . . . . . . . . 22 2.6.1 Réseaux de télé-relève à radio longue portée . . . . . . . . . . . . . . 22 2.6.2 Réseaux multi-sauts . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.7 Synthèse sur le contexte, réseaux urbains de capteurs sans-fil et Qualité de Service . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 3 État de l’art 25 3.1 Protocoles de contrôle d’accès au médium radio . . . . . . . . . . . . . . . . 25 3.1.1 Taxonomie fonctionnelle des protocoles de contrôle d’accès au médium 25 3.1.2 Protocoles synchrones à planification . . . . . . . . . . . . . . . . . . 28 3.1.3 Protocoles synchrones à contention . . . . . . . . . . . . . . . . . . . 33 3.1.4 Protocoles asynchrones à contention . . . . . . . . . . . . . . . . . . 39 3.1.5 Protocoles à accès direct . . . . . . . . . . . . . . . . . . . . . . . . . 46 3.1.6 Protocoles hybrides . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 3.1.7 Synthèse sur les protocoles de contrôle d’accès au médium de communication pour réseaux urbains de capteurs sans-fil . . . . . . . . . 50 3.2 Protocoles de routage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 3.2.1 Taxonomie fonctionnelle des protocoles de routage . . . . . . . . . . 50 3.2.2 Protocoles à topologie hiérarchique . . . . . . . . . . . . . . . . . . . 53 3.2.3 Protocoles à topologie plane . . . . . . . . . . . . . . . . . . . . . . . 56 3.2.4 Protocoles à construction réactive . . . . . . . . . . . . . . . . . . . . 57 3.2.5 Protocoles à construction pro-active . . . . . . . . . . . . . . . . . . 58 3.2.6 Protocoles à états de liens/nœud . . . . . . . . . . . . . . . . . . . . 60 3.2.7 Protocoles à vecteur de distance . . . . . . . . . . . . . . . . . . . . 61 3.2.8 Protocoles à coordonnées géographiques . . . . . . . . . . . . . . . . 62 3.2.9 Critères de sélection des éléments de la topologie . . . . . . . . . . . 65 3.2.10 Protocoles à décision de routage par l’émetteur . . . . . . . . . . . . 65 3.2.11 Protocoles à décision de routage par le récepteur . . . . . . . . . . . 66viii TABLE DES MATIÈRES 3.2.12 Synthèse sur les protocoles de routage pour réseaux urbains de capteurs sans-fil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 3.3 Synthèse de l’état de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 3.3.1 Protocoles pour réseaux de télé-relève à radio longue portée . . . . . 67 3.3.2 Protocoles pour réseaux de télé-relève multi-sauts . . . . . . . . . . . 67 II Une étude analytique sur le choix et le dimensionnement de l’architecture et des protocoles pour réseaux urbains de capteurs sans-fil 69 4 Protocole d’accès au médium radio et dimensionnement : accès synchrone ou asynchrone ? 71 4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 4.2 Dépendance des communications à la synchronisation . . . . . . . . . . . . . 71 4.3 Taxonomie des protocoles de synchronisation d’horloge pour réseaux de capteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 4.3.1 Modèles de synchronisation distribué et hiérarchique . . . . . . . . . 74 4.3.2 Modèles de synchronisation unidirectionel et bidirectionel . . . . . . 75 4.3.3 Modèles de synchronisation locale et globale . . . . . . . . . . . . . . 75 4.4 Adéquation des modèles de synchronisation aux réseaux de capteurs urbains 76 4.5 Synchronisation Maître-Esclave . . . . . . . . . . . . . . . . . . . . . . . . . 77 4.5.1 Dimensionnement du préambule et consommation d’énergie . . . . . 78 4.6 Optimisation du coût énergétique de la synchronisation selon le modèle maître-esclave . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 4.6.1 Construction du préambule de synchronisation optimal . . . . . . . . 81 4.6.2 Construction de la date optimale . . . . . . . . . . . . . . . . . . . . 82 4.6.3 Implémentation du modèle quasi-optimal . . . . . . . . . . . . . . . 82 4.6.4 Adaptation du modèle en présence de bruit et d’interférence . . . . . 83 4.7 Généralisation du modèle maître-esclabe au réseau multi-sauts . . . . . . . . 83 4.8 Modèle de consommation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 4.8.1 Réseau de télé-relève à radio longue portée . . . . . . . . . . . . . . 85 4.8.2 Réseau de télé-relève multi-sauts . . . . . . . . . . . . . . . . . . . . 85 4.9 Application au choix du mode de synchronisation d’un protocole de contrôle d’accès au médium pour réseau multi-sauts . . . . . . . . . . . . . . . . . . 86 4.9.1 Scénario et hypothèses de l’étude . . . . . . . . . . . . . . . . . . . . 88 4.9.2 Évaluation de la consommation d’énergie . . . . . . . . . . . . . . . 88 4.10 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 5 Dimensionnement et choix d’un algorithme de contention pour protocole d’accès synchrone 91 5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 5.2 Modélisation des mécanismes de contention . . . . . . . . . . . . . . . . . . 92 5.2.1 Fenêtre de contention . . . . . . . . . . . . . . . . . . . . . . . . . . 92 5.2.2 Séquence à priori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 5.2.3 Décision de transmission . . . . . . . . . . . . . . . . . . . . . . . . . 94 5.2.4 Collisions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 5.3 État de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 5.3.1 Algorithmes à tonalité simple : ATS . . . . . . . . . . . . . . . . . . 95 5.3.2 Algorithmes à longue tonalité : ALT . . . . . . . . . . . . . . . . . . 96 5.3.3 Algorithmes à décompte binaire : ADB . . . . . . . . . . . . . . . . . 97TABLE DES MATIÈRES ix 5.3.4 Mesure de probabilité à distribution uniforme . . . . . . . . . . . . . 98 5.3.5 Mesure de probabilité à distribution géométrique croissante tronquée 99 5.4 Calcul de la probabilité de collision . . . . . . . . . . . . . . . . . . . . . . . 99 5.5 Estimation de la consommation d’énergie . . . . . . . . . . . . . . . . . . . 101 5.5.1 Dimensionnement des intervalles de la fenêtre de contention . . . . . 101 5.6 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 6 Choix et dimensionnement de l’architecture et du protocole MAC d’un réseau de capteurs sous exigences de Qualité de Service 105 6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 6.2 Réseaux de capteurs urbains multi-sauts . . . . . . . . . . . . . . . . . . . . 106 6.2.1 Modélisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 6.2.2 Dimensionnement de la période d’activité . . . . . . . . . . . . . . . 107 6.2.3 Dimensionnement de la fenêtre de contention . . . . . . . . . . . . . 109 6.2.4 Impact sur le délai de livraison . . . . . . . . . . . . . . . . . . . . . 111 6.2.5 Calcul de la puissance dissipée . . . . . . . . . . . . . . . . . . . . . 114 6.3 Réseaux de capteurs urbains à radio longue portée . . . . . . . . . . . . . . 120 6.3.1 Modélisation et scénario . . . . . . . . . . . . . . . . . . . . . . . . . 121 6.3.2 Protocoles et performances . . . . . . . . . . . . . . . . . . . . . . . 122 6.3.3 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 6.4 Recommandations pour une architecture de réseaux de capteurs urbains : Synthèse générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 III Protocoles adaptés à la collecte de données dans un réseau urbain138 7 Protocole MAC synchrone pour réseaux de capteurs urbains sans-fil multi-sauts : CT-MAC 140 7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 7.2 Description du protocole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 7.2.1 Vue globale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 7.2.2 Étape 1 : Classement des nœuds émetteurs . . . . . . . . . . . . . . 142 7.2.3 Étape 2 : Suppression des doublons dans le classement . . . . . . . . 142 7.2.4 Étape 3 : Annonces des émissions . . . . . . . . . . . . . . . . . . . . 144 7.2.5 Étape 4 : Transmission des trames de données . . . . . . . . . . . . . 146 7.3 Discussions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 7.3.1 Implémentation de la détection de transmission . . . . . . . . . . . . 147 7.3.2 Optimisation de la loi de distribution du tirage de l’étape 1 . . . . . 148 7.3.3 Optimisation de l’usage des instants de transmission . . . . . . . . . 153 7.4 Analyse de performances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 7.4.1 Environnement de simulation, scénarios et critères d’évaluation . . . 154 7.4.2 Conditions d’expérimentation . . . . . . . . . . . . . . . . . . . . . . 158 7.4.3 Résultats pour une topologie physique en clique . . . . . . . . . . . . 159 7.4.4 Résultats pour une topologie multi-sauts . . . . . . . . . . . . . . . . 162 7.4.5 Synthèse des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . 163 7.4.6 Discussion : Adaptation aux variations de trafic . . . . . . . . . . . . 165 7.5 Synthèse sur CT-MAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167x TABLE DES MATIÈRES 8 Protocole de relayage adaptatif pour réseau urbain de capteurs sans-fil longue portée : SARI-MAC 169 8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 8.2 Description de SARI-MAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170 8.2.1 Vue globale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170 8.2.2 Annonce de la fenêtre de réception . . . . . . . . . . . . . . . . . . . 171 8.2.3 Annonce des intentions de transmission . . . . . . . . . . . . . . . . 171 8.2.4 Publication de l’échéancier des transmissions . . . . . . . . . . . . . 172 8.2.5 Transmissions des trames de données . . . . . . . . . . . . . . . . . . 173 8.2.6 Auto-adaptation des paramètres du protocole . . . . . . . . . . . . . 174 8.3 Analyse de Performance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 8.3.1 Environnement de simulation, scénarios et critères d’évaluation . . . 179 8.3.2 Conditions d’expérimentation . . . . . . . . . . . . . . . . . . . . . . 181 8.3.3 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 8.3.4 Synthèse des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . 186 8.4 Synthèse sur SARI-MAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 9 Protocole de routage opportuniste pour réseau urbain de capteurs sans-fil multi-sauts : QOR 188 9.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 9.2 Intérêt de l’approche et défis . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 9.3 Description de QOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 9.3.1 Plan de contrôle : topologie de routage et adressage . . . . . . . . . . 191 9.3.2 Plan de données : règles de relayage et mécanisme d’acquittement . . 193 9.4 Analyse de performance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 9.4.1 Environnement de simulation, scénarios et critères d’évaluation . . . 196 9.4.2 Résultats sur topologie en grille régulière . . . . . . . . . . . . . . . . 198 9.4.3 Résultats sur topologie "aléatoire" . . . . . . . . . . . . . . . . . . . 202 9.4.4 Synthèse des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . 204 9.5 Synthèse sur QOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204 10 Conclusion et travaux futurs 206 10.1 Résumé des contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 10.2 Perspectives et travaux futurs . . . . . . . . . . . . . . . . . . . . . . . . . . 208 Annexes 209 A Étude préliminaire sur la priorisation de l’accès au médium selon la classe de service 211 A.1 Scenario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211 A.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211 A.3 Calcul de la Probabilité d’accéder, de façon unique, au medium pour un nœud de classe de service i ........................... 211 A.4 Calcul de la Probabilité de collision . . . . . . . . . . . . . . . . . . . . . . . 212 A.5 Études de cas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 A.5.1 2 classes de service, un trafic majoritaire non prioritaire et un trafic d’alarme sporadique . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 A.5.2 3 classes de service, un trafic majoritaire non prioritaire, un trafic priorisé et un trafic d’alarme sporadique . . . . . . . . . . . . . . . . 213CHAPITRE 1 Introduction 1.1 Réseaux de capteurs sans-fil En septembre 1999, le magazine hebdomadaire BusinessWeek présente les réseaux de capteurs sans-fil comme l’une des 21 technologies les plus importantes à développer au cours du 21ème siècle [1]. Financée entre autres par deux programmes de l’agence américaine pour les projets de recherche avancée de défense (DARPA) : DSN (Distributed Sensor Networks) et SensIT (Sensor Information Technology), la communauté scientifique a mis au point des dispositifs électroniques autonomes appelés nœuds capteurs. Ces dispositifs sont capables d’effectuer une mesure physique et de la transmettre par voix hertzienne. À cette fin, ces nœuds s’organisent en réseaux de mesure, appelés réseaux de capteurs sans-fil, et sont connectés aux systèmes d’information par le biais de passerelles. Deux types de topologie réseau peuvent être adoptés dans le déploiement de réseaux de capteurs sans-fil : topologie en étoile à l’instar d’un réseau cellulaire et topologie multi-sauts à l’instar des travaux menés par le groupe de travail IETF MANET [2] et IETF ROLL [3]. Les similitudes avec les réseaux sans-fil classiques sont néanmoins limitées et justifient le développement de protocoles de communication adaptés. Les réseaux sans-fil traditionnels présupposent en effet que les nœuds de communication sont peu nombreux 1 et que leurs ressources matérielles sont abondantes. A l’opposé, les nœuds capteurs possèdent des ressources limitées en énergie, en mémoire et dans une moindre mesure en capacité de calcul, les déploiements présentent de fortes densités et les applications sur réseaux de capteurs induisent des motifs de trafic spécifiques à la collecte de mesures [4]. Ces caractéristiques ont fait l’objet de nombreux travaux de recherche (voir Chap. 3), identifiant les verrous technologiques à débloquer afin que les réseaux de capteurs deviennent une réalité technique : Efficacité énergétique À contrario des réseaux ad-hocs sans-fil classiques, les nœuds capteurs sont alimentés sur pile, bien souvent soudée sur le circuit imprimé, et leur remplacement est coûteux voire impossible. La durée de vie des nœuds capteurs, la maintenance et in fine la faisabilité technique d’un déploiement de réseau de capteurs sans-fil sont donc directement affectés par la consommation d’énergie des dispositifs, motivant ainsi le développement de protocoles de communication efficaces en énergie. Passage à l’échelle Les applications associées aux réseaux de capteurs prévoient des densités de déploiement de plusieurs ordres de grandeur supérieures à celles rencontrées dans les réseaux de communication existants 2 alors que les ressources matérielles sont quant à elles plusieurs ordres de grandeurs inférieures 3. Auto-configuration et auto-adaptation du réseau La topologie d’un réseau de capteurs et le trafic supporté sont sujets à de fortes variations au cours de la vie du réseau. Des nœuds capteurs peuvent en effet être ajoutés ou disparaître du réseau et les liens radios fluctuent en raison de l’environnement radio. Enfin, le trafic généré 1. jusqu’à quelques centaines voire milliers de nœuds. 2. les travaux menés par le laboratoire MIS/CITY d’Orange Labs incluent des scénarios considérant des densités de voisinage radio supérieurs à 10 000 nœuds. 3. le détail est disponible dans le Chapitre 2. 1CHAPITRE 1. INTRODUCTION par les applications peut également varier en fonction des mesures effectuées. Ces changements de topologie et de trafic nécessitent des mécanismes d’adaptation ou de re-configuration des protocoles. Une intervention humaine, manuelle, au niveau des nœuds capteurs n’est pas envisageable de part le nombre de capteurs par réseau. Les protocoles employés doivent donc être capables de supporter ces variations et éventuellement de s’auto-adapter ou de s’auto-configurer pour respecter les contraintes d’opération du réseau. 1.2 La ville intelligente Au delà de ces verrous technologiques et donc de la viabilité technique des réseaux de capteurs sans-fil, se pose la question de la viabilité économique et donc des applications et services qui peuvent être déployés. D’après [5], plus de 70% de la population vit aujourd’hui dans des zones urbaines en Amérique du Nord et du Sud, en Europe et en Océanie. Les projections actuelles prévoient que la population urbaine sera majoritaire sur l’ensemble des continents en 2035 et atteindra 68% en valeur moyenne à l’horizon 2050. L’augmentation de la population urbaine et la densification des villes introduisent de nouveaux défis de gestion et de gouvernance des espaces urbains : la gestion du trafic et de la signalisation, des parcs de stationnement, des déchets, de la relève des compteurs d’eau, d’électricité, de gaz, etc [4]. Les méthodes de gérance traditionnelle, basées sur l’intervention manuelle d’agents, deviennent inadéquates en regard des densités de population urbaines observées, l’agglomération de Tokyo représente par exemple 37.2 millions d’habitants en 2011 [5]. Les réseaux de capteurs apportent justement une solution technique à l’automatisation de ces tâches de gérance, en permettant par exemple de télé-relever les compteurs ou de renseigner sur la disponibilité d’une place de parking. Consciente de l’intérêt de ces réseaux, la commission Européenne finance des projets Européens sur le sujet de la Ville Intelligente et a mandaté les principaux organismes de standardisation européens, ETSI, CENELEC, CEN pour définir un standard pour la télé-relève de compteurs en Europe [6]. Traditionnellement, ces tâches de gérance étaient supportées par les entreprises ou communes responsables de la délivrance des services au particulier : GrDF était en charge de la relève des compteurs de gaz, ErDF de celle des compteurs d’électricité, les communes de la relève des conteneurs à déchêts, etc. Ces acteurs étaient ainsi en charge de l’ensemble des activités de la chaîne de valeur. L’apparition des réseaux de capteurs a permis l’ouverture de nouveaux marchés par externalisation de l’activité de relève des compteurs. En Europe, le marché de la télé-relève concerne 500 millions de compteurs d’électricité, de gaz et d’eau. En considérant une facturation indicative de 1 euro par relève mensuelle, le chiffre d’affaire annuel potentiel représente 6 milliards d’euros en Europe. Le positionnement d’opérateur de réseaux de capteurs sans-fil pour la ville, tel que choisi par France Telecom, induit de nouveaux défis au développement de protocoles de communication pour réseaux de capteurs : la Qualité de Service et la mutualisation du réseau entre plusieurs applications et services. 1.3 Qualité de Service La monétisation de l’opération d’un réseau de transport de données nécessite une contractualisation des termes de fonctionnement du réseau par laquelle l’opérateur s’engage sur les performances offertes sur le trafic de données du contractant. La formalisation de ces engagements est consignée dans un contrat de service ou SLA (Service Level Agreement). 2CHAPITRE 1. INTRODUCTION Ces garanties sont associées à des clauses de pénalités financières en cas de non respect des engagements par l’opérateur, mettant ainsi en évidence l’importance de l’adéquation entre les performances fournies par le réseau et les performances attendues. Le plus souvent exprimées en terme de fiabilité et de délai de livraison, les exigences de Qualité de Service ne peuvent être satisfaites indépendamment des exigences d’efficacité énergétique, de passage à l’échelle, d’auto-configuration et d’auto-adaptation. En effet, afin de réduire la consommation d’énergie, les protocoles de contrôle d’accès au médium pour réseaux de capteurs réduisent l’activité de la radio et par la même occasion les ressources de transmission disponibles. Similairement, afin de respecter les contraintes de mémoire des capteurs, seule une fraction des nœuds à portée radio est mémorisée dans la table de voisinage et utilisée pour les communications. Le choix des tiers avec lesquels un nœud peut communiquer affecte significativement les performances du réseau et doit donc être réalisé de façon à respecter les exigences de Qualité de Service. Ces constats motivent ainsi le développement de protocoles dont la conception intègre ces différentes exigences. 1.4 Architecture et dimensionnement D’après une étude interne Orange Labs, le coût estimatif chargé de l’installation d’un nœud capteur est de 150 euros. En considérant un relevé mensuel par dispositif, l’installation d’un capteur nécessite une opération sur une durée supérieure à 12 ans pour amortir le déploiement. Cette contrainte de durée d’opération nécessite de réduire l’activité de la radio des capteurs au strict nécessaire et donc implique que le trafic généré par l’application sature les ressources radios disponibles. Ceci nous amène à réévaluer l’hypothèse de faible trafic généralement retenue dans la conception de protocoles pour réseaux de capteurs et pose le problème du dimensionnement des protocoles de communications en fonction de la durée d’opération cible du réseau et des exigences de trafic et de Qualité de Service de l’application. 1.5 Contributions et organisation du document 1.5.1 Chapitre 2 : Qualité de Service et réseaux urbains de capteurs sans-fil Le Chapitre 2 présente les caractéristiques des réseaux de capteurs sans-fil, leur modé- lisation et un ensemble représentatif d’applications pour la ville intelligente. Pour chacune de ces applications sont détaillées les propriétés de trafic et les exigences de Qualité de Service. Suite à cet exposé, nous détaillons les mécanismes d’une pile protocolaire pour capteur permettant d’atteindre les objectifs de Qualité de Service. Nous montrons ainsi l’importance des protocoles de contrôle d’accès au médium radio et de routage pour la réalisation des objectifs de Qualité de Service dans les réseaux de capteurs sans-fil urbains. Nous proposons ainsi un recensement et une classification de ces applications à partir des projets auxquels les Orange Labs ont pu participer. 1.5.2 Chapitre 3 : État de l’art Le Chapitre 3 recense les protocoles de la littérature selon la nature des mécanismes qui les composent. Nous édifions ainsi une taxonomie fonctionnelle des protocoles de contrôle d’accès au médium et de routage en vue d’identifier les familles de protocoles pertinentes dans l’étude du choix et du dimensionnement de l’architecture et des protocoles pour une 3CHAPITRE 1. INTRODUCTION application de télé-relève de compteurs. Pour chaque famille identifiée, nous illustrons son fonctionnement par la description d’un ou plusieurs protocoles représentatifs, choisis pour leur notoriété, originalité ou performance. 1.5.3 Chapitre 4 : Protocole d’accès au médium radio et dimensionnement : accès synchrone ou asynchrone ? Le Chapitre 4 s’intéresse à la dépendance d’une communication entre nœuds capteurs à la synchronisation de leurs horloges. Nous étudions l’adéquation de solutions synchrones et asynchrones à l’architecture du réseau, longue portée ou multi-sauts et aux exigences de trafic et de Qualité de Service des applications cibles. Nous complétons cette analyse par une étude du coût énergétique de la synchronisation à des fins de communication et nous en dérivons un protocole quasi-optimal en termes de consommation d’énergie. Enfin, nous déduisons de ces résultats les domaines d’intérêt de chaque méthode d’accès, synchrone et asynchrone. 1.5.4 Chapitre 5 : Dimensionnement et choix d’un algorithme de contention pour protocole d’accès synchrone Le Chapitre 5 étudie l’arbitrage à l’accès au médium par contention rendu nécessaire par la synchronisation des instants de transmission et de réception des nœuds capteurs, tel que recommandé dans le Chapitre précédant. Nous abordons tout d’abord la modélisation des algorithmes et mécanismes de contention de la littérature. Dans cette démarche, nous montrons en particulier qu’un algorithme de contention peut être modélisé sous forme d’un espace probabilisé. Nous en déduisons la probabilité d’une collision entre transmissions selon l’algorithme choisi et les propriétés du tirage aléatoire et exhibons une expression littérale en forme close de la probabilité de collision. Nous dérivons l’énergie dépensée en moyenne par un nœud en compétition pour transmettre et le dimensionnement du mécanisme de contention permettant de supporter le trafic cible et les exigences de taux de livraison du réseau. 1.5.5 Chapitre 6 : Choix et dimensionnement de l’architecture et du protocole MAC d’un réseau de capteurs sous exigences de Qualité de Service Le Chapitre 6 synthétise les études des Chapitres 2, 4 et 5 et applique leurs résultats à l’étude du dimensionnement d’un réseau de capteurs selon l’architecture choisie, longue portée ou multi-sauts, et selon les exigences de trafic et Qualité de Service des applications. Pour cela, nous modélisons dans un premier temps un réseau multi-sauts utilisant un protocole d’accès synchrone, conformément aux conclusions du chapitre 4. Nous déduisons de ce modèle le dimensionnement du cycle d’activité radio des nœuds capteurs et dérivons le coût énergétique nécessaire à l’établissement d’une transmission respectant un taux de livraison donné. Nous modélisons ensuite une architecture réseau radio longue portée, et étudions le coût énergétique des différents protocoles de contrôle d’accès envisageables pour ce type d’architecture. Nous en dérivons des recommandations quant aux protocoles à implémenter sur ce type d’architecture en fonction du trafic à supporter. Enfin, nous proposons une comparaison des coûts énergétiques associés aux deux types d’architecture pour différents type de déploiements, de volume de trafic et d’exigences de 4CHAPITRE 1. INTRODUCTION Qualité de Service. Nous concluons par des recommandations sur le type d’architecture à retenir en fonction du trafic à supporter et des exigences de Qualité de Service. Sur la base des résultats de cette étude, c’est à dire l’architecture et les choix de protocoles adaptés à chaque scénario de déploiement, nous proposons ensuite un ensemble d’optimisation des protocoles de communication permettant d’améliorer la Qualité de Service et la dépense énergétique des compteurs. Ces optimisations comportent trois volets. 1.5.6 Chapitre 7 : The Cascading Tournament Protocol (CT-MAC) : augmenter la durée de vie du réseau par la factorisation du coût énergétique de l’arbitrage au médium de communication Nous proposons le protocole de contrôle d’accès au médium nommé : The Cascading Tournament Protocol (CT-MAC). CT-MAC est un protocole MAC synchrone exploitant un tournoi en cascade afin d’allouer plusieurs ressources de communication dans une phase unique de compétition. Contrairement aux protocoles localisés existants pour lesquels la phase de contention amène à une décision binaire concernant l’accès au médium radio, c’est-à-dire accès immédiat ou report de tentative, CT-MAC construit un ordonnancement des transmissions. L’ordre des transmissions est déduit localement par chaque nœud capteur en compétition en fonction de son observation du canal radio lors de la phase de compétition. Cet ordonnancement est utilisé pour associer les compétiteurs aux ressources de transmission et permet ainsi de factoriser le coût de l’affectation d’une ressource à un nœud. Dans ce travail, nous montrons que cette caractéristique permet à CT-MAC d’augmenter la durée de vie des nœuds capteurs et de supporter des variations de trafic sans adaptation de la période de réveil des nœuds capteurs, réalisation délicate dans un réseau synchrone. En outre, l’itération en cascade du processus de compétition permet de garantir une faible probabilité de collision et donc un taux de livraison élevé. 1.5.7 Chapitre 8 : The Self-Adapting Receiver-Initiated MAC protocol (SARI-MAC) : amélioration de la couverture et la capacité d’un réseau de collecte longue portée par un relayage adaptatif Nous proposons également The Self-Adapting Receiver-Initiated MAC protocol (SARIMAC). SARI-MAC est un protocole MAC initié récepteur conçu pour opérer une fonction de relayage dans une architecture de réseau de capteurs longue portée. SARI-MAC utilise un mécanisme conjoint de compétition à l’accès au médium radio et d’estimation de population. Les communications sont initiées par les récepteurs qui annoncent le début d’une fenêtre de contention par l’envoi d’une trame balise. Par l’observation des transmissions dans la fenêtre de contention, les récepteurs évaluent le nombre de tentatives de transmission à leur intention et adaptent la fréquence d’envoi des balises et les dimensions de la fenêtre de contention. Ce paramétrage est calculé de manière à garantir, à moindre coût énergétique, les contraintes de Qualité de Service exprimées en délai et fiabilité de livraison. En présence d’un trafic s’amplifiant, la fréquence d’envoi des balises s’accroit de manière à supporter l’afflux de trafic et afin de minimiser le temps d’échantillonnage du canal par les transmetteurs. Lorsque le trafic faiblit, les nœuds capteurs susceptibles de relayer des trames de données diminuent la fréquence des balises diminuant ainsi leur consommation d’énergie et l’occupation du médium radio. 5CHAPITRE 1. INTRODUCTION 1.5.8 Chapitre 9 : The QoS-oriented Opportunistic Routing protocol (QOR) : amélioration conjointe du taux de livraison, du délai et de la durée de vie des capteurs par l’usage opportuniste des liens longue distance et fluctuants Nous proposons aussi le protocole de routage QoS oriented Opportunistic Routing for Wireless Sensor Networks (QOR). QOR est un protocole de routage opportuniste par lequel le choix du prochain saut est délégué à un sous-ensemble des capteurs recevant la trame concernée. Le choix de ce sous-ensemble est défini par le détenteur de la trame de manière à garantir la transmission. Le choix du relayeur parmi ce sous-ensemble est quant à lui réalisé de manière distribuée par les récepteurs en fonction d’une métrique de progrès dans la topologie. Ce découplage du choix des transmetteurs potentiels et du transmetteur effectif permet de maximiser la fiabilité des transmissions et de minimiser le délai de livraison de manière conjointe, rompant ainsi avec l’approche par compromis de la littérature. 6Première partie Réseaux urbains de capteurs, applications, protocoles, définition des besoins et challenges 7CHAPITRE 2 Qualité de Service et ré- seaux urbains de capteurs sans-fil Ce Chapitre détaille le contexte de ce travail de thèse. Nous présentons en premier lieu la composition des nœuds capteurs et leur déploiement selon l’architecture radio retenue : longue portée ou multi-sauts. Nous recensons également les bandes du spectre radio utilisées et leurs caractéristiques. Nous présentons ensuite les applications de la Ville Intelligente et leurs exigences de Qualité de Service, scénarios qui serviront de référence dans le reste de nos études. Enfin, nous proposons une synthèse des défis qu’implique le dimensionnement d’un réseau urbain de capteurs sans-fil sous exigence de Qualité de Service. De la description de ces défis, nous motivons notre choix d’étudier spécifiquement les protocoles de contrôle d’accès au médium radio et les protocoles de routage. 2.1 Caractéristiques des réseaux de capteurs urbains 2.1.1 Matériel Nous proposons ici un descriptif fonctionnel des constituants d’un nœud capteur. Leur architecture matérielle se conforme généralement à la configuration suivante (Fig. 2.1) : Sonde, capteur Le dispositif de mesure peut alternativement être intégré au nœud capteur ou raccordé à celui-ci par un port série, par exemple SPI (Serial Port Interface). Micro-contrôleur Le micro-contrôleur est en charge de l’exécution des routines de lecture des mesures, du traitement des données et de l’exécution de la pile protocolaire réseau. Les micro-contrôleurs considérés dans les applications pour la ville urbaine présentent en général une architecture 16 ou 32 bits. Mémoire Souvent intégrée avec le micro-contrôleur, la mémoire dont disposent les nœuds capteurs est généralement de quelques kilo-octets de RAM (typiquement 4Ko) et une centaine de kilo-octets de flash partagée entre le système d’exploitation, la pile protocolaire et les applications. Circuit radio Les circuits radio considérés sont, à l’instar du CC1101 [7], des circuits à basse consommation et bas débit. Ils présentent un débit d’une dizaine de kilo-bits par seconde pour une consommation de l’ordre de 50mW en émission ou réception. 2.1.2 Déploiement Au contraire des infrastructures cellulaires de téléphonie dont le déploiement est orienté couverture, le déploiement des nœuds capteurs est le plus souvent dicté par le lieu où est prise la mesure du capteur (orienté mesure). Une partie des nœuds existants, le plus souvent issus du remplacement de compteurs de gaz et d’eau à relève visuelle, sont ainsi enfouis dans le sol dans des regards en béton ou situés dans des conduites, gaines ou armoires techniques. Deux architectures cœxistent quant à la manière de raccorder ces nœuds capteurs aux passerelles de collecte et la figure 2.2 les illustre. 9CHAPITRE 2. QUALITÉ DE SERVICE ET RÉSEAUX URBAINS DE CAPTEURS SANS-FIL Figure 2.1 – Exemple de nœud capteur sans-fil. Ici, un nœud de la société Coronis [8], groupe Elster. Les déploiements à topologie en étoile exploitent des techniques de contrôle de puissance, de codage et de modulation robustes, et utilisent des porteuses dont la longueur d’onde garantit une bonne pénétration dans les matériaux de construction urbaine. Une antenne à gain élevé est installée au niveau de la passerelle, permettant ainsi une communication bi-directionnelle entre la passerelle et chacun des nœuds capteurs. En contrepartie à la simplicité de cette architecture, les débits disponibles sont de l’ordre de quelques centaines à quelques milliers de bits par seconde. Les déploiements à topologie multi-sauts nécessitent que certains des dispositifs du réseau relaient les émissions des nœuds capteurs hors de portée de la passerelle. Cette tâche peut être accomplie par certains nœuds capteurs ou par des équipements spécialisés, appelés répéteurs. Ces réseaux permettent généralement l’usage de radios à débits supérieurs (10- 20 kbits/s) au prix d’une complexité accrue : nécessité d’un protocole de routage, nœuds capteurs ou équipements spécialisés permettant le relayage de trames, etc. 2.1.3 Spectre radio Les réseaux de capteurs sans-fil urbains utilisent des plages de fréquences radio non licenciées pour communiquer. D’après [9], les plages utilisables en Europe pour ces applications sont au nombre de 3 : 169,4 à 169,8 MHz, 433,05 à 434, 79 MHz et 868 à 870 MHz. La Figure 2.3 recense leurs principales caractéristiques. 2.1.3.1 Bande 169 MHz Anciennement utilisée par le système européen de paging ERMES, la bande 169, 4 ! 169, 8 MHz a été en partie réaffectée suite à l’apparition du service de messagerie SMS sur GSM, rendant obsolètes les systèmes de paging existants. Cette adaptation du plan de fréquence, actée en 2005 [10] et amendée en 2008 [11] par la commission européenne, définit 6 nouvelles applications de la bande : applications à l’aide auditive, alarmes sociales, suivi et surveillance de marchandises, réseaux mobiles professionnels et télé-relève de compteurs. Sur les 400 kHz que comporte la bande, 75 KHz de bande sont réservés à la télé-relève de compteurs. La Puissance Apparente Rayonnée (P.A.R) est limitée à 500 mW et le cycle d’activité radio est limité à 10%, c’est à dire pour chaque seconde passée à transmettre la radio doit respecter un silence de 9 secondes. 10CHAPITRE 2. QUALITÉ DE SERVICE ET RÉSEAUX URBAINS DE CAPTEURS SANS-FIL Figure 2.2 – Déploiements de capteurs urbains : topologie en étoile (gauche) et topologie multi-sauts (droite) Figure 2.3 – Bandes de fréquences non licenciées utilisées pour le déploiement de réseaux de capteurs sans-fil urbains 2.1.3.2 Bande 433 MHz La bande 433, 05 ! 434, 79 MHz est une bande de fréquence pour applications Industrielles, Scientifiques et Médicales (ISM) dont l’usage est partagé avec les équipements de radio-communication à courte portée (Short Ranged Devices ou SRD) et équipements longue portée licenciés. L’usage de cette bande pour des applications de réseaux de capteurs urbains est contrainte par les recommandations décrites dans le document [9], c’est à dire une P.A.R de 10 mW et un cycle d’activité inférieur à 10%. 2.1.3.3 Bande 868 MHz La bande de fréquence 863 ! 870 MHz est une bande de fréquence pour équipements de radio-communication à courte portée (SRD). Les sous-bandes G1 à G4, c’est à dire de 868 à 870 MHz, sont utilisables pour les applications portées par les réseaux de capteurs 11CHAPITRE 2. QUALITÉ DE SERVICE ET RÉSEAUX URBAINS DE CAPTEURS SANS-FIL urbains. Les contraintes d’exploitation de ces sous-bandes sont répertoriées sur la Figure 2.4. Figure 2.4 – Bande 868 MHz, sous-bandes G1, G2, G3 et G4 : contraintes d’exploitation 2.1.4 Environnement radio Lors d’une transmission sans-fil, le signal perçu par le récepteur résulte de la superposition de plusieurs copies du signal émis ayant suivi des chemins de propagation différents, par réflexion et réfraction sur des surfaces planes, diffraction sur des arrêtes d’obstacle et par éparpillement (scattering) sur les surfaces rugueuses. Chacune de ces copies présente une puissance, une phase et une polarisation qui lui est propre. Cette propagation multichemins est à l’origine d’interférences inter-symboles (la réception du symbole courant est affectée par la réception de symboles antérieurs) et intra-symbole (un symbole d’une des copies du signal reçu interfère avec le même symbole d’une autre copie). À ce signal se superposent finalement un bruit électromagnétique large bande (lignes électriques, moteurs, circuits électriques, etc) et bande étroite (autres dispositifs de communication dans la bande). L’impact de l’environnement sur le signal transmis est habituellement modélisé par une composition des phénomènes d’affaiblissement de propagation (pathloss), de masquage (shadowing), d’évanouissement (fading), de bruit et d’interférence, comme représenté par la Figure 2.5. Pathloss Les modèles de pathloss rendent compte de l’affaiblissement du signal reçu en fonction de la distance entre la source et le récepteur. Le modèle le plus simple, appelé modèle en espace libre ou modèle de Friis, rend compte de la dispersion de l’énergie d’un signal de longueur d’onde ! émis par une antenne de gain Gt dans un espace vide et reçue par une antenne de gain Gr située à une distance d. Le rapport entre la puissance reçue et la puissance émise est donné par GtGr( ! 4⇧d )2 [13]. Le modèle usuellement utilisé dans les simulateurs de réseau, e.g. celui que nous utilisons : WSNet [14], est le modèle 12CHAPITRE 2. QUALITÉ DE SERVICE ET RÉSEAUX URBAINS DE CAPTEURS SANS-FIL Figure 2.5 – Évolution de la puissance reçue en fonction de la distance à la source [12]. de propagation à deux rayons : two-ray (Ground Reflection) model. Ce modèle prend en compte la réflexion induite par la présence d’une surface plane, dans notre cas, le sol. Ce signal réfléchi est reçu avec une phase et une amplitude différente, causant alternativement des interférences destructives et constructives, comme illustré par la Figure 2.6). Compte Figure 2.6 – Modèle de propagation à deux rayons [13]. tenu des propriétés de déploiement, le rapport entre la puissance reçue et la puissance émise par une antenne située à une hauteur ht et la puissance reçue par une antenne située à une hauteur hr est donné par : GtGrh2 t h2 r d4 . 13CHAPITRE 2. QUALITÉ DE SERVICE ET RÉSEAUX URBAINS DE CAPTEURS SANS-FIL Fading et shadowing Les modèles de fading et shadowing rendent compte de la variabilité de la puissance du signal reçu à une échelle allant jusqu’à quelques centaines de longueurs d’onde. Cette variabilité peut être causée par des phénomènes d’évanouissement du signal, e.g. interférence destructrice entre trajets multiples d’un même signal , ou par des phénomènes de masquage dus à la présence d’obstacles à la propagation, e.g. bâtiment. Parmi les modèles couramment utilisés, on note le modèle de fading de Rayleigh pour les communications sans ligne de vue directe entre les antennes (non-Line Of Sight) et le modèle de Rice lors qu’une ligne de vue directe est disponible [13]. La Figure 2.7 présente des tests de propagation que nous avons réalisés sur le site Orange Labs de Meylan. Dans ce scénario, un nœud émet un signal déterministe (séquence pseudoaléatoire) en continu. Le signal reçu est comparé au signal émis et son RSSI (Received Signal Strength Indication) est mesuré tous les dixièmes de millisecondes. La courbe de RSSI obtenue, courbe supérieure en violet, montre la variabilité du signal reçu à une distance fixe de l’émetteur et la courbe inférieure nous indique la distribution des différences entre le signal reçu et le signal émis. On constate que le signal présente des variations de plus de 20 dB et que la distribution des erreurs présente une forte corrélation temporelle. Ce constat motive une analyse et donc une modélisation plus fine de l’environnement radio que les modèles classiquement utilisés [15]. Dans nos analyses, en raison de l’absence de ces modèles, nous utilisons les modèles disponibles dans WSNet, i.e. modèle de propagation à deux rayons, fading de Rayleigh et modèle de bruit blanc gaussien. Figure 2.7 – Expérimentation sur la variabilité du RSSI et taux d’erreur binaire 2.2 Applications de la ville intelligente et Qualité de Service Dans le cadre du projet ANR VERSO ARESA 2 [16], un recensement des applications des réseaux de capteurs urbains a été effectué [4], nous synthétisons ici son contenu. 14CHAPITRE 2. QUALITÉ DE SERVICE ET RÉSEAUX URBAINS DE CAPTEURS SANS-FIL 2.2.1 Télé-relève de compteurs Des réseaux de capteurs sont déployés afin d’automatiser la relève des compteurs chez les particuliers. Les applications de ces réseaux concernent principalement les parcs de compteurs de gaz, d’eau et d’électricité. Dans notre description, nous omettons le scénario des compteurs d’électricité car ils correspondent à une problématique différente de celle que nous traitons. Les nœuds capteurs pour la télé-relève de compteurs électriques ont en effet accès à une source de courant et à un médium de communication dédié (Courant Porteur en Ligne). Dans une application de télé-relève de compteurs de gaz ou d’eau, les indices des compteurs sont relevés entre 1 fois par jour et 4 fois par heure. Ces valeurs sont transmises périodiquement par le nœud capteur à la passerelle. La période de ces transmissions varie entre une journée et un quart d’heure pour des tailles de trame de données d’une dizaine d’octets (période d’un quart d’heure) à un millier d’octets (période d’une journée). Le taux de perte acceptable pour une telle application est de l’ordre de 1% et le délai de livraison est peu contraint (de l’ordre de la période de relève). À ce trafic orienté des nœuds capteurs vers la passerelle, ou convergecast, s’ajoute des trames de contrôle de la passerelle vers les nœuds capteurs. Ces trames de contrôle servent notamment à la mise à jour des configurations des nœuds ou à l’activation des actuateurs dans le réseau (ouvrir/fermer une vanne). La transmission de ces trames est très peu fréquente avec une espérance d’une transmission par an mais présente des contraintes de Qualité de Service plus exigeantes : 1% de taux de perte et 1h de délai maximum. Le volume total de trafic généré pour une ville est fonction de la taille et de la densité de la ville. Nous considérons des scénarios urbains allant de quelques centaines de nœuds capteurs par passerelle jusqu’à une dizaine de milliers (cas de l’agglomération parisienne). 2.2.2 Gestion de l’éclairage public La gestion de l’éclairage public correspond à l’instrumentation des éclairages de ville et de leurs armoires d’alimentation. L’objectif de cette instrumentation est de diminuer les coûts de maintenance de ces réseaux en permettant le remplacement préventif des ampoules défectueuses. Dans ce scénario, les nœuds capteurs relèvent et transmettent toutes les 10 à 15 mn les caractéristiques des ampoules servant à l’éclairage public. Ces données sont agrégées au niveau des armoires électriques auxquelles sont raccordées les ampoules puis transmises périodiquement à la passerelle à raison d’une transmission par jour avec un taux de perte acceptable de 1% et un délai de livraison de l’ordre de la période de transmission. Des trames de contrôles permettent la configuration des éclairages urbains (réglage des horaires d’allumage et d’extinction). La période d’envoi de ces trames de la passerelle vers les armoires électriques puis vers les nœuds capteurs est estimée à une semaine. Enfin des trames d’alerte originant des nœuds capteurs sont transmises à la passerelle lorsqu’une ampoule défectueuse est détectée. Ces deux derniers types de trafic sont sujet à un taux de perte acceptable de 0.1% et un délai maximum de livraison d’une minute. La volumétrie de données dépend de la taille de la ville. Le nombre de supports d’éclairage varie de quelques centaines de supports d’éclairages pour une petite ville à une centaine de milliers pour Paris intra-muros [17] soit environ de quelques unités à quelques milliers d’armoires électriques raccordées par réseau pour un nombre indicatif d’une centaine de supports par armoire. Les tailles des trames de données émises par l’armoire et les nœuds capteurs sont estimées respectivement à une centaine de kilo-octets et à une centaine d’octets. 15CHAPITRE 2. QUALITÉ DE SERVICE ET RÉSEAUX URBAINS DE CAPTEURS SANS-FIL 2.2.3 Gestion de parcs de stationnement La gestion de parcs de stationnement par réseaux de capteurs sans-fil a pour objectif de renseigner l’usager de la disponibilité de places de stationnement en temps réel. Cette application implique le déploiement de capteurs magnétométriques dans le sol, sous les emplacements de stationnement. Ces nœuds capteurs détectent la présence d’un véhicule et transmettent les changements de disponibilité des emplacements à la passerelle. On considère entre une dizaine et une centaine de nœuds capteur par passerelle. Le trafic est évènementiel et lié aux flux d’usagers et dépend du type de parc de stationnement : déposeminute(un évènement par place toutes les 5 mn en moyenne) ou stationnement longue durée (6 h), etc. Le taux de perte acceptable est de l’ordre de 1% et le délai de livraison inférieur à 10 s avec la contrainte du respect sur l’ordre des remontées. Les trames de données font une centaine de bits. 2.2.4 Surveillance de la pollution Les réseaux de capteurs sans-fil pour la surveillance de la pollution fournissent des mesures périodiques d’indices de pollution (air, bruit, composés chimiques dangereux, etc.) afin, par exemple, d’alimenter un site d’information sur la qualité de l’air. La relève d’indices de pollution implique un trafic périodique des nœuds capteurs vers la passerelle dont la période varie entre la minute et l’heure. Le taux de perte associé varie entre 10% lors les taux de pollution sont faibles et 1% lorsqu’ils deviennent critiques et le délai maximum de livraison est de l’ordre de la période de relève. Les trames de données font de l’ordre de la centaine d’octets. Le déploiement de cette application est principalement localisé dans les villes de taille moyenne et grande ou à proximité d’une source de pollution (raffinerie, incinérateur, entrepôts de produits toxiques). Un déploiement compte environ 200 capteurs pour une agglomération de taille moyenne (ex. Clermont-Ferrand). 2.2.5 Gestion des déchets Afin d’optimiser les tournées de relève des déchets, les containers sont équipés d’un détecteur de remplissage et d’un nœud capteur sans-fil transmettant sur demande l’état du container. Le trafic associé est de type événementiel et est estimé à une requête par semaine et par container. Le taux de perte associé est de l’ordre de 1%, le délai de remontée de l’information de l’ordre de l’heure et la taille des trames de données est de l’ordre de 50 bits. 2.3 Synthèse et problèmes clés Comme l’illustre le Tableau 2.1, le trafic majoritaire en volume supporté par les réseaux de capteurs sans-fil urbains provient de transmissions des nœuds capteurs vers les passerelles (convergecast). À ce type de scénario correspondent des caractéristiques de trafic et de Qualité de Service très variables d’une application à une autre : le volume de données journalier par nœud capteur varie entre une dizaine d’octets et un kilo-octets pour une période de transmission d’une dizaine de minutes à une journée. Le taux de perte acceptable est compris entre 0.1% et 10% (généralement 1%) alors que les délais de livraison sont généralement peu contraints (de l’ordre de grandeur de la période de transmission). Le trafic de la passerelle vers les nœuds capteurs présente en général un volume de données négligeable en comparaison au trafic convergecast. En revanche, les contraintes de 16CHAPITRE 2. QUALITÉ DE SERVICE ET RÉSEAUX URBAINS DE CAPTEURS SANS-FIL Application trafic période (moy.) volume journalier qualité de service Télé-relève nœud vers passerelle 15 min à 1 j 1 Ko/nœud perte max. 1% gaz, eau périodique 10-10 000 nœuds/passerelle délai max. 15 min à 1 j passerelle vers nœuds 1 an négligeable perte max. 1% sporadique délai max. 1h Éclairage nœud vers armoire 10 à 15 min 10 Ko/nœud perte max. 1% public périodique 100 nœuds/passerelle délai max. 10 à 15 min nœud vers armoire 4 ans négligeable perte max. 0, 1% apériodique délai max. 10 à 15 min Parc nœud vers passerelle 5mn à 6 h 100 o -10 Ko/nœud perte max. 1% stationnement sporadique 10-100 nœuds/passerelle délai max. 10 s, ordre passerelle vers nœuds 1 an négligeable perte max. 1% périodique 1j Surveillance nœud vers passerelle 1 min à 1 h 2 Ko -30 Ko/nœud perte max. 1% à 10% pollution périodique 10-1000 nœuds/passerelle délai max. 1 min à 1 h passerelle vers nœuds 1 an négligeable perte max. 1% périodique délai max. 30 s Gestion nœud vers passerelle 1 semaine 10 o/nœud perte max. 1% des déchets sur demande 10-100 nœuds/passerelle délai max. 1 h Table 2.1 – Applications des réseaux de capteurs urbains : principales caractéristiques Qualité de Service qui y sont associées sont davantage exigeantes : 1% de taux de perte acceptable, quelques dizaines de secondes à quelques minutes de délai maximum. 2.3.1 Mutualisation du réseau et charge de trafic La mutualisation des applications sur un même réseau entraîne une charge de trafic accrue. En conséquence du trafic prédominant parmi ces applications, i.e. convergecast, les nœuds proches de la passerelle sont davantage sollicités en raison de leur participation à l’acheminement des données des nœuds plus éloignés. Si elle n’est pas prise en compte, cette variation spatiale du trafic peut être à l’origine de congestions et de collisions à l’accès au médium de communication rendant difficile le respect des contraintes de Qualité de Service. 2.3.2 Respect des taux de perte maximum sur les données La plupart des applications considérées exige des taux de perte inférieurs ou égaux au pour-cent sur les communications entre les nœuds capteurs et la passerelle, et ce, malgré un environnement radio difficile. 2.3.3 Respect du délai de livraison Le cycle d’activité de la radio, imposé par la législation, peut entraîner des temps d’attente avant transmission importants. Dans un réseau multi-saut, ce temps d’attente se cumule à chaque saut et peut excéder le délai maximum toléré. À ces objectifs de Qualité de Service dictés par l’application, s’ajoutent les contraintes matérielles et l’objectif de durée de vie des nœuds capteurs. 2.3.4 Contraintes matérielles et passage à l’échelle Les nœuds capteurs considérés embarquent environ 4 Ko de RAM consommée à hauteur de 3 Ko à 3, 5 Ko par le système d’exploitation et la pile protocolaire de base. La RAM restante pour le fonctionnement des protocoles à Qualité de Service, en particulier la mémorisation des voisins, est de l’ordre de 0, 5 à 1 Ko, soit, comme l’illustre la Figure 2.8, l’équivalent d’une cinquantaine à une centaine d’enregistrements de 64 bits. 17CHAPITRE 2. QUALITÉ DE SERVICE ET RÉSEAUX URBAINS DE CAPTEURS SANS-FIL Figure 2.8 – Utilisation de la mémoire RAM pour un nœud capteur possédant 4 Kilooctets de RAM et fonctionnant sous Contiki [18]. Les entrées de la table de voisinage sont de 64bits. 2.3.5 Durée de vie des nœuds capteurs La viabilité économique du déploiement d’un réseau urbain de capteurs sans-fil exige une durée de vie pour le nœud capteur d’une dizaine à une quinzaine d’années. Comme l’illustre la Figure 2.9, cette exigence implique de limiter l’activité de la radio et de respecter un cycle d’activité de la radio inférieur à 0.3% (0.16 mW de puissance dissipée moyenne). Sur cette Figure, nous avons rapporté à titre indicatif la durée de vie lorsque la radio est allumée en permanence, i.e. environ deux semaines. Ce constat motive le développement de protocoles différents de ceux utilisés pour les réseaux MANET [2] qui nécessitent une radio constamment alimentée. Nous avons aussi rapporté la durée de vie d’une pile de type LiSOCl2 de classe industrielle inutilisée, i.e. seul l’auto-décharge est à l’œuvre. La durée de vie correspondante est de 33 ans. Il est donc inenvisageable de déployer un réseau urbain de capteurs sans-fil dont la durée de vie attendue excède la trentaine d’années. 2.4 Quels mécanismes et protocoles pour répondre aux exigences de Qualité de Service et de durée de vie ? Dans cette Section, nous recensons les mécanismes et leviers pouvant être utilisés afin de répondre aux exigences de Qualité de Service et de durée de vie. Dans un souci de clarté, nous empruntons la représentation en couche proposée par le modèle OSI [19] et nous listons les mécanismes depuis les couches basses, proches du matériel, vers les couches hautes, applicatives. L’objectif est ici d’identifier sur quels mécanismes orienter la suite des travaux. 18CHAPITRE 2. QUALITÉ DE SERVICE ET RÉSEAUX URBAINS DE CAPTEURS SANS-FIL Figure 2.9 – Durée de vie des nœuds capteurs en fonction de la puissance moyenne dissipée. Exemple sur une pile Lithium-thionyl chloride (Li-SOCl2) de capacité 5800 mAh sous 3.6 V. 2.4.1 Couche physique Certains circuits radio permettent de paramétrer leur mode d’opération à l’instar du CC1101 de Texas Instruments [7]. Parmi ces modes, on trouve le choix de la modulation, le type de codage correcteur et la puissance de transmission. Ces éléments de configuration permettent d’influer sur la fiabilité et le débit des communications. 2.4.1.1 Modulation Le type de modulation dicte l’alphabet des symboles utilisés par la radio pour transmettre et donc le débit binaire de la transmission. La relation entre le débit symbole par seconde (Ds), la taille de l’alphabet (M) et le débit binaire par seconde (Db) est donné par la relation : DB = log2(M)Ds. Choisir une modulation possédant un alphabet plus important permet ainsi d’augmenter le débit binaire et donc de réduire le temps d’occupation du médium radio et de fait la probabilité d’interférence entre communications. Le choix de la modulation a également un impact sur le taux de succès des transmissions en présence de bruit. Si l’augmentation de la taille de l’alphabet permet d’augmenter le débit binaire, il diminue également l’énergie par bit d’information (Eb) pour une puissance reçue donnée. Ainsi, plus le rapport Eb N0 est faible, plus le taux d’erreur est élevé. Le choix de la modulation, et plus généralement de la technologie radio, est donc sujet à un compromis entre robustesse et débit des communications. Dans le Chapitre 6, nous étudions les implications de deux stratégies antagonistes : utiliser des liens radio longue distance bas débit afin de construire une topologie de collecte en étoile et utiliser des liens radio à débit plus élevé dans une topologie multi-sauts. 19CHAPITRE 2. QUALITÉ DE SERVICE ET RÉSEAUX URBAINS DE CAPTEURS SANS-FIL 2.4.1.2 Codage, détection et correction d’erreurs L’usage d’un code correcteur consiste à coder l’information à transmettre de manière à y ajouter de la redondance. Cette redondance permet au récepteur de détecter d’éventuelles erreurs induites par le canal de transmission et de les corriger. Il existe deux familles principales de codes correcteurs : les codes en bloc (Reed-Solomon, Golay, BCH, Hamming) et les codes convolutionnels. La contrepartie de l’usage d’un code correcteur est l’augmentation de l’information transmise et donc une augmentation du temps d’occupation et de la consommation d’énergie. Nous verrons dans le Chapitre 9 que l’usage d’acquittements et de retransmissions, et donc d’un mécanisme de détection de corruption d’une trame reçue est nécessaire afin de garantir les taux de livraison cibles dans une architecture à topologie multi-sauts. 2.4.1.3 Puissance d’émission En augmentant la puissance d’émission, on augmente potentiellement la puissance reçue par le destinataire et donc l’énergie par symbole : Es. Ainsi, on peut augmenter la portée radio, utiliser des modulations à plus haut débit ou diminuer le taux d’erreur binaire induit par la présence de bruit. La contrepartie d’une telle approche est un accroissement de l’interférence entre nœuds voisins dans la topologie. Cette approche est d’ailleurs souvent limitée par les circuits radio existants qui proposent seulement quelques niveaux d’émissions, e.g. 0dBm, 14dBm ou 27dBm pour les technologies considérées [8]. 2.4.2 Couche liaison Dans la pile de communication, la couche MAC définit le protocole d’accès aux ressources radio. Elle définit ainsi l’ensemble des opérations qui mènent à la transmission d’une trame d’information entre deux nœuds à portée de communication. Le protocole d’établissement d’une communication affecte de manière évidente la fiabilité et le délai des transmissions et nous recensons ici les mécanismes permettant de respecter les contraintes de Qualité de Service : 2.4.2.1 Mécanisme d’adaptation du cycle d’activité de la radio Le cycle d’activité du circuit radio est dicté par les commandes transmises par le protocole de contrôle d’accès au médium. Ce cycle d’activité définit les instants où la radio est en mesure de recevoir et de transmettre. En adaptant ce cycle d’activité, le protocole MAC régit la fréquence des opportunités de communication, et donc le délai d’accès au médium et le débit effectif, c’est à dire la capacité disponible pour la transmission de données. Ce critère, comme le montre le Chapitre 6 est fondamental au problème d’optimisation de la consommation d’énergie pour un volume de trafic et ses exigences de Qualité de Service. 2.4.2.2 Mécanismes de compétition à l’accès Afin d’éviter une éventuelle collision entre transmissions, les nœuds peuvent participer à un processus de compétition dont l’issue détermine l’accès au médium. Le mécanisme le plus simple est une détection avant transmission (carrier sense). Un nœud souhaitant transmettre essaie au préalable de détecter un signal en cours d’émission. Si un signal est détecté, la transmission est reportée, autrement la transmission est initiée. Ce mécanisme de base peut être adapté afin de diminuer davantage la probabilité d’une collision, par exemple en introduisant un temps d’écoute aléatoire avant transmission. Parce que les 20CHAPITRE 2. QUALITÉ DE SERVICE ET RÉSEAUX URBAINS DE CAPTEURS SANS-FIL collisions affectent directement le taux de livraison des trames de données, un mécanisme de compétition à l’accès correctement dimensionné est essentiel afin de répondre aux exigences de Qualité de Service des applications cibles. Pour cette raison, nous dédions le Chapitre 5 à l’étude de ces mécanismes et à leur dimensionnement. 2.4.2.3 Mécanismes de contrôle des transmissions Outre l’établissement de la transmission, le protocole de contrôle d’accès définit les mécanismes attestant du succès de la communication. Ces mécanismes comprennent le Contrôle de Redondance Cyclique (CRC) et le retour éventuel d’un acquittement (ACK) vers la source de la transmission. Ils permettent d’éventuellement retransmettre les trames de données non livrées et donc ont une influence significative sur le taux de livraison des trames de données applicatives. Une preuve de ce résultat est disponible dans le Chapitre 9. 2.4.3 Couche réseau La couche réseau, et plus particulièrement le protocole de routage définit la succession de transmissions qui doivent être exécutées afin d’acheminer une information d’un nœud à un autre dans un réseau multi-sauts. Cette tâche est assurée par deux mécanismes : le plan de contrôle, qui construit et maintient la topologie de routage, et le plan de données, qui assure l’acheminement des trames dans la topologie. 2.4.3.1 Construction de la topologie de routage Le plan de contrôle vise à établir une topologie de routage pérenne et garante de l’existence sur le long terme de chemins entre chaque paire de source et destinataire du réseau. La sélection des liens qui composent ces chemins est sujette à des algorithmes de décision visant à optimiser la structure dans l’objectif de répondre aux exigences de Qualité de Service. 2.4.3.2 Transit des trames de données Le plan de données consiste en l’ensemble des mécanismes qui sont exécutés lorsqu’une trame de données nécessite d’être transmise. Ils incluent le choix d’une des trajectoires dans la topologie, le mode de relayage utilisé, la détection de boucles de routage, etc. Dans le Chapitre 9, nous montrons l’importance d’une topologie et d’un algorithme de relayage performant afin de répondre aux exigences de Qualité de Service. 2.4.4 Couche transport La couche transport est en charge du contrôle de bout en bout de la communication entre un émetteur et son destinataire. Traditionnellement, dans les réseaux filaires, la Qualité de Service est implémentée à ce niveau. Les protocoles associés peuvent, à l’instar de TCP [20], prendre en charge le contrôle du flux de données en implémentant un ordonnancement des trames de données, des mécanismes d’acquittement (ACK, NACK), du contrôle de congestion, etc. 2.4.5 Applications Afin de compléter le recensement des mécanismes à Qualité de Service, nous citons ceux propres à l’applicatif. Une application peut en effet intégrer dans son fonctionnement 21CHAPITRE 2. QUALITÉ DE SERVICE ET RÉSEAUX URBAINS DE CAPTEURS SANS-FIL des mécanismes d’acquittement des données, de contrôle d’erreur sur les trames, et ce, similairement aux mécanismes disponibles en couche liaison. De même que pour la couche transport, notre étude ne porte pas sur ces mécanismes car déjà présents dans les couches liaisons et données. 2.5 Synthèse sur le choix des protocoles étudiés, adéquation avec les contraintes des réseaux de capteurs Dans ce travail, nous focalisons notre étude sur les mécanismes des couches liaison et réseau. Nous résumons ici les motivations d’un tel choix. 2.5.1 Protocoles MAC Parce qu’ils régissent l’activité du circuit radio et l’établissement d’une communication entre émetteurs et récepteurs, les protocoles de contrôle d’accès au médium permettent de conjuguer les contraintes de Qualité de Service du trafic applicatif et l’objectif de durée de vie des nœuds capteurs. Nous étudions donc plus particulièrement les mécanismes de compétition à l’accès (Chap. 5) et les mécanismes d’adaptation du cycle d’activité à la charge de trafic dans le but de respecter les exigences de Qualité de Service (Chapitres 6 et 8). 2.5.2 Protocoles de Routage Le protocole de routage est en charge d’établir et maintenir un ensemble de chemins garantissant les exigences de Qualité de Service et permettant d’assurer les performances à long terme du réseau. Pour ces raisons, dans le Chapitre 9, nous étudions l’impact du mode de relayage , i.e. opportuniste ou classique, sur les performances d’un réseau multi-sauts et montrons comment construire une topologie de routage permettant d’assurer un taux de livraison conforme aux exigences d’une application de télé-relève. 2.6 Scénarios, modèles et hypothèses Nous illustrons maintenant les scénarios, modèles et hypothèses considérés dans ce travail de thèse. Dans les Chapitres 6, 7, 8 et 9, nous étudions une architecture de réseau urbain de capteurs sans-fil dédiée à une application de télé-relève. Dans ce cadre, nous considérons deux déclinaisons de réseaux : les réseaux de télé-relève à radio longue portée et les réseaux multi-sauts. 2.6.1 Réseaux de télé-relève à radio longue portée Correspondant à l’usage applicatif conventionnel d’une télé-relève périodique de compteurs de gaz ou d’eau, nous considérons le scénario d’un réseau de capteurs sans-fil à topologie en étoile. Afin de parvenir à une pénétration suffisante des matériaux, ces réseaux exploitent de manière privilégiée la bande de fréquences la plus basse : 169 MHz. Dans ce scénario, les nœuds capteurs transmettent périodiquement leurs trames de données à leur passerelle d’attache. Nous considérons une période maximale de transmission de 24h (relève quotidienne) et minimale de 1h (relève horaire). 22CHAPITRE 2. QUALITÉ DE SERVICE ET RÉSEAUX URBAINS DE CAPTEURS SANS-FIL Afin de modéliser ce scénario, nous supposons l’existence d’un mécanisme de contrôle de puissance garantissant un niveau de puissance reçue à la passerelle suffisant pour négliger les pertes dues à la propagation et au bruit large bande (en garantissant par exemple un rapport signal à bruit de 10dB supérieur au seuil de sensibilité de la radio de la passerelle). Cette hypothèse garantit la réception d’une trame en l’absence de collision, c’est à dire lorsque le support temporel de la trame n’en recouvre aucun autre. En présence d’une collision, la réception échoue car les trames en collision sont reçues avec la même puissance. 2.6.2 Réseaux multi-sauts Dans l’optique d’un déploiement de réseau opéré de capteurs multi-sauts, nous considérons un parc de compteurs exploitant la bande de fréquence 868 MHz. Nous omettons la bande de fréquence 433 MHz en raison de la cœxistence de systèmes licenciés à forte puissance dans la bande ainsi qu’en raison de la faible P.A.R autorisée pour les systèmes non licenciés. La bande 169MHz est également omise en raison de la faible largeur de bande disponible (75KHz) et donc des faibles débits disponibles. Nous considérons un circuit radio émettant à basse puissance (1mW à 25mW) et présentant un débit de 19.2Kbits/s. Dans l’étude des réseaux multi-sauts, nous considérons deux modélisations de la topologie : la clique et la topologie multi-sauts. 2.6.2.1 Topologie en clique Pour les études théoriques et afin de modéliser les milieux confinés à forte densité de nœuds capteurs (Chapitres 4, 5 et 7), tels les gaines et conduits techniques, nous considérons un modèle de clique. Dans ce modèle, les nœuds capteurs sont à portée de communication les uns des autres. Lorsque les supports temporels de deux transmissions se recouvrent, les deux trames sont dites en collision et leur réception est impossible. 2.6.2.2 Topologies multi-sauts Afin d’illustrer le comportement des protocoles étudiés en multi-sauts, nous considérons deux types de topologie : une grille régulière à maille carrée avec la passerelle de collecte au centre et une topologie aléatoire dont les propriétés statistiques sont issues d’un déploiement existants de capteurs (Chap. 9 pour la description des topologies). La grille régulière permet, par ses éléments de symétrie, de caractériser le comportement des protocoles de routage en fonction du nombre de sauts de la source à la passerelle alors que la topologie aléatoire, dont les propriétés sont issues d’un déploiement existant, permet d’étudier les protocoles sur un déploiement davantage réaliste. 2.7 Synthèse sur le contexte, réseaux urbains de capteurs sans-fil et Qualité de Service Dans ce Chapitre, nous avons présenté le contexte applicatif, réglementaire et matériel d’un déploiement de réseau urbain de capteurs sans-fil et nous faisons ici la synthèse des faits marquants, défis et challenges que soulèvent de tels réseaux. D’après les applications identifiées sur réseau urbain de capteurs sans-fil, le trafic sur un réseau urbain de capteurs sans-fil est dominé par l’application de télé-relève de compteurs gaz et eau (jusqu’à 10 000 compteurs par passerelle, une remontée par heure et 1Ko par remontée). Cette application se caractérise par un taux de livraison cible de 99%, des contraintes en délai de l’ordre de la période de génération des trames de données et un 23CHAPITRE 2. QUALITÉ DE SERVICE ET RÉSEAUX URBAINS DE CAPTEURS SANS-FIL trafic de type convergecast. Dans la suite de nos travaux, nous considérons donc en priorité les exigences de Qualité de Service et le type de trafic associés à cette application. Dans ce contexte, les principaux défis lors du déploiement d’un réseau urbain de capteurs sans-fil sont les suivants : le choix de l’architecture radio et le dimensionnement du cycle d’activité et des mécanismes d’arbitrage de l’accès au médium. Ces défis nécessitent ainsi une étude des différentes classes d’architecture et de protocoles en termes de consommation d’énergie selon la durée de vie souhaitée, le volume de trafic supporté et les exigences en taux et délai de livraison, i.e. les exigences de Qualité de Service. Cette étude est proposée dans les Chapitres 4, 5 et 6. Pour chacun des couples architecture/protocoles retenus, nous proposons dans les Chapitres 7, 8 et 9 des protocoles spécifiques, adaptés aux exigences de Qualité de Service et à l’attente de durée de vie du réseau. 24CHAPITRE 3 État de l’art Dans le Chapitre précédent (Chap. 2), nous avons présenté le contexte applicatif et réglementaire des réseaux urbains de capteurs sans-fil. Nous avons également recensé les usages possibles de ces réseaux et les exigences de Qualité de Service associées. Nous avons en particulier constaté que les applications de télé-relève de compteurs dominent, en termes de trafic, le volume de données collectées et que les mécanismes intégrés aux protocoles de contrôle d’accès au médium radio et aux protocoles de routage sont les plus à même d’influer sur le respect des exigences de Qualité de Service et sur la durée de vie des nœuds capteurs. Nous proposons maintenant de recenser les protocoles de la littérature selon la nature des mécanismes qui les composent. Nous édifions ainsi une taxonomie fonctionnelle des protocoles de contrôle d’accès au médium et de routage en vue d’identifier les familles de protocoles pertinentes dans l’étude du choix et du dimensionnement de l’architecture et des protocoles pour une application de télé-relève de compteurs. Pour chaque famille identifiée, nous illustrons son fonctionnement par la description d’un ou plusieurs protocoles représentatifs, choisis pour leur notoriété, originalité ou performance. Les protocoles de contrôle d’accès sont traités en Section 3.1 et les protocoles de routage en Section 3.2. 3.1 Protocoles de contrôle d’accès au médium radio Parce qu’il régit l’activité radio des nœuds et les ressources de communication, le protocole de contrôle d’accès au médium détermine la consommation d’énergie et les ressources de communication disponibles. De fait, il détermine la durée de vie des nœuds capteurs et influe significativement sur les performances en termes de taux de livraison et de délai. Dans cet état de l’art nous tâchons de décrire les protocoles de la littérature selon les mé- canismes et propriétés fondamentales qui les composent. Les mécanismes pertinents seront par la suite étudiés en détail dans les Chapitres 4, 5 et 6. 3.1.1 Taxonomie fonctionnelle des protocoles de contrôle d’accès au mé- dium L’approche que nous proposons ici consiste à identifier les objectifs élémentaires auxquels répond un protocole de contrôle d’accès au médium. Celle-ci généralise les états de l’art classifiant les protocoles par similarité, e.g. [21] et ceux classifiant les protocoles de manière généalogique [22]. Avant de lister les critères de classification retenus, nous rappelons l’objectif global d’un protocole de contrôle d’accès au médium, à savoir permettre la transmission d’une trame de données entre un émetteur et éventuellement plusieurs récepteurs. Afin de réaliser cette transmission, plusieurs conditions doivent ainsi être réunies : émetteurs et récepteurs doivent tomber d’accord sur une date de transmission. À cette date, les émetteurs doivent être en mesure d’émettre et les récepteurs de recevoir. Les émetteurs et 25CHAPITRE 3. ÉTAT DE L’ART récepteurs associés doivent également s’assurer que leurs émissions respectives n’empêcheront pas la réception de leurs trames, i.e. absence de collision. À partir de cette description fonctionnelle, nous pouvons déduire les critères de classifi- cation fondamentaux des familles de protocoles de contrôle d’accès au médium, à savoir la définition de l’instant d’accès au médium, la négociation de l’accès au médium et la signalisation de la transmission. 3.1.1.1 Classification selon le mécanisme de définition de l’instant d’accès au médium Dans cette étude, nous recensons deux mécanismes canoniques de définition de l’instant d’accès au médium : l’accès synchrone et l’accès asynchrone. Un accès synchrone consiste à maintenir la synchronisation des horloges des nœuds émetteurs et récepteurs. Dans cette base de temps commune sont définies de manière univoque des dates auxquelles peuvent avoir lieu les transmissions. Ce mécanisme de synchronisation peut alternativement être intégré comme mécanisme à part entière du protocole de contrôle d’accès, c’est le cas par exemple dans [23], ou délégué à un protocole tiers, e.g. [24]. Dans cet état de l’art nous ne traitons que les mécanismes intégrés aux protocoles de contrôle d’accès au médium. Les mécanismes dédiés font l’objet d’un état de l’art à part dans le Chapitre 4. Un accès asynchrone, tel qu’illustré par BMAC [25], XMAC [26] etc., consiste au contraire à établir une date de transmission lorsqu’une trame doit être émise. On qualifie donc cette approche de réactive, et par opposition, l’accès synchrone est dit proactif. Comme le montre le Chapitre 4, les approches synchrone et asynchrone répondent toutes deux à un même objectif, à savoir minimiser la consommation d’énergie liée à la signalisation des instants de transmission. L’approche asynchrone vise ainsi à minimiser la consommation en présence de trafics faibles alors que l’approche synchrone cible les trafics importants 1. Certains protocoles proposent d’hybrider les mécanismes d’accès synchrone et asynchrone. À l’instar de Funneling-MAC [27], cette approche propose deux modes de fonctionnement concurrents impliquant respectivement une synchronisation d’une partie des nœuds capteurs du réseau et un mode asynchrone pour le reste. 3.1.1.2 Classification selon le mécanisme de négociation de l’accès au médium La négociation de l’accès au médium correspond aux mécanismes employés par les nœuds afin de décider du droit d’usage du médium de communication. Cette négociation peut être réalisée de manière pro-active ou réactive. Dans le premier cas on parle de négociation par planification, e.g. PEDAMACS [28], TSMP [29], ARISHA [30], GMAC [31], c’est à dire que la résolution de l’ordre des accès aura été réalisée avant les tentatives d’accès au médium. Dans le second cas, on parle d’accès par contention si un mécanisme d’évitement de collision est employé, e.g. BMAC [25], XMAC [26], ou d’accès direct, e.g. ALOHA [32], dans le cas contraire. Accès par planification Un accès par planification n’est possible que lorsque les horloges des nœuds capteurs sont synchronisées. Un tel mécanisme tire partie de la connaissance de la topologie physique, logique et des flux de trafic afin d’allouer les ressources de 1. Le Chapitre 4 identifie l’approche optimale en fonction du trafic considéré. En deçà d’une trame par jour et voisinage radio, l’approche asynchrone est moins énergivore. Au delà de ce volume de trafic, une approche synchrone doit être privilégiée. 26CHAPITRE 3. ÉTAT DE L’ART transmission, i.e. les instants de transmission. La planification des accès aux ressources peut être réalisée de manière centralisée, e.g. TSMP [29], ou distribuée, e.g. TRAMA [33]. Dans les deux cas, la planification présuppose : (1) un trafic de contrôle permettant l’échange de ces informations et (2) une stabilité temporelle des conditions d’opération du réseau, i.e. environnement radio stable et des flux de trafic stationnaires. Dans ces conditions, un tel accès garantit un accès sans collision et peu de trafic de contrôle. En revanche, lorsque l’environnement radio présente de fortes variations temporelles, telles que celles observées et reportées sur la Figure 2.7 du Chapitre 2, les performances ainsi que la consommation d’énergie de tels protocoles se dégradent. Accès par contention Les protocoles à accès par contention, e.g. BMAC [25], XMAC [26], SIFT [34], SCP-MAC [35] se basent sur des mécanismes de tournoi afin d’allouer les instants de transmission. Dans un tel tournoi participent les nœuds souhaitant réserver une ressource de communication. Cette participation consiste à signaler le besoin d’une ressource par un signal de contrôle. De l’ordre des signaux de contrôle est déduite la résolution de l’accès au médium de communication. De tels mécanismes de tournoi peuvent être déclinés pour un accès synchrone, e.g. SCP-MAC [35], comme pour un accès asynchrone e.g. X-MAC. Pour un accès synchrone par contention, on distingue ainsi les mécanismes de contention à rôles différenciés, e.g. ZMAC [36], DMAC [37], des mécanismes à contention simple, e.g. SMAC [23], SCP-MAC [35]. Les protocoles à accès par contention à rôles différenciés usent de mécanismes d’ordonnancement partiel de manière à définir les actions que peuvent exécuter les nœuds capteurs : recevoir, envoyer ou dormir, au contraire des protocoles à contention simple. Un mécanisme de contention à rôles différenciés use ainsi de mécanismes de planification afin d’améliorer les performances du réseau lorsque l’environnement radio présente peu de variabilité. Ce sont donc des solutions intermédiaires entre l’accès par planification et l’accès par contention simple. Pour un accès asynchrone par contention, on distingue les protocoles pour lesquels une communication est initiée par l’émetteur, e.g. BMAC [25], XMAC [26] et ceux pour lesquels une communication est initiée par le récepteur, e.g. RI-MAC [38]. Avec un protocole à initiation par l’émetteur, la signalisation de la transmission est prise en charge par l’émetteur. Cette prise en charge nécessite la transmission d’un signal permettant d’informer la destination de la communication à venir. Comme nous le montrons dans le Chapitre 4, ce signal implique une occupation du médium de communication. Avec un protocole à initiation par le récepteur, le récepteur est en charge d’annoncer sa disponibilité en réception. Ce schéma nécessite l’envoi d’un message court par le récepteur et une écoute longue par l’émetteur. Comme l’expliquent les Chapitres 2 et 8, le choix d’un mode d’accès par rapport à l’autre dépend du cycle d’activité autorisé dans la bande de fréquence utilisée et de la consommation des nœuds en émission et en réception. Accès direct L’accès direct consiste à restreindre l’émission d’une trame de données au strict minimum. Aucun mécanisme de négociation d’accès n’est utilisé, e.g. ALOHA [32] et ses dérivés. Cette approche se justifie dans certains cas particuliers de topologies physiques, e.g. lorsque les nœuds capteurs émettent directement à la passerelle, sans possibilité de détection des trames des autres nœuds capteurs. Un tel scénario se produit en particulier dans le cas d’une architecture de réseau urbain de capteurs sans-fil longue portée (voir Chap. 6). 27CHAPITRE 3. ÉTAT DE L’ART 3.1.1.3 Taxonomie proposée Sur la base de la classification fonctionnelle que nous venons d’exposer, nous proposons la taxonomie de la Figure 3.1. Sur ce schéma sont représentées les deux grandes familles de protocoles de contrôle d’accès au médium radio, à savoir à accès synchrone et à accès asynchrone et les hybridations de ces deux familles, classifiées en tant que hybride. Pour chacune de ces grandes familles nous recensons les sous-familles, à savoir à accès par planification, contention et à accès direct pour les protocoles synchrones et à accès par contention initiée émetteur, contention initiée récepteur et à accès direct pour les protocoles asynchrones. Enfin, pour chacune de ces sous-familles, nous détaillons les protocoles selon leurs caractéristiques les plus marquantes : planification centralisée ou distribuée, signalisation par préambule ou répétition de données, etc. Nous illustrons maintenant chacune de ces familles de protocoles par un exemple choisi dans la littérature, la description de cet exemple permettant de mettre en lumière les principales hypothèses de fonctionnement, le comportement attendu du protocole et finalement de juger de l’adéquation de la famille de protocoles avec le contexte d’une application de télé-relève sur réseau urbain de capteurs sans-fil. 3.1.2 Protocoles synchrones à planification Afin d’illustrer cette famille de protocoles, nous présentons les protocoles PEDAMACS [28] qui est un protocole synchrone à planification centralisée et TRAMA [33], un protocole synchrone à planification décentralisée. 3.1.2.1 Protocoles à planification centralisée Exemple : PEDAMACS PEDAMACS est un protocole de contrôle d’accès à planifi- cation centralisée. À l’instar des autres protocoles de cette catégorie, e.g. ARISHA [30], TSMP [29], BitMAC [39], GMAC [31] etc., son fonctionnement se décompose en 5 phases : synchronisation des horloges, apprentissage de la topologie physique, en particulier de la matrice de connectivité des nœuds du réseau, apprentissage des flux de trafic, construction de l’échéancier des communications et transmission des données. Dans PEDAMACS, l’apprentissage de la topologie est réalisée par la diffusion par la passerelle de trames nommées topology learning. Ces trames émises périodiquement permettent de réaliser la synchronisation des horloges des nœuds capteurs, condition nécessaire à l’établissement d’un échéancier des transmissions. PEDAMACS fait l’hypothèse que ces trames sont reçues par l’ensemble du réseau, i.e. la passerelle émet à une puissance suffisante pour couvrir l’intégralité de la topologie. Par cette hypothèse, les auteurs de PEDAMACS s’affranchissent d’un problème fondamental auquel sont confrontés les protocoles synchrones à planification : la synchronisation d’un réseau multi-sauts. Nous présentons une solution à ce problème dans le Chapitre 4. Une fois le réseau synchronisé, la passerelle initie la phase de construction de la topologie de collecte. L’objectif de cette phase est de construire une topologie en forme d’arbre de recouvrement enraciné à la passerelle. À cette fin, la passerelle diffuse une trame de construction de la topologie de collecte (tree construction packet). Cette trame contient une métrique correspondant au coût pour rejoindre la passerelle par la route annoncée (par exemple le nombre de sauts). Cette trame est retransmise par les nœuds capteurs avec une métrique mise à jour pour refléter l’addition d’un nœud supplémentaire à la route, l’accès étant réalisé suivant le protocole CSMA/CA [40]. Ici, on observe deux spécificités des protocoles à planification centralisée : (1) le couplage de l’arbitrage de l’accès au médium de communication et de la topologie de routage et (2) la phase 28CHAPITRE 3. ÉTAT DE L’ART Figure 3.1 – Taxonomie proposé pour l’état de l’art sur les protocoles de contrôle d’accès au médium 29CHAPITRE 3. ÉTAT DE L’ART de construction de la topologie nécessite des mécanismes d’accès par contention. La première spécificité découle de la nécessité de connaître les flux de trafic, i.e. les échanges de paquets entre nœuds, afin de pouvoir allouer les ressources de communication. En conséquence, une telle méthode d’accès est à la merci des variations de la topologie physique, i.e. apparition ou disparition de liens. La spécificité (2) découle de la nécessité d’un arbitrage de l’accès au médium de communication afin d’éviter les collisions entre trames échangées. En l’absence de connaissance à priori de la topologie et des flux, les seuls mécanismes d’arbitrage disponibles sont ceux à contention. On constate ainsi qu’un mécanisme de contrôle d’accès à base de planification est donc nécessairement bi-modal, i.e. emploie deux méthodes d’accès distinctes, et implique donc une complexité accrue du protocole. Une fois la topologie logique construite, les nœuds transmettent leur vue locale de la topologie physique et logique, c’est à dire les nœuds à portée radio et les voisins dans la topologie logique. Cette transmission est réalisée en multi-sauts suivant la topologie de routage, l’accès étant également réalisé en CSMA/CA. Cette étape du protocole assure la remontée des informations nécessaires au mécanisme d’allocation de ressources de communication. On constate ici que la fréquence de ces remontées conditionne l’adéquation de l’allocation des ressources aux besoins des différents trafics et la durée de vie des nœuds. En effet, si ces remontées ont lieu trop peu fréquemment, les ressources allouées peuvent ne pas correspondre aux exigences du trafic, i.e. sous-provision sur un lien. Ces remontées doivent par ailleurs être d’autant plus fréquentes que l’environnement radio, et donc la topologie physique, est variable. En effet, les mécanismes d’allocation se basent sur les voisinages radio de chaque nœud afin d’éviter les collisions entre les nœuds. Une solution naïve à ces deux problèmes seraient de transmettre fréquemment ces informations, au prix d’une consommation énergétique accrue et donc d’une durée de vie moindre. Une fois le réseau synchronisé, la topologie logique construite et les informations des topologies physique et logique remontées à la passerelle, cette dernière construit un échéancier des communication selon un algorithme à base de coloriage de graphe de manière à garantir un accès au médium sans collision et de garantir à chaque nœud du réseau de pouvoir transmettre entre chaque trame de synchronisation. Cet échéancier est ensuite transmis par la passerelle dans des trames d’ordonnancement émises périodiquement. Figure 3.2 – Protocole PEDAMACS Les transmissions entre nœuds suivent ensuite cet échéancier jusqu’à la publication d’un nouveau. Un exemple d’un tel échéancier est donné sur la Figure 3.2. Ici, l’échéancier coordonne les transmissions de 4 nœuds, nommés N1 à N4. Chaque ligne temporelle décrit 30CHAPITRE 3. ÉTAT DE L’ART les actions successives entreprises par le nœud correspondant. Ainsi, d’après l’échéancier, le nœud N2 émet une trame à destination de N4 dans le premier intervalle de temps publié, puis le nœud N1 émet une trame à destination de N3, etc. Sous réserve d’une information à jour de la topologie physique et des flux de trafic, une telle planification garantit des transmissions sans collision. Analyse des protocoles à accès par planification centralisée En résumé, on constate que de tels protocoles nécessitent de la part de la passerelle de connaître la topologie physique telle que perçue par chaque nœud du réseau, i.e voisinages radio, la topologie logique et les flux de trafic afin d’allouer les ressources de communication. Afin de répondre aux exigences du trafic à supporter, l’information requise pour l’allocation doit être mise à jour de manière à prendre en compte les variations de la topologie physique et du trafic. Comme annoncé dans le Chapitre 2, l’environnement radio urbain présente une variabilité temporelle importante en raison de l’activité humaine et de l’interférence. Cette variabilité entraîne une fluctuation des voisinages radio et nécessite, en conséquence, une adaptation de l’allocation des ressources. Cette adaptation ne peut être réalisée que par une mise à jour fréquente de l’information de topologie, impliquant de fait une consommation énergétique accrue pour le trafic de contrôle ou une inadéquation des allocations aux exigences de trafic. Afin de limiter la surconsommation énergétique liée à la mise à jour de l’information de topologie, une solution envisageable de décentraliser l’algorithme de planification. Constatant qu’un ordonnancement centralisé nécessite la diffusion des prévisions de trafic à l’échelle du réseau et entraîne donc une consommation d’énergie importante, des protocoles à ordonnancement distribué ont été proposés. Ces protocoles [33], [41], [42] construisent l’échéancier de transmission à partir d’une information de voisinage uniquement. Les nœuds capteurs échangent ainsi leur connaissance du voisinage ainsi que leur prédiction de trafic pour construire l’ordonnancement des communications. Généralement, ces protocoles nécessitent que chaque nœud connaisse son 2-voisinage et les flux de trafic associés. Afin d’illustrer cette catégorie de protocoles, nous détaillons le fonctionnement du protocole TRaffic-Adaptive Medium Access. 3.1.2.2 Protocoles à planification décentralisée Exemple : TRAMA TRAMA [33] est un protocole de contrôle d’accès à planification décentralisée, ainsi que [41], [42]. À l’instar des protocoles de contrôle d’accès à planification centralisée, les protocoles de contrôle d’accès à planification décentralisée présentent 5 phases de fonctionnement : synchronisation des horloges (externe au protocole ou pas), apprentissage de la topologie physique, apprentissage des flux de trafic, construction de l’échéancier des communications et transmission des données. Dans TRAMA, l’apprentissage de la topologie est réalisée par le sous-protocole appelé Neighbor Protocol (NP). Le protocole NP définit le mécanisme d’échange des informations de voisinage. À la suite du déroulement du protocole NP, chacun des nœuds capteurs du réseau connaît son 2-voisinage. Pour ce faire, chaque nœud propage des trames de signalisation (signaling packets) selon un mode d’accès aléatoire au médium. Ces trames de signalisation contiennent l’adresse du nœud émetteur ainsi qu’une liste des voisins nouvellement détectés et des voisins disparus (pour lesquels aucune trame de signalisation n’a été reçue depuis un temps pré-déterminé). Parallèlement au protocole NP, un protocole de synchronisation est supposé opérer. On observe ici l’une des principales différences avec le fonctionnement d’un protocole synchrone à planification centralisée : l’information des 31CHAPITRE 3. ÉTAT DE L’ART tables de voisinage d’un nœud n’est propagée que dans le 2-voisinage, limitant ainsi le volume de messages émis. L’apprentissage des flux de trafic dans le 2-voisinage est réalisé par le sous-protocole appelé Schedule Exchange Protocol (SEP). Le protocole SEP définit la trame d’annonce de l’échéancier des transmissions (schedule packet). Cette trame contient une prédiction des communications à venir entre le nœud émetteur et ses nœuds voisins. L’information concernant chaque transmission est transmise sous forme de bitmap : un nœud possédant 4 voisins transmettra des bitmaps de taille 4 dont chacun des champs correspond à un nœud voisin, un bit de valeur 1 signifiant qu’une transmission est prévue et 0 signifiant le contraire. L’identité des nœuds voisins associés à chaque bit est déduite de l’ordre d’apparition dans les trames de signalisation envoyées par le nœud émetteur. On retrouve ici l’hypothèse d’un trafic prédictible et le couplage entre la topologie et l’allocation des ressources, les nœuds sont en effet supposés capables de prédire quand et à qui ils envoient leurs trames à venir. On constate néanmoins que l’algorithme prend des décisions locales (basées sur des informations du 2-voisinage radio) permettant ainsi de répondre localement à la variabilité du réseau, limitant ainsi le trafic de contrôle induit par une éventuelle variation locale de l’environnement radio. Enfin, la transmission des données est arbitrée selon le sous-protocole Adaptive Exchange Algorithm (AEA). Ce dernier définit en effet le comportement d’un nœud capteur (réception, émission ou sommeil) dans chacun des intervalles de temps, l’attribution des intervalles de temps pour transmettre étant déduite de la longueur des files d’attentes des nœuds capteurs. Analyse des protocoles à accès par planification décentralisée On observe que les protocoles à accès par planification décentralisée sont similaires en tout point aux protocoles à accès par planification centralisée. Leur fonctionnement est constitué des mêmes phases, à savoir : synchronisation des horloges, apprentissage de la topologie physique, apprentissage des flux de trafic, construction de l’échéancier des communications et transmission des données. Ainsi, les mêmes conclusions peuvent être tirées pour ces protocoles, en notant un impact moins sévère de la variabilité de l’environnement radio sur le trafic de contrôle. 3.1.2.3 Synthèse des protocoles à accès par planification Ces protocoles font tous l’hypothèse d’une connaissance a priori des flux de trafic et d’une stabilité de l’environnement radio pour fonctionner. Dans ces conditions, ils sont en mesure de planifier des accès sans collision au médium radio afin de garantir les exigences de trafic. Dans l’hypothèse d’un environnement radio maîtrisé, i.e. pas d’interférent, et sous réserve de faibles fluctuations de la qualité des liens radio, de tels protocoles peuvent réduire la fréquence des remontées d’information et ainsi limiter la consommation du réseau. Cependant, compte tenu des propriétés de l’environnement radio urbain (voir Chapitres 2 et 9), ces hypothèses ne sont pas vérifiées, signifiant un coût accru du trafic de contrôle et une inadéquation des allocations de ressources aux exigences de trafic. Ces observations nous amènent à étudier des mécanismes d’allocation réactive de ressource, c’est à dire pour lesquels l’arbitrage de l’accès est réalisé lorsque celui-ci est né- cessaire. Ainsi, l’arbitrage prend en compte l’état courant de l’environnement radio et l’allocation n’est pas mise en péril par la variabilité de l’environnement radio. Les protocoles en question sont dit à contention et peuvent être déclinés en version synchrone, e.g. [35], [23], [43], ou asynchrone, e.g. [25], [26], [44]. 32CHAPITRE 3. ÉTAT DE L’ART 3.1.3 Protocoles synchrones à contention À l’instar des protocoles à planification, les protocoles synchrones à contention synchronisent les horloges des nœuds du réseau afin de définir une base de temps commune. En revanche, la négociation de l’accès est réalisée de manière réactive et se décline sous la forme d’un mécanisme de tournoi dont l’issue conditionne le choix de d’émission des nœuds. Les différentes formes de ces mécanismes sont décrites en détail dans le Chapitre 5. Nous rappelons que l’arbitrage par contention, et donc de manière réactive, se justifie par la variabilité temporelle de l’environnement radio et en particulier de la topologie physique. Une telle approche peut être implémentée telle quelle, on parlera dans ce cas de contention simple, e.g. SMAC [23] et SCP-MAC [35], ou conjointement à des mécanismes de planification partielle, on parlera de contention à rôles différenciés, e.g. ZMAC [36], DMAC [37]. 3.1.3.1 Protocoles synchrones à contention simple Exemples : SMAC et SCPMAC Dans les protocoles à contention simple [23], [35], [43], [45], les candidats à l’émission participent à des processus de compétition à chaque intervalle d’activité, et ce, sans restriction. Ainsi, un nœud souhaitant émettre une trame de données participe successivement aux compétitions de tous les intervalles d’activité jusqu’à réussir la transmission de la trame. Ces protocoles se décomposent classiquement en 3 étapes : synchronisation des horloges, compétition à l’accès et transmission des données. La première peut être alternativement intégrée au protocole, à l’instar du protocole SMAC présenté ci-après ou externalisée, comme dans SCP-MAC. La compétition à l’accès utilise l’une des méthodes exposées dans le Chapitre 5. Enfin, la transmission des données se déroule selon le résultat du mécanisme de compétition. On constate en premier lieu que ces protocoles présentent deux étapes de moins que les protocoles à planification, ils ne nécessitent en effet pas d’apprendre la topologie et les flux de trafic. Ils présentent donc une implémentation moins complexe et un trafic de contrôle moindre. Afin d’illustrer cette classe de protocoles, nous présentons les protocoles Sensor MAC (SMAC) [23], retenu pour avoir défini un mécanisme de synchronisation des cycles d’activité, et Scheduled Channel Polling (SCP-MAC) [35] parce qu’il propose une méthode à la fois efficace en énergie et en évitement de collision. SCP-MAC est par ailleurs détaillé davantage dans le Chapitre 7 où il sert de de protocole de comparaison à notre proposition : CT-MAC. SMAC Le protocole Sensor-MAC propose de synchroniser les horloges des nœuds capteurs afin de délimiter des phases d’activités et de sommeil communes à tous les nœuds. De cette façon, SMAC contrôle les périodes d’activité de la radio. Compte tenu des observations du Chapitre 2, i.e. la radio est l’élément dissipant le plus d’énergie parmi les constituants d’un capteur, SMAC propose un moyen efficace de garantir une durée de vie cible des capteurs, c’est à dire en bornant le duty-cycle, ou rapport cyclique d’activité des nœuds. Pour cela, SMAC présente 3 phases de fonctionnement : une phase de synchronisation des cycles d’activité et une phase double de compétition par contention et de transmission des données, comme indiqué sur la figure 3.3. Afin de synchroniser les horloges, SMAC propose que les nœuds diffusent périodiquement un message de synchronisation (SYNC ) annonçant leur cycle d’activité. De cette 33CHAPITRE 3. ÉTAT DE L’ART Figure 3.3 – Protocole SMAC façon, chaque nœud apprend les périodes d’activité de ses voisins et peut donc établir une transmission avec eux. De façon à minimiser le nombre d’échéanciers, les nœuds choisissent leurs périodes d’activité en fonction des messages de synchronisation de leur voisinage. Un nœud cherchant à établir son échéancier va ainsi écouter le médium radio dans l’attente d’un message SYNC. Si un message SYNC est reçu, le nœud adopte le même échéancier que l’annonce et diffuse à son tour un message SYNC. Si aucun message SYNC n’est reçu dans un intervalle de temps pré-défini, le nœud s’attribue alors un échéancier au hasard et annonce son cycle d’activité. Finalement, si les voisins du nœud adoptent des échéanciers différents, le nœud les adoptent tous. On constate ici qu’un tel processus amène à définir des cycles d’activité commune entre nœuds voisins, avec idéalement un cycle commun à l’ensemble des nœuds. Dans une topologie multi-sauts dense, cette approche présente cependant des limites. En effet, en raison du temps d’attente avant transmission des messages de synchronisation, des nœuds à plusieurs sauts l’un de l’autre risquent d’adopter des pé- riodes d’activité distinctes, forçant les nœuds intermédiaires à activer leurs circuits radio pendant une durée accrue, e.g. un nœud intermédiaire doit allumer sa radio durant un intervalle de temps correspondant à l’union, au sens ensembliste, des périodes d’activités auxquelles il adhère. On note également que se pose la question du dimensionnement de la période d’activité, une période d’activité trop longue par rapport au trafic entraînant une dépense énergétique inutile (idle listening) alors qu’une période trop courte ne permet pas de supporter le trafic. Lorsqu’un nœud cherche à transmettre un message unicast à un voisin, il attend leur période d’activité commune. L’émetteur effectue ensuite une détection de transmission (carrier sense ou CS) après un temps d’attente aléatoire. Si le médium radio est inoccupé, l’émetteur transmet une requête de transmission (Request To Send ou RTS) et attend l’autorisation du récepteur (Clear To Send ou CTS). Une fois le message CTS reçu, l’émetteur transmet la trame de données et attend une trame d’acquittement (acknowledgement ou ACK). Si le médium est occupé par une transmission ou si l’émetteur ne reçoit pas de trame CTS, l’émetteur éteint sa radio et réitère sa tentative à la prochaine période d’activité commune avec le récepteur. 34CHAPITRE 3. ÉTAT DE L’ART En résumé, une telle méthode d’accès présente l’intérêt de définir une période de temps où émetteurs et récepteurs ont leurs circuits radio simultanément activés et une période d’inactivité où les circuits radio sont éteints afin de limiter la consommation d’énergie des nœuds. En revanche, le mécanisme de synchronisation, tel qu’il est défini force certains nœuds de la topologie à supporter de multiples cycles d’activités et donc une période d’activité radio plus longue qu’espérée. La définition de la période d’activité est également problématique et se confronte au problème d’écoute passive (idle listening) et de capacité (support du trafic). SCP-MAC Le protocole SCP-MAC [35] propose une solution au problème d’écoute passive. Pour cela, SCP-MAC propose de synchroniser le réveil et la détection d’énergie des nœuds capteurs du réseau sur la base d’un mécanisme externe, tel que défini dans le Chapitre 4. De cette façon, il suffit à un nœud d’émettre un court signal de réveil lorsque les nœuds effectuent leur détection d’énergie afin d’avertir son voisinage d’une transmission imminente. Si aucun n’est détecté, le nœud peut éteindre immédiatement son circuit radio, limitant ainsi l’énergie dissipée inutilement en écoute passive. SCP-MAC maîtrise également le taux de livraison des trames de données en proposant une compétition à l’accès au médium radio en deux étapes, chacune éliminatoire : la première pour la transmission du signal du réveil et la deuxième pour la transmission de la donnée. Figure 3.4 – Protocole SCP-MAC La Figure 3.4 illustre le fonctionnement de SCP-MAC. Une fois les horloges synchronisées, les nœuds R, S1 et S2 se réveillent périodiquement et effectuent une détection de signal. Cette période de réveil est dimensionnée de manière à supporter le trafic. À chaque réveil, les nœuds éteignent immédiatement leurs circuits radio si aucune émission n’est détectée, limitant ainsi leur consommation. Lorsqu’un nœud souhaite émettre, il participe à la première étape de compétition arbitrant l’envoi du signal d’émission. Le mécanisme de contention employé est similaire à un algorithme de contention de type ATS dont la description est fournie dans le Chapitre 5. Ce mécanisme se base sur une fenêtre de contention, débutant avant l’instant de réveil des nœuds récepteurs. Un nœud souhaitant émettre 35CHAPITRE 3. ÉTAT DE L’ART tire un intervalle de la fenêtre de contention au hasard et réalise une détection d’énergie. Si aucune émission n’est détecté, il transmet alors un signal d’occupation. Ce signal d’occupation est prolongé le temps nécessaire pour garantir que l’ensemble du voisinage radio réalise une détection d’énergie. Un deuxième temps d’attente aléatoire et une nouvelle détection d’énergie sont spécifiés avant l’envoi de la trame de données qui suit le signal d’occupation. Ce mécanisme de compétition en cascade permet ainsi de départager les nœuds qui auraient émis simultanément leurs signaux d’occupation. En résumé, la consommation de fond de SCP-MAC, c’est à dire en l’absence de trafic, est induite par la détection périodique et par la consommation du mécanisme de synchronisation. Sous hypothèse d’une comparaison à mécanisme de synchronisation identique, SCPMAC présente donc la consommation énergétique la plus faible possible, i.e. une simple détection d’énergie. Pour cette raison, nous considérons ce protocole comme référence dans notre étude de CT-MAC, proposé dans le Chapitre 7. Analyse des protocoles synchrones à accès par contention simple La famille des protocoles synchrones à accès par contention propose de synchroniser les cycles d’activités des nœuds du réseau afin de leur permettre de communiquer. Au contraire des protocoles à accès planifié, l’arbitrage de l’accès au médium est réalisé de manière réactive, i.e. lorsque les nœuds souhaitent émettre. De cette façon, ces protocoles s’affranchissent de l’hypothèse de connaissance précise des flux de trafic et de la topologie physique. Ils sont de fait plus ré- siliants à la variabilité de l’environnement radio du milieu urbain. Nous avons par ailleurs identifié un protocole efficace en énergie, SCP-MAC [35], pour lequel la consommation énergétique n’est issue que d’une détection d’énergie périodique et du mécanisme de synchronisation en fonctionnement. Ce protocole, combiné au mécanisme de synchronisation proposé dans le Chapitre 4, est utilisé comme protocole de référence dans le Chapitre 7. D’après la description du protocole, nous identifions deux études à mener afin de dimensionner un tel protocole pour une application de télé-relève de compteurs : le dimensionnement de la période d’activité et le dimensionnement du mécanisme de contention. Ces travaux sont entrepris dans les Chapitres 5 et 6. 3.1.3.2 Protocoles synchrones à contention et rôles différenciés Exemples : Crankshaft et DMAC Afin de compléter notre description des protocoles synchrones à contention, nous proposons maintenant une analyse des protocoles à contention et rôles différenciés, e.g. [36], [37], [46], [47]. Ces protocoles se démarquent des protocoles à contention simple par la définition de règles de préséance, voire d’exclusion à l’accès au médium de communication. Ces règles peuvent alternativement découler de paramètres de configuration des nœuds, à l’instar de Crankshaft [46], ou de la position de ces nœuds dans la topologie logique, à l’instar de DMAC [37]. Nous choisissons d’illustrer ce type de protocoles par la présentation de Crankshaft [46], dont les règles d’accès sont dictées par les adresses MAC des nœuds, et de DMAC [37] dont les règles d’accès sont choisies d’après des critères topologiques. Crankshaft Le protocole Crankshaft [46] est un protocole de contrôle d’accès synchrone pour lequel l’accès au médium est conditionné par l’adresse MAC de ces derniers. Le protocole Crankshaft [46] propose de diviser le temps en trames (frames) et les trames en intervalles de temps (slots). Ces intervalles de temps sont déclinés en intervalles dits de broadcast pour la diffusion et unicast pour les trames dont le destinataire est unique. Ces slots unicasts sont dimensionnés de manière à contenir une fenêtre de contention, une trame 36CHAPITRE 3. ÉTAT DE L’ART de données de taille maximale et une trame d’acquittement. Les nœuds souhaitant transmettre une trame au détenteur du slot utilisent un mécanisme de compétition à l’accès similaire à celui de S-MAC, c’est à dire une détection de transmission après un temps d’attente aléatoire. L’accès à ces intervalles unicast est sujet à une règle d’accès : une trame ne peut être émise dans un intervalle unicast que si l’adresse MAC du destinataire modulo le nombre d’intervalles unicast est égale à l’indice de l’intervalle. Ainsi, dans une trame, chaque nœud se voit attribuer un unique intervalle dans lequel il peut recevoir. Cette règle limite ainsi le nombre de compétiteurs potentiels dans la fenêtre de contention. En faisant l’hypothèse d’une répartition uniforme des adresses des nœuds dans l’espace d’adressage, le nombre effectif de compétiteurs potentiels par intervalle est en effet divisé par le nombre d’intervalles unicast de la fenêtre. D’après les auteurs, cette méthode améliore la consommation d’énergie par rapport à des protocoles à contention simple, e.g. SCP-MAC [35], mais supporte un trafic moindre, en particulier dans un scénario de télé-relève de compteur, en présence d’un trafic de type convergecast. L’explication d’un tel résultat est la suivante : la règle d’accès signifie qu’un nœud exécutant Crankshaft n’effectue qu’une seule détection d’énergie par trame, i.e. l’intervalle unicast dans lequel il peut recevoir, contre une détection par intervalle pour SCP-MAC. Dans ces conditions, si le nombre de trames par unité de temps est grand par rapport au trafic à supporter, e.g. sur-allocation des ressources de communication par rapport aux besoins, Crankshaft présente une consommation d’énergie plus faible. Cette propriété n’est en revanche pas vérifiée si le nombre d’intervalles par unité de temps, i.e. le nombre de ressources de communication, est dimensionné afin de supporter le trafic. Dans ce cas, Crankshaft n’est plus en mesure de supporter le trafic en raison de la règle d’accès et de la variation spatiale du trafic du à la convergence du trafic. Nous montrons dans le Chapitre 6 que le dimensionnement du cycle d’activité est justement un élément clé de l’adéquation de la configuration du réseau aux exigences de Qualité de Service et de durée de vie, ce qui exclue de fait une telle approche. DMAC Nous présentons maintenant le protocole DMAC [37] qui propose de réglementer l’accès au médium radio selon une information de topologie de routage. DMAC propose en effet de coupler la construction de la topologie et les règles d’accès au médium de communication. DMAC fait ainsi l’hypothèse d’une topologie logique sous forme d’arbre de recouvrement. Chaque nœud est supposé connaître la distance logique qui le sépare de la passerelle ; ici sa profondeur dans l’arbre. Cette distance dicte les rôles supportés par les nœuds capteurs au cours du temps, comme l’illustre la Figure 3.5. Un nœud de rang n se comporte en tant que récepteur lorsque les nœuds du rang n + 1 se comportent en tant que transmetteurs, ne permettant ainsi de supporter que les trafics des nœuds vers la passerelle. Dans ce cadre, en présence d’un faible trafic, l’acheminement d’une trame de données depuis un nœud feuille de l’arbre jusqu’à la passerelle est réalisé de manière continue, i.e. la trame est ré-émise à chaque saut juste après avoir été reçue. De cette façon, le délai de bout-en-bout est minimisé. Cette approche, intéressante pour supporter des trafics à forte contrainte temporelle, a cependant un intérêt limité dans le contexte d’une application de télé-relève de compteurs. Nous montrons en effet dans le Chapitre 6 que le dimensionnement du cycle d’activité dans le but de supporter le volume de trafic permet déjà de répondre aux exigences de délai décrites dans le Chapitre 2. Notons par ailleurs que cette approche ne s’applique qu’à des trafics orientés des nœuds capteurs vers la passerelle. 37CHAPITRE 3. ÉTAT DE L’ART Figure 3.5 – Protocole DMAC Analyse des protocoles synchrones à accès par contention et rôles différenciés Nous venons d’illustrer la famille des protocoles synchrones à accès par contention et rôles différenciés en exposant les protocoles Crankshaft et DMAC. Nous constatons que ces protocoles exploitent des règles d’accès privilégiant l’accès au médium de certains nœuds de façon à optimiser un critère de performance donné dans un contexte particulier, e.g. le délai de bout-en-bout dans le cas d’un trafic des nœuds vers la passerelle comme proposé par DMAC. Ces optimisations sont tributaires d’hypothèses de fonctionnement souvent contradictoires avec le contexte d’un réseau urbain de capteurs sans-fil, e.g. sur-provision des ressources de transmission par rapport au volume de trafic. Pour cette raison, dans la suite des travaux, nous focalisons notre étude sur les protocoles synchrones à contention simple dont les résultats pourront être ré-utilisés, si nécessaire en réintégrant les optimisations proposées par les protocoles à rôles différenciés. Ainsi, dans le Chapitre 9, nous étudions un mécanisme de relayage d’acquittement basé sur un ordonnancement similaire à celui proposé par DMAC. 3.1.3.3 Synthèse des protocoles synchrones à accès par contention À l’instar des protocoles à base de planification, les protocoles synchrones à accès par contention proposent de synchroniser les périodes actives des nœuds du réseau afin de leur permettre de communiquer. En introduisant un mécanisme de compétition à l’accès, ces protocoles sont capables d’arbitrer et de résoudre les accès concurrents au médium de communication. Cette méthode d’accès, dite par contention, ne dépend pas d’une connaissance a priori du comportement de l’environnement radio ou de la topologie logique, i.e. des flux de trafic. De fait, ces protocoles sont à même de supporter la variabilité induite pour l’environnement urbain et sont pour cette raison étudiés dans la suite de nos travaux. Nous notons néanmoins que ces protocoles supposent l’existence d’un mécanisme de synchronisation des horloges des nœuds du réseau, entraînant une complexité d’implé- mentation accrue. Ce choix signifie également une consommation d’énergie nécessaire au maintien de la synchronisation, i.e. alimentation d’un oscillateur à quartz et trafic de synchronisation. De ce fait, nous nous interrogeons sur la pertinence d’un mécanisme de synchronisation pro-active des nœuds et nous concluons sur cette question dans le Chapitre 4 qui comparent la consommation d’énergie des protocoles synchrones et asynchrones. Nous présentons donc au préalable la famille des protocoles asynchrones à contention. 38CHAPITRE 3. ÉTAT DE L’ART 3.1.4 Protocoles asynchrones à contention En l’absence d’un mécanisme de synchronisation pro-active des horloges des nœuds, une date définie dans le référentiel temporel d’un nœud peut être différente de la même date définie dans le référentiel d’un autre nœud. Pour cette raison, les périodes d’activité radio des nœuds peuvent ne pas se recouvrir. Dans un tel scénario et en l’absence d’un mé- canisme de synchronisation réactive, deux nœuds sont dans l’incapacité de se transmettre une trame de données. Les mécanismes canoniques permettant de répondre à ce problème sont présentés et étudiés dans le Chapitre 4 et nous présentons ici les protocoles appelés asynchrones dans la littérature et que nous qualifierons de synchronisation réactive dans ce travail 2. Ces protocoles, e.g. [25], [38], [48], [49], [50], [26], [44], [51], [52], [53], [54], [55] se décomposent en deux familles selon l’initiateur de la transmission. Dans le deux cas, l’établissement d’une transmission comporte les 3 étapes suivantes : négociation de l’accès, signalisation de l’émission et transmission. Dans le cas d’un protocole à accès initié par l’émetteur, la négociation de l’accès et la signalisation est assurée par l’émetteur alors que pour un protocole à accès initié par le récepteur, la signalisation est assurée par le récepteur et la négociation est partagée entre les émetteurs et le récepteur. 3.1.4.1 Accès initié par l’émetteur Les protocoles asynchrones à accès par contention et initié par l’émetteur, e.g. Non Persistent CSMA with Preamble Sampling [48], BMAC [25], MFP [44] et XMAC [26], proposent de déléguer la fonction de négociation et de signalisation aux nœuds souhaitant émettre. Ces protocoles peuvent être classifiés en 2 sous-familles selon la nature de la signalisation de l’émission : la première famille fait l’usage d’un préambule ou d’une séquence de préambules, à l’instar de Non-Persistent CSMA with Preamble Sampling [25], [44], [48],etc, et l’autre utilise directement les données pour signaler l’émission, e.g. [51], [52], [55]. L’ensemble de ces protocoles est souvent classifié sous l’appellation preamble sampling protocols [mac-essentials], nous présentons ici une classification alternative. Les protocoles liés à l’usage de préambule gardent la dénomination preamble sampling protocols et on attribue aux protocoles à répétition de la trame de données l’appellation data sampling protocols. Afin d’illustrer ces différentes catégories, nous présentons les protocoles suivants : Non Persistent CSMA with Preamble Sampling [48], Micro Frame Preamble MAC (MFP) [44] et XMAC [26] pour les protocoles à échantillonnage de préambule, SpeckMAC-d [51] et MX-MAC [55] pour les protocoles à répétition de la trame de données. Non Persistent CSMA with Preamble Sampling Nous présentons en premier lieu le protocole Non Persistent CSMA with Preamble Sampling (NP-CSMA-PS) [48], son implémentation étant l’application directe de la méthode canonique de synchronisation par échantillonage de préambule. NP-CSMA-PS suppose que les nœuds activent périodiquement leur radio pour détecter la présence d’un signal d’occupation. Si aucune transmission n’est détectée, le nœud éteint de suite sa radio. Dans le cas contraire, il écoute la transmission jusqu’à la réception de la trame de données. De façon à garantir la réception intégrale de la trame de données, le nœud émetteur préfixe la trame de données d’un signal de réveil (préambule) d’une durée supérieure à la période d’échantillonnage des nœuds, 2. Il nous semble en effet plus pertinent de parler de synchronisation réactive compte tenu que les mécanismes proposés consistent à signaler le commencement d’une trame de données, ce qui en soit est une synchronisation des horloges sur une date commune. 39CHAPITRE 3. ÉTAT DE L’ART comme illustré par la Figure 3.6. La fiabilité des transmissions est assurée par l’usage d’un acquittement. Figure 3.6 – Protocole NP-CSMA-PS On constate ici qu’en présence d’un trafic faible et de trames de données de petite taille, l’occupation du médium de communication et donc la consommation d’énergie est dominée par l’envoi du préambule. Les auteurs de BMAC [25] montrent par ailleurs que la fréquence des détections et donc la taille du préambule peut être adaptée au trafic à supporter de façon à minimiser la consommation d’énergie globale des nœuds. Dans le Chapitre 4, nous proposons une méthode de calcul de cet optimum pour un volume de trafic donné et nous l’appliquons au dimensionnement d’un protocole asynchrone idéal. Les protocoles que nous présentons ci-après, MFP et XMAC, sont des optimisations de la méthode canonique que propose NP-CSMA-PS. MFP Le protocole Micro Frame Preamble MAC (MFP) [44] propose quant à lui de diminuer la consommation induite au niveau du récepteur en scindant le long préambule en une succession de petites trames. Chacune de ces trames inclut un compteur annonçant la date du début de la transmission ainsi que l’adresse du destinataire en cas de trame unicast et un hash des données en cas de trame broadcast. Comme illustré par la Figure 3.7, ce schéma de préambule permet de diminuer le temps d’écoute du préambule par le récepteur (overhead) et limite le phénomène de surécoute, i.e. un nœud écoute une trame de données ne lui étant pas destinée (annonce de la destination dans les micro-préambules). Les propriétés d’une telle approche sont les suivantes : (1) le coût énergétique à l’émetteur est similaire à celui d’NP-CSMA-PS et (2) le coût au récepteur est conditionné par la taille du micro-préambule, elle-même conditionnée par la taille des adresses MAC utilisées. Ainsi, le coût énergétique supporté par le récepteur est proche de la limite théorique, à savoir la dépense énergétique strictement nécessaire pour recevoir l’adresse de destination et les données, alors que le coût supporté par l’émetteur peut être significativement amélioré. Afin d’évaluer la dépense énergétique moyenne optimale à l’émetteur, supposons une répartition uniforme des instants de génération de trames de données. Supposons également des instants de réveil périodiques pour chaque nœud, de période !T . Dans ces conditions, 40CHAPITRE 3. ÉTAT DE L’ART Figure 3.7 – Protocole MFP l’espérance sur le temps moyen entre le début de la séquence de micro-préambules et le réveil du récepteur est de "T 2 . Ainsi, en moyenne, la longueur utile de la séquence de micro-préambules est de "T 2 . En première approximation, la consommation à l’émetteur peut donc être divisée par deux. C’est ce que cherche à atteindre le protocole suivant : XMAC [26]. XMAC Le protocole XMAC [26] reprend le principe de micro-préambules et ajoute une période d’écoute entre ces derniers. Les émetteurs alternent ainsi entre émission d’un micro-préambule et écoute du canal, comme indiqué par la Figure 3.8. Cette alternance approxime le comportement d’une radio full-duplex et permet au récepteur de répondre par une trame d’acquittement (early ack). À la réception de la trame d’acquittement, l’émetteur interrompt la transmissions des préambules et transmet immédiatement la trame de données. De cette façon, XMAC présente une séquence de préambule d’une longueur moyenne proche de "T 2 , soit la longueur utile moyenne précédemment citée. Ceci réduit ainsi le temps d’établissement de la transmission de données et son coût énergétique. La contrepartie de cette méthode est la nécessité d’une double détection du médium à chaque période d’activité, contre une unique pour NP-CSMA-PS et MFP. En raison de l’alternance entre émission et écoute de l’émetteur, la séquence radio est en effet composée de micropréambules espacés dans le temps par une période d’écoute. Ainsi un récepteur doit réaliser deux détections, espacées de cette même période d’écoute afin d’être en mesure de détecter la séquence de micro-préambules, et donc d’être notifié d’une émission à venir. On constate ainsi qu’en l’absence de trafic ou pour des trafics très faibles, ce double échantillonnage entraîne une surconsommation d’énergie par rapport aux solutions sans interruption de la séquence de préambules. En revanche, cette solution présente une occupation du médium et une consommation d’énergie plus faible pour des trafics importants. Nous observons que ces trois protocoles utilisent un signal de contrôle spécifique afin d’établir une date commune entre nœuds émetteurs et récepteurs et transmettent ensuite la trame de données. En présence de trames de données de taille restreinte, e.g. d’une taille équivalente ou inférieure à une adresse MAC, émettre directement la trame de données en 41CHAPITRE 3. ÉTAT DE L’ART Figure 3.8 – Protocole XMAC lieu et place de micro-préambules, i.e. par répétition de la trame de données, permet de diminuer la durée d’activité du récepteur. En effet, avec une telle implémentation, le temps moyen passé par un récepteur à recevoir la trame de donnés est donné par la formule : 3"data 2 où !data est la durée d’émission de la trame. Avec un implémentation à base de micro-préambule cette durée est donnée par : 3"micro preambule 2 + !data. Ainsi avec l’approximation !micro preambule = !data, le temps passé en réception est 25% plus court en émettant directement la trame de données. SpeckMAC-D Le protocole SpeckMAC-D [51] implémente la solution canonique de la répétition de la trame de données. Figure 3.9 – Protocole SpeckMAC-D Comme illustré par la figure 3.9, l’émetteur répète la transmission pendant une durée supérieure à la période d’échantillonnage du récepteur plus la durée de la trame. De cette façon, le récepteur a la garantie de pouvoir écouter la trame dans son intégralité, quelque 42CHAPITRE 3. ÉTAT DE L’ART soit le déphasage entre le début de l’émission et son réveil. MX-MAC Le protocole MX-MAC [55], illustré par la Figure 3.10 reprend les mêmes idées que celles développées dans X-MAC, à savoir émulation d’une radio full-duplex par alternance d’émission et d’écoute, et les applique à la solution de la répétition de la trame de données. L’émetteur alterne en effet entre transmission de la trame de données et écoute du médium radio. Cette période d’écoute permet au récepteur d’acquitter la réception de la trame de données et d’interrompre la transmission des données. Similairement à XMAC, cette solution nécessite l’usage d’un double échantillonnage du médium radio pour attester de l’absence d’une transmission. Figure 3.10 – Protocole MX-MAC Nous venons d’observer l’intérêt d’une telle approche pour des trames de données de faible taille et nous nous intéressons donc à son application dans le cadre de l’application de télé-relève considérée et décrite dans le Chapitre 2. Nous observons tout d’abord que le point d’équivalence des deux méthodes est obtenu lorsque 3"micro preambule 2 +!data = 3"data 2 soit !data = 3!micro preambule. Nous rappelons que les trames de données font de l’ordre de 600 bits et nous considérons des adresses MACs d’environ 50 bits 3. Les trames de données sont donc de l’ordre de 10 fois plus longues que les micro-préambules. Dans ces conditions, les protocoles à échantillonnage de préambule présentent une consommation d’énergie et une occupation du médium plus faible. Pour cette raison, nous les omettons dans nos études ultérieures. 3.1.4.2 Accès initié par le récepteur Nous venons d’étudier les protocoles d’accès au médium pour lesquels la transmission d’une trame de données est initiée par l’émetteur. Cette approche nécessite l’émission d’un préambule, ou séquence de préambule dont la longueur maximale est de l’ordre de la période d’échantillonnage du médium : !T . Nous avons déduit de l’analyse de ces protocoles que la durée moyenne minimale du signal de transmission est de l’ordre de "T 2 . Ainsi, pour une période d’échantillonnage d’une seconde et une trame de données de 600bits, la durée moyenne du préambule est plus de 15 fois supérieure à celle des données. Avec une telle 3. à titre d’exemple, les trames de 802.15.4 utilisent une adresse MAC courte de 16bits ou de 48bits sinon. 43CHAPITRE 3. ÉTAT DE L’ART approche l’occupation du medium de communication est dominée par du trafic de contrôle, résultant en une faible utilisation utile des ressources de communication. Les protocoles à initiation par le récepteur, e.g. [49], [38], proposent de remplacer ce préambule par un message envoyé par le récepteur qui annonce sa période d’écoute. Les émetteurs échantillonnent périodiquement le médium jusqu’à détecter et recevoir la trame d’annonce du destinataire. La phase de négociation de l’accès commence lorsque la trame d’annonce du récepteur est détectée. Afin d’illustrer cette classe de protocoles, nous présentons le protocole Receiver-Initiated (RI-MAC ) [38], qui servira de protocole de référence dans l’étude de performance du Chapitre 8. RI-MAC Le protocole RI-MAC est un protocole pour lequel les communications sont initiées par le récepteur. Ce protocole s’appuie sur des trames standardisées 802.15.4 [56]. Comme illustré par la figure 3.11, le nœud récepteur émet périodiquement une trame d’annonce, nommée beacon. Lorsque un nœud souhaite transmettre une trame de donnée, il échantillonne le canal radio jusqu’à ce qu’il détecte le préambule puis reçoive la trame d’annonce de son destinataire. Une fois la trame d’annonce reçue, l’émetteur transmet la trame de données. Figure 3.11 – Protocole RIMAC Si le récepteur détecte une transmission à la suite de l’envoi de la trame d’annonce mais n’arrive pas à la décoder, alors il renvoie de suite une autre trame d’annonce contenant les paramètres d’une fenêtre de contention. Les nœuds émetteurs choisissent alors un temps d’attente aléatoire avant de transmettre et effectuent une détection de transmission avant de transmettre. On observe donc que les protocoles d’accès initiés récepteurs sont symétriques à ceux 44CHAPITRE 3. ÉTAT DE L’ART initiés émetteurs en ce qui concerne les états de la radio : la période durant laquelle le préambule est émis par l’émetteur est en effet remplacé par une écoute du médium et l’écoute périodique du médium est remplacée par une émission périodique. Pour que l’approche initiée par le récepteur présente une occupation du médium inférieure à l’approche initiée par l’émetteur, il est nécessaire que l’occupation du médium liée aux trames d’annonce soit inférieure à l’occupation engendrée par les préambules. Afin d’étudier le compromis entre l’approche initiée par le récepteur et celle par l’émetteur, considérons le scénario suivant : N nœuds partagent le même voisinage radio. Chacun de ces nœuds génère ! trames de données par unité de temps, chacune de ldonnees bits, et reçoit la même quantité de trames. La période d’annonce récepteur est de !T r, chaque annonce faisant lannonce bits. La période d’échantillonnage de l’approche initiée émetteur est de !T e. On appelle Db le débit binaire de la radio. Avec ces notations, l’occupation du médium est donnée par la formule : ratiooccupation = ( N(lannonce Db"T r + !ldonnees Db ) initié récepteur !N( "T e 2 + ldonnees Db ) initié émetteur (3.1) Si l’on suppose que la période d’annonce récepteur et la période d’échantillonnage de l’approche initiée récepteur vérifient !T r = N!T e = 1 !, i.e. la période d’activité des nœuds est dimensionnée de façon à supporter le trafic entrant en l’absence de collision et sans limitation de file d’attente (buffer de taille infinie) alors les deux méthodes d’accès sont équivalentes pour !lim = Db 2N lannonce . Pour une valeur ! inférieure, l’approche initiée émetteur présente un ratio d’occupation plus faible que celle initiée récepteur et on constate le contraire pour une valeur supérieure. Si l’on considère un réseau multi-sauts tel que décrit dans le Chapitre 2, i.e. Db = 19, 2KBits/s, 50 nœuds par voisinage radio et une annonce équivalente à 100bits alors la frontière entre les domaines d’intérêt est !lim = 2⇤50⇤100 19,2⇤1024 ⇡ 0.5. Dans ces conditions, en deçà d’une trame toutes les deux secondes par nœud, l’approche initiée émetteur présente un taux d’occupation moindre que l’approche initiée récepteur. En outre, avec ces mêmes scénario et dimensionnement, la période moyenne d’écoute d’un émetteur suivant l’approche initiée récepteur est multiplié par N en présence d’un faible trafic (! << 1 "T r ). En effet, en l’absence de synchronisation des activités des nœuds émetteurs et récepteurs, le temps moyen passé en écoute est de !T r = N!T e. Dans de tels circonstances, un protocole initié récepteur présente donc une consommation d’énergie supérieure à un protocole initié émetteur. Compte-tenu de ces résultats, il convient de s’interroger sur les scénarios favorables aux protocoles initiés récepteurs. D’après l’équation 3.1, on constate que le nombre de nœuds émettant des trames d’annonces a un impact majeur sur l’occupation du médium. L’approche initiée récepteur est donc à privilégier lorsque le nombre de récepteurs potentiels est petit en comparaison du nombre de nœuds émetteurs, e.g. le scénario de relayage défini dans le Chapitre 8. Dans l’hypothèse d’un unique récepteur, l’équation 3.1 devient : ratiooccupation = (lannonce Db"T r + N!ldonnees Db initié récepteur !N( "T e 2 + ldonnees Db ) initié émetteur avec !T r = !T e afin de prendre en compte que tout le trafic est maintenant reçu par le même nœud. Dans ces conditions, le point de fonctionnement équivalent est alors !lim = NDb 2lannonce . Avec les mêmes valeurs numériques que précédemment, l’approche initiée récepteur présente une occupation du médium inférieur à celle initiée émetteur dès lors que !lim < 4915 trames/s. 45CHAPITRE 3. ÉTAT DE L’ART Pour ces raisons, nous considérons l’approche initiée récepteur pour le scénario de réseau de relève de compteurs à radio longue portée et plus particulièrement dans le cadre de notre proposition de nœuds relai, tel que décrit dans le Chapitre 8. En effet, dans ce scénario, un faible nombre de nœuds relais, donc un faible nombre de récepteurs, est utilisé afin d’améliorer la connectivité et les performances du réseau, en particulier en diminuant l’occupation du médium de communication. 3.1.4.3 Synthèse des protocoles asynchrones à accès par contention Les protocoles asynchrones à accès par contention choisissent de ne synchroniser les horloges des compteurs que lorsqu’une transmission est nécessaire. Ainsi, les nœuds s’affranchissent de la consommation d’énergie liée au maintien de l’horloge locale, i.e. l’alimentation de l’oscillateur à quartz et le trafic de synchronisation pro-active. La contrepartie d’une telle approche est un signal d’annonce dont la durée excède celle nécessaire à la transmission des données ou alternativement une période d’écoute d’une durée similaire au signal d’annonce. Le choix d’un accès à synchronisation pro-active ou réactive/asynchrone, dépend donc du volume de trafic supporté par le réseau. En l’absence de trafic ou pour des volumes très faibles, un accès à synchronisation réactive semble être la solution adéquate, en raison de l’absence de trafic de synchronisation et l’arrêt de l’oscillateur à quartz. En revanche, pour des trafics importants, un accès synchrone épargne l’envoi d’un long signal d’annonce à la fois coûteux en énergie et en occupation du médium et semble donc être la solution adéquate. Il est donc impossible de conclure en l’état sur le type de protocole à adopter et une étude sur le coût énergétique de chaque approche doit être menée afin d’émettre une recommandation sur la méthode d’accès à privilégier. Cette étude est menée dans le Chapitre 4. Les protocoles que nous venons de présenter, à savoir à accès par planification, à accès synchrone par contention et à accès asynchrone par contention ne différent que par la complexité de mise en œuvre et leurs hypothèses de fonctionnement. On note en particulier qu’ils reposent tous sur des mécanismes visant à arbitrer l’accès au médium de façon à éviter les accès concurrents. Ces mécanismes sont associés à un trafic de signalisation et ont donc un coût énergétique associé. Il convient donc de s’intéresser à ce coût, ce que nous faisons dans les Chapitres 4, 5 et 6, et d’étudier les protocoles qui n’emploient pas de mécanismes d’arbitrage, i.e. les protocoles à accès direct. 3.1.5 Protocoles à accès direct En l’absence de mécanisme de planification ou de négociation de l’accès, un protocole de contrôle d’accès se restreint aux fonctions élémentaires d’émission et de réception. En émission, ces actions se limitent à activer le circuit radio en mode émission, remplir l’entête MAC de la trame et la soumettre à la radio pour émission. En réception, le protocole consiste à activer le mode de réception du circuit radio, comparer l’adresse de destination à l’adresse du nœud lorsqu’une trame est reçue et éventuellement soumettre la trame de données à la couche supérieure. Les protocoles de la littérature qui illustrent le mieux cette famille sont ALOHA [32] et ses dérivés : [32], [48]. Ces protocoles peuvent se décliner en version synchrone ou asynchrone. 3.1.5.1 Protocoles asynchrones à accès direct Cette classe de protocoles est composée d’ALOHA [32] et des protocoles asynchrones qui en sont dérivés, e.g. ALOHA with Preamble Sampling [48]. Nous illustrons ici le protocole 46CHAPITRE 3. ÉTAT DE L’ART canonique, ALOHA [32]. ALOHA ALOHA [32] est un protocole de communication conçu à l’origine pour des communications entre des stations radios situées dans l’archipel d’Hawaii et un satellite. Un ordinateur de calcul de type main frame était alors partagé entre l’université d’Honolulu et les centres de recherches affiliés, disséminés sur l’ensemble de l’archipel. Compte tenu des distances entre les différents sites et de la directivité des antennes paraboliques utilisées, les stations radio étaient dans l’incapacité de détecter les émissions des autres stations. Dans un tel scénario, similaire à celui d’un réseau de relève de compteurs à radio longue portée, les concepteurs ont donc ôté les mécanismes de négociation du protocole de contrôle d’accès pour privilégier un mode d’accès aléatoire (random) au médium. Pour ces raisons, les communications sont dites à accès direct. La Figure 3.12 illustre un tel mode d’accès au médium. Ici, le récepteur R (satellite), est en écoute permanente. Les stations S1 et S2 émettent leurs trames de données sur le médium dès lors qu’elles sont soumises à la couche MAC. Figure 3.12 – Protocole ALOHA Une telle méthode d’accès présente deux contreparties importantes si elle est utilisée dans un réseau urbain de capteurs sans-fil : (1) la durée de vie du récepteur est faible si ce dernier n’est pas alimenté par le secteur et (2) les performances se dégradent rapidement lorsque le trafic s’accroît. La première contrepartie s’explique par l’écoute permanente que doit entretenir le nœud récepteur. Dans ces conditions, d’après le Chapitre 2, la durée de vie indicative d’un compteur dont le circuit radio est allumé en permanence est en effet de deux semaines, bien loin de l’objectif d’une durée de vie de 15 ans. Une solution permettant d’assurer un cycle d’activité de la radio est présentée par le protocole ALOHA with Preamble Sampling [48], présenté ci-après. La seconde contrepartie provient du risque de collisions entre émissions. En effet en l’absence de planification ou de négociation des accès, deux trames peuvent être émises simultanément et entraîner des erreurs de décodage à la réception. Les performances d’un tel système peuvent cependant être améliorées en synchronisant les instants de transmission. Une telle solution est présentée dans la section suivante et l’étude de performance comparant protocoles à accès direct et protocoles à accès par contention est fournie dans le Chapitre 6. 47CHAPITRE 3. ÉTAT DE L’ART ALOHA with Preamble Sampling ALOHA with Preamble Sampling est une adaptation d’ALOHA dont le but est de réduire la consommation du nœud récepteur. À cette fin, les nœuds récepteurs effectuent un échantillonnage périodique du médium radio et éteignent leur radio entre chaque échantillon. À l’instar des protocoles à échantillonnage de préambule, les nœuds émetteurs transmettent un préambule long avant la trame de données afin d’en garantir la réception. Ce protocole est ainsi similaire à NP-CSMA-PS dans son implémentation, la seule différence résidant dans l’absence de détection conditionnant l’émission sur le médium. 3.1.5.2 Protocoles synchrones à accès direct Comme décrit auparavant et détaillé dans l’étude des protocoles à accès direct du Chapitre 6, les protocoles asynchrones à accès direct supportent peu de trafic en raison de la probabilité de collision entre émissions 4. Il est cependant possible d’améliorer ces performances en synchronisant les instants d’émission, à l’instar du protocole Slotted ALOHA [57]. Slotted ALOHA [57] consiste à maintenir une synchronisation entre les nœuds capteurs et la passerelle afin de délimiter des intervalles de temps supportant chacun une émission. Chaque émission ne peut démarrer qu’au début d’un de ces intervalles, limitant ainsi la probabilité d’une collision. Le détail des calculs permettant de comparer les performances des protocoles ALOHA et Slotted ALOHA sont disponibles dans le Chapitre 6 et la Figure 3.13 explique de manière intuitive ce résultat. Figure 3.13 – Protocole Slotted ALOHA Afin de se convaincre de l’intérêt de la synchronisation et de la discrétisation des instants de transmissions, considérons le scénario proposé par la Figure 3.13. Ici, les nœuds S1 et S2 génèrent des trames de données à deux instants séparés d’une durée inférieure à la longueur d’une émission. Avec un accès direct non synchrone les supports temporels des deux trames se recouvrent, comme l’illustre la Figure 3.13. Avec un accès direct synchrone, S2 attend l’instant de transmission suivant pour émettre, évitant ainsi une collision avec la trame de S1. 4. voir Chapitre 6 pour les grandeurs numériques. 48CHAPITRE 3. ÉTAT DE L’ART 3.1.6 Protocoles hybrides Afin de compléter cette taxonomie, nous présentons 2 exemples des hybridations possibles, e.g. [27], [32], [54],entre les différentes familles de protocoles présentées ci-dessus. Nous présentons ainsi les protocoles WiseMAC [58] et Multimode Hybrid MAC (MHMAC ) [54] qui proposent d’hybrider les accès synchrone et asynchrone, le premier afin d’optimiser l’usage du médium de communication et le second afin d’adapter le mode d’accès au trafic supporté par le réseau. WiseMAC Le protocole WiseMAC [58] propose d’hybrider les méthodes d’accès synchrone et asynchrone afin de minimiser l’occupation du médium et la sur-écoute pour un scénario de communication descendante, i.e. de la passerelle vers les nœuds. Le scé- nario considéré est le suivant : le réseau est constitué de points d’accès en charge de la collecte des informations générées par les nœuds du réseau. Chaque nœud est à un saut d’un point d’accès avec lequel il communique de manière exclusive. Le point d’accès est supposé écouter de manière permanente le médium alors que les nœuds échantillonnent le médium périodiquement afin de détecter une éventuellement émission du point d’accès. Alors qu’une solution à synchronisation purement réactive impliquerait une signalisation dont la longueur maximale est égale à la période d’échantillonnage des nœuds, WiseMAC propose que le point d’accès apprenne les dates de réveil des nœuds. Ainsi le point d’accès peut restreindre la durée de son émission, comme illustré par la Figure 3.14. Figure 3.14 – Protocole WiseMAC MH-MAC Le protocole Multimode Hybrid MAC (MH-MAC ) [54] définit quant à lui deux modes de fonctionnement : synchrone à accès planifié et asynchrone similaire à celui de X-MAC [26]. Le choix du mode de fonctionnement est pilotable par la couche application et nécessite de la part de l’application de connaître par avance les flux de trafic, à l’instar des protocoles classiques à planification. 49CHAPITRE 3. ÉTAT DE L’ART 3.1.7 Synthèse sur les protocoles de contrôle d’accès au médium de communication pour réseaux urbains de capteurs sans-fil Nous venons de présenter une classification des protocoles MAC basée sur la nature des mécanismes employés. Nous distinguons ainsi les protocoles à synchronisation pro-active, ou simplement appelés synchrones, des protocoles à synchronisation réactive ou asynchrones. D’après cette première analyse, la seconde famille est à privilégier lorsque les trafics sont relativement faibles et la première en présence de trafics relativement conséquents. Afin de quantifier les termes relativement faibles et relativement conséquents, nous proposons une étude de la consommation énergétique d’un réseau de télé-relève selon le type de synchronisation employée (pro-active/réactive) dans le Chapitre 4. Nons observons également que les protocoles de la littérature se classifient dans trois familles selon le type d’arbitrage à l’accès utilisé. On distingue en effet les protocoles à accès planifié, à accès par contention et à accès direct. En raison de la variabilité de l’environnement radio du milieu urbain, nous privilégions les méthodes d’accès par contention et par accès direct aux protocoles à accès planifié. Nous proposons ainsi une étude des méthodes de contention dans le Chapitre 5 et appliquons ces résultats afin de comparer les performances d’une architecture de télé- relève de compteurs sans-fil à base de radio longue-portée selon un accès direct et d’une architecture multi-sauts selon un accès synchrone par contention. 3.2 Protocoles de routage Nous établissons maintenant une taxonomie des protocoles de routage. À l’instar de notre taxonomie des protocoles MAC, celle-ci a pour objectif d’identifier les familles de mécanismes de construction de la topologie de routage et les règles de routage associées afin d’identifier celles répondant aux besoins d’une application de télé-relève telle que décrite dans le Chapitre 2. Nous excluons les radios longue portée de notre argumentation, conçues pour opérer sur une topologie en étoile et donc sans routage, et nous supposons un réseau multi-sauts constitué d’une passerelle et d’un ensemble homogène de nœuds compteurs sans-fils. 3.2.1 Taxonomie fonctionnelle des protocoles de routage Notre démarche de classification est similaire à celle utilisée pour les protocoles de contrôle d’accès au médium. Nous identifions dans un premier temps les briques fonctionnelles qui composent un protocole de routage et nous étudions les mécanismes associés à la lumière des contraintes d’un scénario de télé-relève de compteurs en milieu urbain. Dans cette étude, nous examinons les fonctions suivantes : l’identification et la sélection des chemins permettant d’acheminer les trames de données, i.e. la construction de la topologie de routage et le choix du ou des nœuds intermédiaires dans la topologie de routage pour une trame donnée (forward decision). Dans la suite de cette étude, nous faisons référence à la première fonction sous l’appellation plan de contrôle et la deuxième sous l’appellation plan de données. 3.2.1.1 Plan de contrôle Le plan de contrôle a pour objectif d’identifier et de sélectionner les nœuds et les liens de la topologie physique permettant d’acheminer les trames de données. L’ensemble des nœuds et liens sélectionnés est appelé topologie de routage. La topologie est dite hiérarchique 50CHAPITRE 3. ÉTAT DE L’ART lorsque les nœuds exercent des fonctions différenciées et plane dans le cas contraire. Celleci peut être construite de manière pro-active à l’instar de CTP [59] ou RPL [3], de manière réactive comme LOAD-ng [60] ou bien implicitement [61]. Les protocoles de routage à topologie plate se distinguent également par leurs mé- thodes d’évaluation et de sélection de liens. Les algorithmes se basent alternativement sur une diffusion globale, e.g. [3], [59], [62], ou une diffusion localisée, e.g. [63], [64], [65], des critères d’évaluation et de sélection de liens. Certains protocoles proposent même de s’affranchir du trafic de contrôle, ils fonctionnent donc sans diffusion. Parmi les critères utilisés, on distingue les critères de nœud (node state), e.g. énergie résiduelle, capacité mémoire, charge de trafic, position géographique, des critères de liens (link state) : bande passante, latence, fiabilité du lien et des critères topologiques physiques et logiques, e.g. densité du voisinage radio, hop count (nombre de nœuds intermédiaires jusqu’à la passerelle). Dans les protocoles à diffusion globale, ces critères peuvent être utilisé en l’état par les algorithmes de construction de topologie de routage, on parle alors de protocole à état de lien, ou sous forme agrégée, le plus souvent scalaire, c’est le cas des protocoles à vecteur de distance. Les protocoles à diffusion localisée présentent quant à eux une particularité : une information localisée associée à la connaissance de la source et de la destination d’une trame de données doivent être suffisantes pour acheminer la dite trame. Cette contrainte restreint ainsi les critères à des coordonnées géographiques ou dérivés à l’instar de [63], [66]. 3.2.1.2 Plan de données Le plan de données est constitué des mécanismes et algorithmes de décision nécessaires à la prise en charge et l’aiguillage des trames de données dans la topologie logique. Dans cet état de l’art, nous distinguons les protocoles pour lesquels les décisions de routage sont prises par les émetteurs, e.g. [3], [62], et ceux pour lesquels les décisions sont prises par les récepteurs, e.g. [67], [68]. Nous nous référons à ces mécanismes sous les appellations respectives de décision de l’acheminement à l’émission et décision de l’acheminement à la réception. 3.2.1.3 Taxonomie proposée Suite à ces classifications, nous adoptons la taxonomie présentée par la Figure 3.15. Celle-ci est motivée par notre objectif d’identifier les familles de mécanismes et de protocoles répondant aux exigences de notre scénario d’étude, à savoir une application de télé-relève de compteurs en milieu urbain. Pour cela, elle distingue et représente les diffé- rents choix auxquels sont confrontés les concepteurs d’un protocole de routage pour réseaux de capteurs, à savoir le choix d’un type de topologie de routage, son mode de construction, la nature des informations et des critères de sélection des chemins et le lieu du processus de décision de routage. Pour chacune des alternatives proposées, signalées par un encadré sur la Figure 3.15, nous représentons les associations de mécanismes possibles par un lien en trait plein. À titre d’exemple, cette taxonomie nous apprend qu’une topologie plane peut être construite de manière pro-active, selon un protocole à vecteur de distances en utilisant des critères de performance agrégés mais qu’un protocole à vecteur de distances ne peut se baser sur un critère de performance non agrégé. À partir de cette taxonomie, nous tâchons maintenant d’argumenter notre choix d’étudier les performances des protocoles à vecteur de distances utilisant des critères de performance agrégés et opérant un processus de décision à l’émetteur ou au récepteur. Nous adoptons pour cela une approche itérative dans laquelle nous décidons d’abord du type de 51CHAPITRE 3. ÉTAT DE L’ART Figure 3.15 – Taxonomie proposée pour l’état de l’art sur les protocoles de routage 52CHAPITRE 3. ÉTAT DE L’ART topologie, puis du mode de construction de la topologie et enfin de la nature de l’information utilisée, chaque étape permettant de restreindre l’horizon des protocoles considérés. 3.2.2 Protocoles à topologie hiérarchique Notre première étude consiste à argumenter le choix d’une topologie hiérarchique ou plane et nous nous intéressons tout d’abord aux protocoles de routage dit à topologie hiérarchique. Ces protocoles, e.g. [69], [70], [71], [72], [73], [74], [75], [76], [77], proposent de différencier les rôles des nœuds du réseau. Cette différentiation consiste à confier les rôles de maintenance de la topologie et d’acheminement des trames de données à certains nœuds du réseau, dits nœuds à rôle dominant et minoritaires par leur nombre. Plusieurs sous-familles de protocoles hiérarchiques peuvent être distinguées selon les mécanismes d’élection de ces nœuds et leur organisation, e.g. en grappes [69], en épines dorsales [78], etc. Ces démarches limitent le volume de trafic de contrôle [79] et facilitent le filtrage, l’agrégation et/ou la compression des trames de données lorsque les grandeurs physiques observées par le réseau présentent de fortes corrélations spatiales, les nœuds à rôle dominant étant un point d’agrégation des trafics des nœuds voisins [69]. Nous proposons maintenant d’argumenter leur adéquation à un scénario de télé-relève en milieu urbain. Nous présentons pour cela le protocole LEACH [69], un protocole de routage hiérarchique basés sur des techniques de mise en grappe. LEACH Le protocole LEACH est un exemple très simple de protocole hiérarchique qui permet d’expliciter les points d’intérêts et les contreparties d’une telle famille de protocoles. On retrouve en effet dans LEACH les caractéristiques élémentaires d’un protocole hiérarchique, à savoir l’organisation de la topologie de routage autour de nœuds à rôle dominant, appelés cluster heads ou nœuds CHs, auxquels sont rattachés les autres nœuds du réseau. Dans LEACH, la construction de la topologie dépend d’une évaluation des liens entre capteurs. Cette évaluation est basée sur un critère de lien simple : la puissance de signal reçue : Received Signal Strenght Indicator (RSSI). Ce critère est utilisé de façon à identifier les nœuds proches. Les ensembles de nœuds proches sont appelés grappes. Une fois les grappes construites sont nominés les nœuds CHs. LEACH propose d’élire les nœuds CHs selon un tirage aléatoire et une liste tabou. Ainsi, périodiquement (à chaque round r), chaque nœud n’ayant pas un rôle dominant le round précédant tire une valeur aléatoire dans l’intervalle [0, 1] et la compare à une valeur seuil T(p) avec p le ratio de nœuds dominant souhaité : T(p) = p 1 ! p ⇤ (r ⇤ mod(1/p)) Tout nœud dont la valeur tirée excède la valeur seuil devient alors dominant pour une durée d’un round et prend en charge la collecte des trames en provenance des nœuds capteurs et leur relayage vers le puits comme l’illustre la figure 3.16. Les protocoles à topologie hiérarchiques diffèrent principalement par les heuristiques ou algorithmes d’élection des nœuds à rôle dominant et par les fonctions remplies par ces derniers. Les protocoles HEED [75] et energy-LEACH [80] proposent par exemple d’utiliser un critère de nœud, l’énergie résiduelle, pour nominer les nœuds à rôle dominant. Dans ces protocoles, les nœuds capteurs possédant l’énergie résiduelle la plus importante ont une plus grande probabilité d’obtenir un rôle dominant. De cette façon, ces protocoles visent à uniformiser la consommation d’énergie entre les nœuds capteurs afin de prévenir l’épuisement prématuré de leur batterie. Les protocoles TEEN [72] et APTEEN [73] proposent quant à eux de réaliser des fonctions d’agrégation et de filtrage des données au sein des 53CHAPITRE 3. ÉTAT DE L’ART Figure 3.16 – Protocole LEACH nœuds CHs avec pour postulat que seul un sous-ensemble des données générées par les capteurs a un intérêt ou la pertinence d’être remonté. Compte tenu de ce descriptif et dans le contexte d’un réseau urbain de capteurs sans-fil, ces approches se heurtent à plusieurs problèmes : les limitations matérielles des capteurs, la nature des données télé-relevées, la règlementation sur l’usage des bandes radio non licenciées et la variabilité de l’environnement radio. Le premier problème concerne les faibles possibilités de filtrage ou d’agrégation des nœuds à rôle dominant en raison des faibles ressources mémoires. Les nœuds capteurs disposent en effet de quelques kilo-octets de stockage et ne sont en mesure de stocker que quelques trames de données 5. Par ailleurs, contrairement aux applications de monitoring environnemental, le trafic généré par une application de télé-relève de compteurs ne présente pas ou peu de redondance spatiale, chaque capteur représentant la consommation d’un client différent. De fait, les possibilités de filtrage sont également très limitées. Le second problème résulte de la règlementation du cycle d’activité radio dans les bandes ISM non licenciées. Comme décrit dans le Chapitre 2, le cycle d’activité peut être limité à 1% voire 0,1% selon la bande radio utilisée, limitant de fait le volume de données que peut supporter un nœud à rôle dominant et donc le nombre de nœuds attachés. En supposant par exemple une émission de 250ms 6 sur une bande à 0,1% de cycle d’activité, un nœud dominant ne peut supporter plus de 345 trames par jour, incluant le trafic de données et de contrôle. Enfin, les protocoles de routage à topologie hiérarchique souffrent de la variabilité de l’environnement radio. Afin de motiver cette assertion, nous présentons les résultats de travaux que nous avons mené sur le taux de livraison à partir du réseau déployé pour le projet collaboratif ANR ARESA [81]. Le projet collaboratif ANR ARESA s’est achevé 5. 600 bits environ pour une application de télé-relève de compteurs. 6. Conformément aux résultats des Chapitres 4 et 6, on suppose ici une durée d’émission dominée par le préambule de synchronisation, les données ne nécessitant que 30 ms de temps d’émission. 54CHAPITRE 3. ÉTAT DE L’ART à l’été 2009 avec le déploiement d’un réseau d’une trentaine de nœuds capteurs sans- fil, dont la topologie physique est représentée par la Figure 3.17. Ce réseau, composé de compteurs sans-fils comportait des capteurs de comptage de véhicules et de piétons, de mesure d’humidité, de température et de comptage de gaz sur un parc de 240 000m2 mêlant zones de parking, bâtiments, sous-bois et plaine dégagées. Sur la base de cette topologie et Figure 3.17 – Topologie du démonstrateur ANR ARESA des traces de connectivité, dont le détail est fourni dans le Chapitre 9 (Fig.9.1), nous avons étudié la dépendance de la connectivité 7 des compteurs à la passerelle en fonction de la redondance de chemin dans la topologie de routage [81]. Comme illustré par la Figure 3.18, lorsque le nombre de liens utilisés par nœud pour l’acheminement des données est faible, la connectivité est inférieure à 60%. Cette étude montre qu’une approche visant à concentrer le trafic sur quelques nœuds/liens du réseau peut de solder par des taux de livraison très inférieurs aux exigences applicatives, i.e. 99% pour une télé-relève de compteurs gaz/eau. Cette étude pose la question de la pertinence d’une approche hiérarchique pour une application de télé-relève en milieu urbain. La fiabilité des transmissions dépend en effet du lien entre les nœuds à rôle dominant et les nœuds attachés. Ce constat révèle l’une des difficultés majeures auxquelles sont confrontés les algorithmes de formation des grappes et d’élection des nœuds à rôle dominant. Ces algorithmes sont en effet confrontés à un problème triple : un problème de couverture : il faut rattacher l’ensemble des nœuds à un nœud à rôle dominant ; un problème de consommation d’énergie : compte tenu de la consommation d’énergie accrue des nœuds rôle dominant, il est en effet préférable d’en élire un nombre restreint ; un problème de fiabilité des communications : un lien fiable 7. La connectivité représente ici la probabilité d’acheminement d’une trame en supposant l’usage de l’ensemble des chemins mis à disposition par la topologie. 55CHAPITRE 3. ÉTAT DE L’ART Figure 3.18 – Topologie du démonstrateur ANR ARESA entre chaque nœud à rôle dominant et les nœuds attachés est une condition indispensable au respect des objectifs de QoS des applications cibles. Pour ces raisons, nous considérons maintenant les alternatives aux protocoles à topologie hiérarchique, à savoir les protocoles à topologie plane. 3.2.3 Protocoles à topologie plane Au contraire des protocoles à topologie hiérarchique, les nœuds exécutant un protocole à topologie plane supportent tous un rôle similaire. Ainsi, tout nœud du réseau est susceptible de participer à l’acheminement des trames de données. Une telle approche permet donc d’exploiter davantage de liens de la topologie physique et de répartir la charge de trafic de manière plus homogène que l’approche hiérarchique. En revanche, en raison de l’implication d’un plus grand nombre de nœuds dans l’acheminement des données, l’approche à topologie plane est également susceptible de générer davantage de trafic de contrôle [79]. De fait, le choix de topologie nécessite l’étude du compromis entre le gain de fiabilité sur l’acheminement des données que procure l’approche à topologie plane et le coût énergétique associé. Pour cela, nous référençons les différentes méthodes de construction de la topologie et discutons de leur implication sur le trafic de contrôle et sur la consommation des nœuds capteurs. La construction d’une topologie de routage nécessite d’identifier les chemins potentiels vers chaque destination. À cette fin, les nœuds du réseau échangent des trames de contrôle leur permettant d’acquérir l’information nécessaire à cette identification. Cette information peut concerner les liens, e.g. la puissance de signal reçue ou RSSI (Received Signal Strength 56CHAPITRE 3. ÉTAT DE L’ART Indicator ) [69], ou les nœuds, e.g. l’énergie résiduelle à disposition d’un nœud. La diffusion de cette information ainsi que la construction de la topologie peut être réalisée de manière pro-active, i.e. en prévision des flux de données, ou de manière réactive, lorsqu’une trame de données nécessite la découverte d’un chemin vers sa destination. Afin d’argumenter le choix d’une de ces approches, nous présentons pour chacune un protocole représentatif. 3.2.4 Protocoles à construction réactive Nous étudions dans un premier temps l’approche par construction réactive de la topologie, e.g. [60], [82]. Cette approche consiste à initier la phase de découverte d’un chemin vers une destination seulement lorsqu’une trame lui est destinée. Cette approche suppose un faible nombre de flux applicatifs, une faible fréquence de génération des trames de données et un réseau de petite taille [60]. Afin d’illustrer une telle famille de protocoles, nous présentons le protocole LOAD-ng. The Lightweight On-demand Ad hoc Distance-vector Routing Protocol - Next Generation LOAD-ng [60] est un protocole de routage en cours d’élaboration à l’IETF au moment de la rédaction de ce manuscrit. Similaire à AODV [82], LOAD-ng est un protocole de routage à construction réactive de la topologie basé sur une découverte de route par inondation de messages de contrôle. Un nœud routeur implémentant LOAD-ng exé- cute les actions suivantes lorsqu’une trame nécessite d’être transmise : si aucune route n’est connue vers la destination, le nœud génère un message Route Request (RREQ) contenant son adresse et l’adresse de la destination et le diffuse à son voisinage radio. Ce message est propagé de proche en proche, par diffusions successives, de manière à inonder l’ensemble du réseau et à être entendu par le nœud destination. Une fois le message RREQ reçu, la destination génère alors un message Route Reply (RREP) transmise en unicast sur le chemin inverse suivi par le message RREQ. Ce chemin peut être identifié de deux manières : par ajout des adresses des nœuds traversés dans le message RREQ ou par mémorisation de l’adresse du nœud précédemment traversé au niveau de chaque nœud du réseau. Dans LOAD-ng, la seconde solution est retenue, privilégiant ainsi une taille réduite des messages au détriment de l’occupation mémoire des nœuds. Une fois la route établie, la trame de données est acheminée sur le chemin déterminé et la mémorisation du couple source/destination à chaque nœud du chemin permet de s’affranchir de la re-découverte à chaque nouvelle trame de données. D’après cette description, les protocoles à construction réactive de la topologie sont à privilégier pour un déploiement comprenant peu de nœuds et un trafic applicatif à la fois faible par son volume et par la diversité des sources et destinations, conformément à leurs hypothèses de fonctionnement. En effet, l’établissement de chaque route nécessite l’inondation de messages de contrôle à l’échelle du réseau. Par ailleurs, afin de s’affranchir de l’inondation du réseau à chaque nouvelle trame applicative, chaque chemin découvert nécessite l’installation et la mémorisation de la route sur chaque nœud participant à l’acheminement des données. Ce constat soulève donc la question de l’adéquation d’une approche réactive pour une appplication de télé-relève en milieu urbain. Comme décrit dans le Chapitre 2 (Tableau 2.1), un déploiement de compteurs de gaz/eau sans-fil peut compter jusqu’à plusieurs milliers de nœuds par passerelle, impliquant un trafic de contrôle et des exigences en mémoire non négligeable. Afin d’estimer le volume de trafic de contrôle, considérons un réseau de N nœuds, distribués uniformément sur un disque d’aire normalisée autour d’une passerelle. Supposons une densité de voisinage radio égale à d. Supposons par ailleurs un mécanisme d’inondation idéal, i.e. un unique message est généré par voisinage radio. Dans ces conditions, nous 57CHAPITRE 3. ÉTAT DE L’ART obtenons une borne inférieure sur le nombre de messages nécessaires pour inonder un message RREQ, tel qu’utilisé par un protocole de routage réactif : N d . D’après la description de LOAD-ng, on peut estimer le nombre de messages RREQ générés pour découvrir une route depuis chaque compteur vers la passerelle à : N2 d . Pour chaque route découverte est généré un message RREP retransmis de proche en proche depuis la passerelle vers la source. En supposant que la route découverte est toujours celle de plus court chemin dans la topologie physique, le nombre moyen d’émissions par message RREP généré à la passerelle est 2 3 qN d 8 soit 2N 3 qN d pour l’ensemble des routes découvertes. Pour un réseau de 5000 nœuds et une densité moyenne de voisinage radio de 50, la découverte de l’ensemble des routes de la topologie nécessite de l’ordre de 500 000 messages de contrôle, l’équivalent de 100 jours de trafic applicatif pour une relève quotidienne de compteurs. 3.2.5 Protocoles à construction pro-active Les protocoles de routage à construction pro-active, e.g. [3], [62], [59] tirent partie de la connaissance a priori des destinations du trafic du réseau de façon à construire et maintenir, de manière optimisée, les routes permettant d’acheminer les trames de données. À l’instar de [3], [62], [59], etc., les protocoles à construction pro-active de la topologie privilégient une construction de la topologie initiée par les destinations, dans le cas d’un réseau de télé-relève de compteurs, la passerelle. Les topologies physiques ainsi construites prennent le plus souvent la forme d’un arbre, e.g. [59], ou d’un Graphe Acyclique Dirigé (DAG) à l’instar de RPL [3]. Afin d’illustrer cette famille de protocoles, nous présentons maintenant le protocole de routage RPL qui servira de protocole de référence dans le Chapitre 9. Routing Protocol for Low-power and Lossy Networks Le protocole Routing Protocol for Low-power and Lossy Networks RPL [3] est issu des travaux du groupe IETF ROLL [83]. RPL est un protocole IPv6 conçu et optimisé pour supporter le trafic dominant d’un réseau de télé-relève de compteurs, à savoir le trafic convergent des compteurs vers la passerelle. Pour cela, la topologie est initiée par les passerelles du réseau, nommées LBR 9. La construction de cette topologie est réalisée grâce à la diffusion de trames de contrôle appelées DODAG Information Objects (DIOs), émises par chaque nœud capable d’acheminer des trames de données pour autrui. Ces trames contiennent des informations sur la topologie de routage et une ou plusieurs métriques de performance caractérisant le chemin annoncé par le nœud en question. À la réception de ces dites trames, les nœuds du réseau choisissent les voisins dans la topologie de routage auxquels ils délèguent l’acheminement de leurs trames de données. Une fois ce choix fait, ils annoncent à leur tour un chemin vers la passerelle dans un DIO dont les métriques reflètent les performances du chemin annoncé. La topologie ainsi créée est un graphe acyclique dirigé orienté destination ou Destination Oriented Directed Acyclic Graph (DODAG) (voir Fig. 3.19) et optimisée d’après les critères de performance ou fonctions d’objectif retenus Objective Functions (OF), e.g. minimisation du nombre de retransmission, maximisation de la durée de vie, etc, dont des exemples sont fournis dans les documents compagons de la spécification de RPL [84]. La maintenance de la topologie ainsi construite est assuré par une diffusion des messages DIOs selon l’algorithme Trickle [85]. Trickle lie la fréquence d’envoi des trames de contrôle à la notion de consistance du réseau. Lorsque la topologie est stable, la fréquence d’envoi 8. Pour un nœud à une distance r de la passerelle, le nombre de sauts pour le joindre est donné par la formule R p1 ⇡ 0 2⇡rd q r d ⇡N edr ⇡ 2 3 qN d 9. Low power and lossy network Border Router 58CHAPITRE 3. ÉTAT DE L’ART Figure 3.19 – Graphe acyclique Dirigé : les liens en gras représentent les liens qui ont été ajouté à l’arbre de recouvrement pour constituer le DAG. Ces liens ajoutent de la redondance à la structure et offrent ainsi des chemins alternatifs dans l’éventualité d’une indisponibilité du lien primaire. des DIOs est progressivement diminuée jusqu’à atteindre un minimum prédéfini. Si un changement de topologie est opéré, par exemple un nœud change de parent dans la structure ou change de rang, alors la fréquence est réinitialisée à sa valeur maximale. De cette façon, RPL diminue sa consommation d’énergie lorsque la topologie est stable et permet de réagir rapidement en cas de changement topologique. Afin de comparer cette approche à la construction réactive de la topologie, considérons à nouveau un réseau de N nœuds déployés selon les hypothèses précédemment présentées et étudions le nombre de messages DIOs nécessaires à la construction de la topologie de routage. Conformément à la description de RPL, il suffit de N messages DIOs afin de permettre à l’ensemble des nœuds de joindre la racine, i.e. chaque ayant reçu au moins un DIO annonce une route menant à la passerelle 10. Pour un déploiement de N = 5000 nœuds et de densité de voisinage radio d = 50, 5000 messages de contrôle suffisent, contre environ 500 000 pour l’approche réactive. Pour un scénario de télé-relève de compteurs sans-fil, ce résultat suggère qu’une topologie construite de manière pro-active implique un trafic de contrôle et donc une dépense énergétique plus faible qu’une topologie construite de manière réactive. Cette observation nous incite donc à détailler les différentes familles de protocoles de routage pro-actifs et motive notre choix de proposer un protocole de routage pro-actif dans le Chapitre 9. À ce stade de l’étude, nous retenons les protocoles de routage à topologie plane construite de manière pro-active comme candidats pour une architecture de télé-relève de compteurs sur la base d’un réseau multi-sauts. Parmi cette famille de protocoles, on distingue trois sous-familles selon la nature de l’information utilisée pour construire la topologie : les protocoles à états de liens/nœuds, les protocoles à vecteur de distances et les protocoles à routage géographique. 10. Notons que N d messages suffisent à identifier une route pour chaque nœud si l’on suppose un protocole d’inondation optimal à l’instar de l’étude menée sur l’approche réactive. 59CHAPITRE 3. ÉTAT DE L’ART 3.2.6 Protocoles à états de liens/nœud Nous qualifions de protocole à état de liens/nœuds, tout protocole qui diffuse à l’échelle du réseau une information non agrégée, e.g. [62], [86]. Par cette approche, une connaissance globale de l’état du réseau est construite et cette connaissance exhaustive est utilisée afin d’optimiser les chemins de la topologie selon les critères de sélection retenus e.g. minimisation du délai de bout-en-bout. Le protocole HYDRO [62], proposé dans le cadre des travaux du groupe IETF ROLL [83] est un exemple de protocole à états de liens. HYDRO Le protocole Hybrid Routing for low-power and lossy networks (LLNs) [62] est un protocole à état de lien spécifiquement conçu pour opérer sur un réseau contraint en énergie présentant un médium de communication non fiable, à l’instar d’un réseaux de capteurs sans-fil. Dans un réseau implémentant le protocole HYDRO, les routeurs de bordure ou Border Routers(BRs), la passerelle dans notre scénario, construisent et maintiennent une vue globale de la topologie physique du réseau de capteurs. À cette fin, les nœuds du réseau transmettent à intervalle régulier des trames de contrôles appelées Topology Reports contenant la liste des voisins détectés. Cette liste est au préalable filtrée de façon à n’inclure que les liens dit fiables (mature dans la spécification). Chacune des entrées de la liste contient une évaluation de la qualité des liens selon le critère de performance ou le critère topologique retenu. Une fois cette information acheminée à la passerelle, cette dernière peut calculer les routes permettant à chaque nœud du réseau d’acheminer ses données. Ces routes sont ensuite communiquées aux nœuds du réseau au moyen de trames nommées Route Install Messages. À partir de l’information collectée et à l’instar de RPL [3], HYDRO construit une topologie en forme de graphe acyclique dirigé, Directed Acyclique Graph (DAG) de façon à diversifier les routes permettant l’acheminement des données et ainsi améliorer la connectivité du réseau. Cette description révèle deux limites à l’adoption d’une telle approche dans un réseau de télé-relève en milieu urbain : le volume d’information nécessaire à la construction de la topologie et le manque de pertinence d’une collecte exhaustive des vues de la topologie telles que perçue par chacun des nœuds. La première limitation est inhérente au volume de données que représente l’acheminement des tables de voisinage de chaque nœud à la passerelle. En supposant un réseau de N compteurs, un voisinage radio de densité d et en supposant par ailleurs que seul ↵% des voisins radios exhibent un lien stable , une telle approche nécessite la collecte de l’ordre de N↵d entrées de tables de routages. Sur la base du scénario précédemment utilisé, i.e. réseau de 5000 nœuds, de densité du voisinage radio égale à 50 et en supposant un taux de liens fiables de 17% 11, une telle approche nécessite la collecte de l’ordre de 40 000 entrées de table de routage. En estimant chaque entrée à 200 bits environ, e.g. deux adresses compressées et une métrique de performance, cela représente environ 14 000 trames applicatives à chaque rafraîchissement des informations de topologie, ou l’équivalent du volume de données de 3 jours d’activité du réseau. La seconde limitation a trait à la part utile d’information de ce qui est collecté. Cette information représente en effet l’ensemble des liens fiables de la topologie et seul un sousensemble s’avère utile à l’acheminement des données. Nous estimons cette part utile en évaluant le nombre de liens utiles à la construction d’un arbre de recouvrement sur la topologie précédemment étudiée. Pour une telle topologie, il suffit de N liens pour rattacher 11. Nous montrons dans le Chapitre 9 que seulement 17% des liens de la topologie ARESA présente une espérance de succès de plus de 90%. 60CHAPITRE 3. ÉTAT DE L’ART tous les nœuds. En supposant la présence de liens redondants à l’instar d’un graphe acyclique dirigé, e.g. k parents en moyenne par nœud de la topologie, le nombre de liens utiles est donc kN. Il suffit donc de 2kN entrées pour les caractériser de manière bidirectionnelle. En considérant deux liens redondants par nœuds, il suffit donc de 20 000 entrées. Compte tenu de ces observation, nous proposons maintenant d’étudier les alternatives aux protocoles à état de lien : les protocoles à vecteur de distance et les protocoles à coordonnées géographiques. 3.2.7 Protocoles à vecteur de distance Les protocoles à vecteur de distance, e.g. [3], [59], [82], [87], [88], [89], [90], proposent quant à eux que chaque nœud du réseau diffuse une représentation agrégée de la topologie sous forme de vecteurs de distance, chacune des coordonnées du vecteur étant une distance à une destination donnée. Ainsi, contrairement aux protocoles à états de liens, les protocoles à vecteur de distance se contentent d’un envoi périodique du vecteur de distances réduisant de fait le volume de trafic de contrôle. Nous avons déjà présenté un tel protocole de routage afin de décrire la famille à construction pro-active, à savoir le protocole RPL [3]. Nous présentons ici le protocole Collection Tree Protocol [59] et focalisons notre analyse sur la nature de l’information propagée. CTP À l’instar de RPL, CTP initie la construction de la topologie par la passerelle. À cette fin, celle-ci diffuse des trames de contrôle contenant une métrique de chemin. Cette métrique, nommée ETX [91], ou Expected number of Transmission, représente l’espérance sur le nombre de transmissions nécessaires afin de transmettre avec succès un message sur le chemin annoncé. Chaque nœud entendant ces trames évalue la qualité du lien avec l’émetteur de la trame de contrôle selon la métrique ETX. La formule utilisée dépend de la probabilité de succès du lien, évaluée sur le trafic de contrôle et/ou de données : ETX = P1 i=1 iP DR(1 ! PDR)i#1 = 1 PDR ou PDR (Probability Delivery Ratio) repré- sente la probabilité de livraison sur le lien. À partir de cette métrique de lien et de la métrique de chemin annoncée dans la trame de contrôle, chaque nœud calcule sa propre métrique de chemin. Cette métrique représente la concaténation du chemin annoncé et du lien permettant de joindre l’émetteur de la trame. Dans CTP, cette métrique est additive, i.e. la métrique agrégée, issue de la concaténation du chemin et du lien, est obtenue par addition de la métrique de lien et de la métrique de chemin. Cette description permet d’identifier la propriété fondamentale d’un protocole à vecteur de distance : seule une information agrégée est diffusée à l’échelle du réseau, les métriques propres à chaque lien n’étant évaluées et utilisées que localement à un nœud. Au contraire des protocoles à états de liens qui nécessitent N↵d informations sur les liens, un protocole à vecteur de distance se suffit d’une métrique par chemin, soit kN informations si les chemins sont évalués de manière unidirectionnelle ou 2kN si évalués de manière bidirectionnelle 12. D’après ces observations, nous constatons qu’une diffusion agrégée de l’information permet de réduire significativement le trafic de contrôle nécessaire dans le cadre d’une application de télé-relève de compteurs. Ce constat, en accord avec les observations faites sur les protocoles à états de liens et les conclusions tirées par le groupe de travail IETF ROLL [83], nous incite donc à privilégier les protocoles à vecteur de distance aux protocoles à états de liens pour une application de télé-relève de compteurs sans-fil. Afin de conclure sur le type d’information à privilégier dans le cadre d’une application de télé-relève de 12. À l’instar du paragraphe précédent, k représente le nombre moyen de chemins utilisés par nœud 61CHAPITRE 3. ÉTAT DE L’ART compteurs sans-fil, nous étudions maintenant la dernière famille de protocoles identifiée précédemment : les protocoles à coordonnées géographiques. 3.2.8 Protocoles à coordonnées géographiques Alors que les protocoles à état de lien et à vecteur de distances nécessitent une diffusion à l’échelle du réseau des informations de topologie, les protocoles à routage géographique se suffisent d’une information de voisinage des nœuds, typiquement diffusée sous forme de trames de contrôles appelées hello, et de la connaissance des positions des nœuds et des destinations. Ces connaissances sont ensuite utilisées afin de déterminer le chemin qui doit être suivi par une trame de façon à progresser vers la destination. Ces protocoles se divisent en trois catégories : les protocoles à coordonnées géographiques physiques, à coordonnées géographiques relatives et à coordonnées virtuelles. 3.2.8.1 Protocoles à coordonnées géographiques physiques Les protocoles à coordonnées géographiques physiques [66], [63], [92] supposent que chaque nœud connait sa position géographique, celles des nœuds voisins et de la destination (passerelle). Dans ces conditions, chaque nœud est capable de d’évaluer la distance physique de ses nœuds voisins à la destination et utilise cette information pour acheminer les trames de données. Greedy Geographic Routing Dans sa forme la plus simple, un protocole à coordonnées géographiques physiques est dit géographique glouton (Greedy Geographic Routing protocol) [66]. Lorsqu’un nœud reçoit une trame de données, il le relaie par l’intermédiaire de son voisin le plus proche de la destination, comme l’illustre la Figure 3.20. Dans cet exemple, le nœud A souhaite délivrer une trame au nœud D. A choisit parmi ces voisins B1 ! 4 le destinataire le plus proche de la destination, ici B3. Ce processus se répète jusqu’à la délivrance de la trame. Figure 3.20 – Protocole Géographique Glouton L’intérêt d’une telle méthode réside dans le peu d’information nécessaire afin de réaliser le routage. Il suffit en effet que chaque nœud découvre son voisinage radio. Pour cela, il suffit d’un envoi d’une trame de contrôle par nœud, soit N trames de contrôle pour construire la topologie de routage. 62CHAPITRE 3. ÉTAT DE L’ART GFG et LeftHandGeoPR Ce schéma de routage est cependant insuffisant pour un usage dans les réseaux de capteurs urbains qui présentent des zones vides (void) de capteurs : par exemple un parc ou un square. Comme le montre la Figure 3.21, l’acheminement des données selon un tel protocole peut échouer. Dans ce nouvel exemple, le nœud A souhaite délivrer une trame au nœud E. Le déroulement de l’algorithme glouton l’amène à transmettre le message à B qui le transmet à son tour à C. C ne possède aucun voisin qui ne soit plus proche que lui de la destination, l’algorithme glouton échoue donc. Figure 3.21 – Le routage géographique glouton : échec de l’acheminement en présence de zones non couvertes par des capteurs Le protocole Greedy Face Greedy (GFG) [63] propose une solution à ce problème basée sur une technique de planarisation du graphe de connectivité [93]. Lorsqu’un nœud est plus proche de la destination que l’ensemble de ces voisins, choisit le prochain saut parmi les liens du graphe de connectivité selon la règle de la main gauche, permettant ainsi de contourner les zones vides. Cette approche repose cependant sur deux hypothèses peu réalistes dans le cadre d’un déploiement de réseau urbain de capteurs : la connaissance des positions géographiques exactes des nœuds et d’un graphe de communication de type unit disk graph (UDG), i.e. la portée de communication entre deux nœuds ne dépend que de la distance. Afin de relâcher la première hypothèse, le protocole LeftHandGeoPR [93] propose de substituer l’étape de planarisation d’un graphe par le mécanisme suivant. À chaque émission, l’identifiant du nœud émetteur est enregistré dans l’entête de routage de la trame en question. Sur la base de cette information, chaque nœud du chemin applique un jeu de trois règles de routage afin contourner les zones vides de nœud. Ces trois règles : "ne 63CHAPITRE 3. ÉTAT DE L’ART jamais envoyer une trame à un voisin à qui la trame a déjà été envoyée", "renvoyer la trame à un voisin uniquement si c’est le seul voisin à qui le nœud n’a pas transmis cette trame" et "s’il y a plusieurs choix de voisins à qui renvoyer une trame, la renvoyer à celui qui l’a envoyée en dernier" réalisent un parcours en profondeur du graphe de connectivité, permettant ainsi de découvrir un chemin jusqu’à la destination souhaitée. 3.2.8.2 Protocoles à coordonnées géographiques relatives Les protocoles à coordonnées géographiques relatives proposent de relâcher davantage l’hypothèse de connaissance des coordonnées géographiques physiques des nœuds. Ces protocoles, e.g. [64], [65], [94], [95], [96], [97], proposent de déployer un nombre restreint de nœuds ancres, dont la position géographique est connu et d’exprimer les coordonnées de chaque nœud du réseau selon les distances relatives à chacune de ces positions de réfé- rence. Nous observons ici que cette approche s’apparente donc à un protocole à vecteur de distances, en particulier lorsque le seul nœud ancre est la passerelle. De cette observation, nous déduisons que le trafic de contrôle engendré par une telle approche est similaire en volume à une approche à vecteur de distances. Celle-ci nous interpelle également sur le choix de l’expression de la relation de proximité entre nœuds du réseau par l’usage de la distance euclidienne, c’est à dire la distance physique qui sépare les nœuds. En effet, comme illustré dans les Chapitres 2 et 9 (en particulier par la Figure 9.1), les probabilités de réalisation des liens et leurs distances respectives ne présentent qu’une faible corrélation pour des distances supérieures à 50m. Ainsi, la distance du lien considéré nous donne que peu d’information sur la fiabilité de celui-ci. 3.2.8.3 Protocoles à coordonnées géographiques virtuelles Faisant ce même constat, les protocoles géographiques à coordonnées virtuelles [98], [99] proposent de s’affranchir complètement de l’usage des coordonnées physiques des nœuds, en leur substituant des coordonnées virtuelles. Ces coordonnées virtuelles, calculées lors de la phase d’initialisation du réseau, sont utilisées de la même façon que les coordonnées physiques. 3-rules Routing Le protocole 3rules-Routing [98] propose ainsi que les coordonnées des nœuds capteurs soient initialisées à des valeurs aléatoires à l’exception de la passerelle qui reçoit les coordonnées (0, 0). Chacun des nœuds autres que la passerelle mettent à jour leurs coordonnées en fonction des coordonnées des voisins perçus selon la formule du barycentre. Ces coordonnées sont alors utilisées par un protocole de routage géographique tel que décrit dans [93]. Ici encore, nous sommes frappés par la similitude de la proposition avec les protocoles à vecteur de distances. On constate que la seule information pertinente diffusée dans le réseau est le couple de coordonnées de la passerelle. En effet, les coordonnées de chacun des nœuds dépend d’une part de coordonnées choisies aléatoirement, donc n’apportant pas d’information utile sur la topologie, et des coordonnées de la passerelle, diffusées de proche en proche sous forme agrégée (somme de coordonnées pondérées). Nous constatons également que les composantes du couple de coordonnées jouent un rôle symétrique dans la formule du barycentre, i.e. x0 = P noeuds voisins xvoisin nombre voisins et y0 = P noeuds voisins yvoisin nombre voisins ainsi que dans la formule d’évaluation de l’avancement vers la destination, basée sur la formule de la distance euclidienne d = p(xnoeud ! xdestination)2 + (ynoeud ! ydestination)2. Ce constat suggère donc qu’une unique coordonnée par nœud, e.g. un scalaire, pourrait être substituée à un couple de coordonnées tel qu’utilisé par les protocoles à coordonnées géographiques, 64CHAPITRE 3. ÉTAT DE L’ART auquel cas, si prouvé, un protocole à coordonnées géographiques virtuel serait une sousfamilles des protocoles à vecteur de distance. Compte tenu de ces observations et des caractéristiques d’un réseau de télé-relève de compteurs gaz/eau, nous privilégions l’implémentation d’un protocole de routage à vecteur de distances plutôt qu’un protocole de routage à coordonnées géographiques. Nous notons en effet que les protocoles de routage à coordonnées géographiques reposent sur deux hypothèses qui limitent l’intérêt de l’approche dans un tel scénario : la connaissance des positions géographiques exactes des nœuds et un graphe de communication de type unit disk graph (UDG). Nous notons également que les tentatives de relaxation de la première hypothèse impliquent des mécanismes similaires à un protocole à vecteur de distance et constatons que l’hypothèse de modèle de propagation ne permet pas de prendre en considération la variabilité des conditions de propagation de l’environnement urbain. À ce stade de l’étude, nous recommandons donc un protocole de routage à topologie plane construite pro-activement selon un mécanisme d’évaluation des chemins à vecteur de distances. Afin de finaliser la caractérisation du plan de données auquel doit se conformer une implémentation suivant nos recommandations, nous proposons une discussion sur le type de critère utilisé pour choisir les liens de la topologie. 3.2.9 Critères de sélection des éléments de la topologie Dans la Section précédente, nous avons argumenté le choix d’une implémentation d’un protocole à vecteur de distances plutôt qu’un protocole à état de liens ou à coordonnées géographiques. De fait, l’information disponible à chaque nœud au moment de la construction de la topologie consiste en une information agrégée. À l’instar du protocole GRAB [88], cette information peut être de nature topologique agrégée, e.g. le nombre de sauts du chemin annoncé, ou représentative de la performance agrégée des chemins, e.g. ETX [59]. Compte tenu de l’expression des exigences de Qualité de Service des applications présentées dans le Chapitre 2, nous privilégions des critères de décision basés sur les performances des chemins, en particulier ceux exprimées dans les mêmes termes que les exigences de Qualité de Service, i.e. taux de livraison et délai de bout en bout. Par ailleurs nous privilégions les métriques liées à la fiabilité des chemins, i.e. le PDR (Probability Delivery Ratio), l’ETX et le RSSI, toutes trois présentées précédemment. Ce choix est motivé par deux résultats. Nous montrons tout d’abord, dans le Chapitre 6, que le dimensionnement du cycle d’activité suffit à assurer le respect des exigences en termes de délai de livraison. Par ailleurs, dans l’hypothèse où les exigences de délai de bout en bout seraient durcies, nous montrons dans le Chapitre 9 qu’il est possible de répondre conjointement à des exigences de taux de livraison et de délai en adoptant un processus d’acheminement opportuniste sur la base d’une topologie construite de façon à répondre à des exigences de fiabilité de liens. Afin de conclure la description des différentes familles de protocoles proposées dans notre taxonomie des protocoles de routage, nous présentons maintenant une classification des protocoles de routage selon la nature du mécanisme de décision utilisé dans le plan de données. Nous distinguons ainsi les protocoles à décision de routage par l’émetteur et les protocoles à décision de routage par le récepteur. 3.2.10 Protocoles à décision de routage par l’émetteur Ces protocoles, e.g. [3], [59], [60], constituent la grande majorité des protocoles de routage proposés pour réseaux de capteurs sans-fil. À l’instar du protocole RPL [3], pré- cédemment présenté, le nœud détenteur d’une trame de données décide et spécifie dans l’entête de la trame l’identité du nœud de la topologie de routage en charge de la suite de 65CHAPITRE 3. ÉTAT DE L’ART l’acheminement. Cette approche suppose donc que les nœuds ainsi désignés sont en mesure de recevoir et d’acheminer la trame jusqu’à la destination. En conséquence, et comme nous le verrons dans le Chapitre 9, un tel protocole ne peut exploiter que les liens les plus fiables, sous-exploitant de fait la connectivité offerte par la topologie radio. Néanmoins, une telle approche présente une implémentation simple et s’avère un standard de fait compte tenu du nombre d’implémentation l’ayant adoptée. Pour ces raisons, le protocole de référence que nous avons choisi pour nos études appartient à cette catégorie. 3.2.11 Protocoles à décision de routage par le récepteur Au contraire des protocoles à décision de routage par l’émetteur, les protocoles à dé- cision de routage par le récepteur délèguent la décision de prise en charge des trames aux nœuds récepteurs. Le protocole ExOR [67], présenté ci-dessous, en est un exemple repré- sentatif. ExOR Le protocole Extremely Opportunistic Routing (ExOR) [67] propose en effet que chaque source mémorise une liste de nœuds intermédiaires permettant d’acheminer leurs trames jusqu’à la destination. Cette liste, ordonnée selon la proximité à la destination est incluse dans les entêtes de routage des trame de données, transmises sur le médium radio avec une adresse MAC broadcast. À la réception d’une trame de données, un nœud détermine s’il est inclus dans cette liste. Le cas échéant, il programme une retransmission de la trame selon un ordonnancement dicté par l’ordre des entrées dans la liste. Si la même trame est retransmise avant la date planifiée, il abandonne sa transmission. Ce schéma de communication est appelé opportuniste en raison de l’ordonnancement des transmissions des nœuds selon leur ordre de rediffusion. Il favorise en effet une progression rapide de l’acheminement dans la topologie de routage, les nœuds les plus proches de la destination ayant une priorité de retransmission plus grande que les nœuds les plus lointains. Il améliore également le taux de livraison des trames de données. Au contraire des protocoles à décision de routage par l’émetteur, il exploite simultanément plusieurs liens de la topologie de routage, augmentant ainsi la probabilité qu’au moins l’un des nœuds de la topologie de routage reçoive la trame en question. Cette approche présente néanmoins une contrepartie qui en limite l’adoption pour un usage dans un réseau de capteurs : la duplication de paquets. En effet, par cette approche, l’ensemble des nœuds présents dans la liste d’acheminement est susceptible de retransmettre une nouvelle copie de la dite trame. Dans l’exemple d’ExOR, il suffit pour cela que les nœuds de la liste forment deux ensembles disjoints, i.e. il existe un nœud de l’ensemble qui n’entend aucun autre des autres nœuds de la liste, pour générer des paquets dupliqués et donc gaspiller des ressources de communication et l’énergie des nœuds du ré- seau. Nous montrons en revanche dans le Chapitre 9 que ce problème peut être surmonté et qu’une telle approche permet une amélioration significative du taux de livraison, du délai de bout en bout et de la consommation d’énergie. Pour cette raison, nous présentons une étude approfondie de ce type de protocoles dans le Chapitre 9. 3.2.12 Synthèse sur les protocoles de routage pour réseaux urbains de capteurs sans-fil Nous venons de proposer une taxonomie des protocoles de routage classifiant les protocoles de routage selon les approches utilisées pour construire la topologie de routage et choisir le ou les nœuds permettant l’acheminement des trames de données. Nous avons 66CHAPITRE 3. ÉTAT DE L’ART ensuite décrit chacune des familles de protocoles identifiées et argumenté le choix des caractéristiques souhaitées d’un protocole de routage permettant de répondre aux exigences d’une application de télé-relève de compteurs sans-fil en milieu urbain. D’après cette étude, nous privilégions ainsi les protocoles de routage dont le plan de contrôle présente les propriétés suivantes : topologie plane, construite pro-activement par diffusion selon un algorithme à vecteur de distances sur la base d’un critère de performance basé sur la fiabilité des chemins à la passerelle. Nous privilégions par ailleurs un plan de données dont les décisions d’acheminement dans la topologie sont réalisées par le récepteur. Afin de conclure cet état de l’art des protocoles de communication pour réseaux urbains de capteurs sans-fil, nous rappelons les différentes architectures de réseau de collecte et synthétisons notre analyse sous forme de recommandations selon l’architecture considérée. 3.3 Synthèse de l’état de l’art Comme décrit dans le Chapitre 1, les réseaux de capteurs sans-fil urbains présentent la particularité de se décliner en deux architectures selon la technologie radio employée : les réseaux de télé-relève à radio longue portée et les réseaux multi-sauts. Nous synthétisons donc ici cette étude de l’état de l’art au regard de ces deux architectures et de leurs implications sur les protocoles de contrôle d’accès au médium et de routage. 3.3.1 Protocoles pour réseaux de télé-relève à radio longue portée D’après le Chapitre 1, les réseaux de télé-relève à radio longue portée se distinguent par leur topologie physique en étoile. Le but d’un tel choix d’architecture est, entre autres, de limiter le trafic de contrôle, de simplifier l’implémentation de pile protocolaire et donc de s’affranchir de l’usage d’un protocole de routage. En contrepartie, les communications de capteur à capteur ne sont garanties que lors d’une communication avec la passerelle. et les mécanismes d’évitement de collision à base de détection de transmission par contention sont inopérants. Compte tenu de ces propriétés, les protocoles d’accès à base de contention ou de signalisation par l’émetteur sont à proscrire. Les protocoles à accès direct, dérivés d’ALOHA, sont en revanche particulièrement indiqués. En effet, dans ce type de protocoles, la majeure partie du coût énergétique dédié à la communication est supportée par le récepteur, dans notre scénario la passerelle, et l’émetteur se contente de transmettre ses trames de données et éventuellement de se synchroniser sur l’horloge de la passerelle. Nous fournissons l’étude de ces protocoles et la comparaison de leurs performances en terme de taux de livraison et de consommation d’énergie dans le Chapitre 6. Enfin nous proposons un protocole de relayage simple permettant d’assurer la connectivé de l’ensemble des nœuds de la topologie dans le Chapitre 8. 3.3.2 Protocoles pour réseaux de télé-relève multi-sauts Les réseaux multi-sauts de capteurs sans-fil urbains se basent quant à eux sur une coopération des nœuds capteurs pour acheminer les trames de données vers leur destinataire. Ce choix permet d’opérer le réseau sur des radios à plus haut débit mais également à plus courte portée et implique l’usage d’un protocole de routage. 3.3.2.1 Protocoles de contrôle d’accès au médium Dans cette configuration, les mécanismes d’arbitrage à l’accès à base de contention semblent être de bons candidats pour une implémentation de protocole de routage. Afin 67CHAPITRE 3. ÉTAT DE L’ART de départager les protocoles d’accès synchrones et asynchrones en fonction du volume du trafic à supporter, nous proposons une étude du coût de synchronisation dans le Chapitre 4. Nous proposons par la suite, dans le Chapitre 5, une étude des mécanismes de contention afin d’identifier le/s algorithmes répondant aux exigences de Qualité de Service et de durée de vie d’une application de télé-relève de compteurs. Enfin, sur la base d’une topologie de routage telle qu’obtenue par un protocole à vecteur de distances, nous argumentons le choix du type d’architecture en fonction du volume de trafic supporté dans le Chapitre 6. Nous proposons par ailleurs un protocole de contrôle d’accès basé sur les recommandations issue de l’analyse de l’état de l’art et des études proposés dans le Chapitre 7. 3.3.2.2 Protocoles de routage Suite à notre étude des protocoles de routage pour l’architecture multi-sauts de télé- relève de compteurs, nous recommandons l’usage d’un protocole de routage à vecteur de distance basé sur une topologie de routage plane, construite pro-activement et utilisant un critère de performance agrégé. Nous identifions également le potentiel de l’approche de routage opportuniste afin de répondre aux exigences de livraison des applications cibles. Cette piste est développée dans le Chapitre 9. 68Deuxième partie Une étude analytique sur le choix et le dimensionnement de l’architecture et des protocoles pour réseaux urbains de capteurs sans-fil 69CHAPITRE 4 Protocole d’accès au mé- dium radio et dimensionnement : accès synchrone ou asynchrone ? 4.1 Introduction Dans le Chapitre 3, nous avons identifié deux familles de protocoles de contrôle d’accès au médium susceptibles de répondre aux exigences d’un réseau multi-sauts de télé-relève de compteurs sans-fil. Pour de faibles trafics, nous privilégions l’usage d’un protocole de contrôle d’accès au médium par contention et synchronisation réactive. Pour les trafics forts, nous conseillons l’usage d’un protocole de contrôle d’accès au médium par contention et synchronisation pro-active. Nous dérivons maintenant le coût énergétique induit par ces deux méthodes de synchronisation et en dérivons les domaines d’application de chacune en fonction du trafic applicatif supporté par le réseau. Nous adoptons pour cela la démarche suivante. Nous expliquons dans un premier temps la dépendance d’une communication entre nœuds capteurs à la synchronisation de leurs horloges. Nous présentons ensuite une classification des différents mécanismes canoniques de synchronisation et présentons les protocoles de la littérature selon la classification retenue. Nous étudions l’adéquation de chacune des familles présentées à l’architecture du réseau, longue portée ou multi-sauts. De cette étude, nous dérivons un protocole de synchronisation minimisant le temps d’écoute des nœuds synchronisés et étudions son optimalité. Une fois ce modèle exposé, nous discutons son implémentation et comparons la consommation d’un protocole de contrôle d’accès synchrone implémentant ce modèle à un protocole de contrôle d’accès asynchrone idéal. Enfin, nous déduisons de ces résultats les domaines d’intérêt de chaque méthode d’accès, synchrone et asynchrone. 4.2 Dépendance des communications à la synchronisation Cette section s’attache à identifier la dépendance de l’établissement d’une transmission à la synchronisation des horloges des nœuds et discute les méthodes canoniques de synchronisation d’horloges dans un système distribué. Les nœuds constitutifs d’un réseau de capteurs exécutent un ensemble de tâches élé- mentaires parmi lesquelles : "alimenter le circuit radio", "basculer la radio en état de transmission", "transmettre une trame", "éteindre le circuit radio", etc. à des instants prédéfinis dans le temps. La spécification des actions réalisées, leurs enchaînements sont définis par les protocoles de communication retenus. Ces protocoles de communication reposent sur la réalisation concurrente, séquentielle voire simultanée de tâches par les nœuds en communication. L’orchestration de ces tâches réparties sur différents nœuds nécessite et présuppose une référence de temps commune entre nœuds en communication. La notion de temps interne à un nœud capteur est fournie par un composant électronique, l’oscillateur à cristal de quartz, qui fournit une pulsation à une fréquence de référence. Un compteur, bien souvent un registre, est incrémenté à une fréquence diviseur 71CHAPITRE 4. PROTOCOLE D’ACCÈS AU MÉDIUM RADIO ET DIMENSIONNEMENT : ACCÈS SYNCHRONE OU ASYNCHRONE ? de la fréquence de référence et fait office de date courante pour le nœud capteur. Même calibré, un oscillateur à cristal de quartz exhibe une dérive de sa fréquence de résonance au cours du temps. Cette dérive peut être issue d’une variation de sa géométrie, par exemple lorsque sa température fluctue ou par vieillissement. Cette dérive, couramment exprimée en ppm (parties par millions) se situe entre 5 ppm et 100 ppm selon la qualité du quartz. De fait, les références de temps des nœuds capteurs divergent et entraînent un décalage entre un instant exprimé dans la base de temps d’un nœud et celle d’un autre. Ce décalage peut entraîner un fonctionnement erratique des protocoles de communication, comme illustré par la Figure 4.1. Dans cet exemple, les nœuds N1 et N2 se sont préalablement accordés sur une transmission de N1 vers N2 à l’instant t. Cependant cet instant t est défini localement dans chacune des bases de temps de N1 : t1 et N2 : t2, lesquelles présentent un décalage en raison de la dérive en fréquence des oscillateurs à cristal de quartz. Du fait de ce décalage, N1 transmet alors que N2 n’a pas encore activé le mode de réception de sa radio et la transmissions échoue. Figure 4.1 – Exemple de fonctionnement erratique d’un protocole de communication en présence d’un décalage de la base de temps des nœuds. Comme l’illustre la Figure 4.2, deux solutions canoniques existent pour pallier à un décalage des horloges : augmenter la durée de transmission par l’ajout d’un préambule ou allonger la période d’écoute. Préambule avant transmission La première solution consiste à précéder l’émission de la trame de données par un signal d’annonce de l’émission : à la réception de ce signal, le nœud destinataire prolonge son écoute jusqu’à la réception de la donnée. Afin de garantir la réception de la trame de données, ce préambule doit garantir la couverture de l’intégralité la période de temps pendant laquelle le nœud récepteur peut se réveiller. Soit 2D la dérive en temps maximale (en valeur absolue) entre les horloges des nœuds capteurs, le préambule doit être de taille minimale 2D et centré sur l’instant t1. Allongement de la période d’écoute La seconde solution consiste à augmenter le temps d’écoute du nœud récepteur, de façon à ce qu’il couvre intégralement la période pendant laquelle la transmission peut avoir lieu. Similairement à la première solution, si 2D est la dérive maximale en valeur absolue entre les horloges des nœuds capteurs, la période doit être augmentée d’une durée 2D couvrant D unités de temps avant t2 et D unités de temps après la fin de la transmission telle que prévue par le récepteur. Lien avec les protocoles d’accès asynchrones Nous notons ici que ces deux méthodes sont en fait à l’origine des deux mécanismes canoniques de contrôle d’accès asynchrone. Les 72CHAPITRE 4. PROTOCOLE D’ACCÈS AU MÉDIUM RADIO ET DIMENSIONNEMENT : ACCÈS SYNCHRONE OU ASYNCHRONE ? Figure 4.2 – Solutions palliatives au décalage d’horloges. protocoles à échantillonnage de préambule [25], [44] font en effet l’usage d’un ou d’une succession de préambules dont la durée est égale ou supérieure à la période du cycle d’activité radio. Cette durée est ici dictée par le décalage en temps maximum entre deux nœuds capteurs, à savoir la période du cycle d’activité. Ces protocoles s’apparentent donc à la solution 1 décrite par la Fig.4.2. Les protocoles initiés par le récepteur, e.g. [38], utilisent quant à eux la solution 2 : les émetteurs écoutent le medium en attente d’une trame annonçant la disponibilité du destinataire. Synchronisation pro-active des horloges et consommation d’énergie Ces solutions palliatives à l’existence d’un décalage d’horloges nécessitent de la part des nœuds capteurs d’augmenter la durée d’activité de leur radio et entraînent de fait une surconsommation d’énergie. Il convient donc d’identifier les mécanismes de synchronisation d’horloges pour réseaux de capteurs et d’estimer leur coût énergétique. Afin de répondre à cet objectif nous présentons une taxonomie des mécanismes de synchronisation, illustrée par des exemples de protocoles. Nous étudions ensuite leur applicabilité dans le cadre d’un réseau de capteurs urbains. À partir de cette étude, nous identifions le mécanisme de synchronisation optimal vis à vis de la consommation d’énergie pour un réseau à radio longue portée et proposons une extension du schéma aux réseaux multi-sauts. 73CHAPITRE 4. PROTOCOLE D’ACCÈS AU MÉDIUM RADIO ET DIMENSIONNEMENT : ACCÈS SYNCHRONE OU ASYNCHRONE ? 4.3 Taxonomie des protocoles de synchronisation d’horloge pour réseaux de capteurs À l’instar des états de l’art sur les protocoles de contrôle d’accès au médium et de routage, nous adoptons pour cette taxonomie une démarche de classification des modèles de synchronisation basée sur les rôles attribués aux nœuds du réseau et à la nature des échanges d’information. 4.3.1 Modèles de synchronisation distribué et hiérarchique Les protocoles de synchronisation d’horloges se divisent en deux catégories selon leur manière de propager l’information permettant la synchronisation des nœuds. Nous distinguons ainsi les protocoles distribués et les protocoles hiérarchisés. Synchronisation distribué Dans le schéma de synchronisation distribué [23], [35], [100], [101], [102], [103], [104], les nœuds capteurs échangent les dates de leurs horloges de manière ad-hoc ou par diffusion tel qu’illustré par la Figure 4.3. Cette information est ensuite utilisée en entrée d’un algorithme de consensus permettant aux nœuds de calculer une référence de temps qui converge vers une date commune après plusieurs itérations. Les propriétés fondamentales d’un tel protocole sont : – la synchronisation temporelle des nœuds du réseau ne dépend d’aucune référence externe de temps. – La date vers laquelle converge l’algorithme de consensus peut différer de manière significative d’une horloge de référence telle que celle fournie par un serveur NTP (Network Time Protocol), il n’y a donc pas de garantie sur la valeur de la date. Figure 4.3 – Modèle de synchronisation distribuée : les nœuds capteurs échangent la date de leur horloge et exécute un algorithme de consensus leur permettant de s’accorder sur une date commune. Synchronisation hiérarchique Dans le schéma de synchronisation hiérarchique [105], [106], [107] une ou plusieurs horloges de références sont supposées disponibles dans le réseau. Les nœuds en possession de ces horloges de référence diffusent la date de référence à leurs voisins qui la propagent à leur tour. Les propriétés fondamentales d’un tel schéma sont : 74CHAPITRE 4. PROTOCOLE D’ACCÈS AU MÉDIUM RADIO ET DIMENSIONNEMENT : ACCÈS SYNCHRONE OU ASYNCHRONE ? – Certains nœuds du réseau sont supposés avoir accès à une horloge de référence, par exemple un capteur équipé d’un récepteur GPS, une passerelle connectée à un serveur NTP, etc. – Une hiérarchie des dispositifs est supposée concernant la précision de l’horloge de référence. – Les horloges des nœuds capteurs convergent vers la date annoncée par les nœuds de référence. Figure 4.4 – Modèle de synchronisation hiérarchique, exemple : (1) un serveur NTP fournit une horloge de référence aux passerelles du réseau. (2) Les passerelles diffusent la date de référence aux nœuds du réseau. (3) Les nœuds capteurs synchronisent leur horloge sur la date annoncée par la passerelle à laquelle ils sont rattachés. 4.3.2 Modèles de synchronisation unidirectionel et bidirectionel Les modèles de synchronisation peuvent également être classifiés selon la nature des échanges entre nœuds capteurs : échange unidirectionnel ou bidirectionnel. Dans le modèle bidirectionnel [100], [101], [102], les nœuds capteurs effectuent des transactions en deux étapes. De telles transactions permettent d’estimer les délais de propagation et rendent possibles les mécanismes de coopération tels qu’utilisés dans les algorithmes à consensus, au prix d’une consommation d’énergie plus importante que le modèle unidirectionnel. 4.3.3 Modèles de synchronisation locale et globale Finalement, les modèles de synchronisation peuvent être classifiés selon les contraintes sur l’intervalle de confiance et la précision des dates au sein du réseau. Dans le modèle de synchronisation global [105], [106], [107], l’objectif est de synchroniser l’intégralité du réseau sur une date de référence moyennant un intervalle de confiance commun pour l’ensemble du réseau. Dans le modèle de synchronisation locale, cette contrainte est relâchée et ne s’applique que pour un voisinage radio. 75CHAPITRE 4. PROTOCOLE D’ACCÈS AU MÉDIUM RADIO ET DIMENSIONNEMENT : ACCÈS SYNCHRONE OU ASYNCHRONE ? 4.4 Adéquation des modèles de synchronisation aux réseaux de capteurs urbains L’applicabilité des différents schémas de synchronisation dépend de la nature du réseau et des applications associées. Les protocoles hiérarchiques sont particulièrement indiqués lorsque le réseau est connecté à une infrastructure fournissant une horloge de référence ou lorsqu’un marquage temporel des trames de données est nécessaire. En revanche, lorsque le réseau est détaché de toute infrastructure et qu’aucune horloge de référence n’est disponible, le modèle de synchronisation distribuée est plus pertinent. Tel que discuté dans la section 4.3.2, les schémas de synchronisation bi-directionnels permettent quant à eux d’estimer le temps de vol entre deux nœuds capteurs et permettent, dans l’absolu, une plus grande précision de synchronisation. Cette précision est cependant obtenue au prix d’un protocole plus complexe et d’un coût énergétique plus élevé. Enfin, les schémas de synchronisation locale et globale ne diffèrent que par la contrainte sur la précision de la synchronisation. Les schémas de synchronisation locale garantissent une précision donnée dans un voisinage radio alors que les schémas de synchronisation globale garantissent une précision de synchronisation à l’échelle du réseau. Afin de caractériser la nature du mé- canisme de synchronisation à privilégier pour une application de télé-relève de compteurs en milieu urbain, nous identifions maintenant les principales caractéristiques des deux architectures retenues pour une application de télé-relève de compteurs en milieu urbain et étudions leur implication sur le choix d’un protocole de synchronisation. Réseau de télé-relève à radio longue portée Dans un réseau de télé-relève à radio longue portée, comme décrit dans le Chapitre 2, les nœuds capteurs sont reliés directement à la passerelle par l’usage de radio longue portée et bas débit. Les nœuds capteurs transmettent donc leurs trames de données directement à la passerelle. On suppose dans ces déploiements qu’un signal transmis par la passerelle est entendu de l’ensemble des nœuds capteurs déployés et que celle-ci est connectée à une horloge de référence fiable, par exemple un serveur NTP. La passerelle est donc supposée fournir une source de temps fiable sur laquelle se synchronisent les nœuds capteurs. Cette description nous incite donc à privilégier un modèle de synchronisation hiérarchique simple dans lequel la passerelle émet un signal de synchronisation sur lequel chaque nœud du réseau se synchronise. Par la suite, nous référons à ce scénario sous l’appellation synchronisation Maître-Esclave. En raison des portées de communication considérées dans cette approche, i.e. quelques dizaines de kilomètres et des ordres de grandeurs temporelles des exigences de Qualité de Service pré- sentées dans le Chapitre 2, i.e. exprimés en minutes voire en heures, nous privilégions un modèle de synchronisation uni-directionnel, moins énergivore. Réseau de télé-relève radio multi-sauts Nous considérons maintenant les caractéristiques d’un réseau de télé-relève multi-sauts tel que décrit dans le Chapitre 2. Dans ce type d’architecture, les relevés de compteurs sont acheminés à la passerelle du réseau de télé- relève. Cet acheminement peut nécessiter un ou plusieurs nœuds intermédiaires. D’après le Chapitre 3, la topologie de routage retenue est issue d’une construction pro-active par vecteur de distances, et plus particulièrement d’un graphe acyclique dirigé dont la racine est la passerelle. À l’instar du réseau de télé-relève à radio longue portée, les passerelles sont supposées fournir une source de temps de référence fiable. Nous choisissons pour ces raisons un schéma de synchronisation hiérarchique basé sur la topologie logique que nous dérivons du schéma de synchronisation Maître-Esclave. Nous présentons maintenant le schéma de synchronisation Maître-Esclave et le coût 76CHAPITRE 4. PROTOCOLE D’ACCÈS AU MÉDIUM RADIO ET DIMENSIONNEMENT : ACCÈS SYNCHRONE OU ASYNCHRONE ? énergétique associé. Nous dérivons de cette étude le coût minimum du mécanisme de synchronisation pour un décalage et une précision donnée. 4.5 Synchronisation Maître-Esclave Dans le schéma de synchronisation Maître-Esclave (Fig. 4.5), le dispositif maître, e.g. la passerelle, diffuse une trame de synchronisation. Cette trame de synchronisation contient un jalon temporel sur lequel les dispositifs esclaves (nœuds capteurs) ajustent leurs horloges. Figure 4.5 – Le schéma de synchronisation Maître-Esclave En raison de la dérive des oscillateurs à quartz des nœuds capteurs, cette trame de synchronisation est répétée périodiquement afin de borner le décalage entre la référence de temps du maître et celles des esclaves. Sans perte de généralité, nous spécifions ici que la trame de synchronisation est envoyée selon une période multiple du cycle d’activité de la radio des nœuds capteurs, comme indiqué sur la figure 4.6. Figure 4.6 – Envoi périodique de la trame de synchronisation Le format de la trame (Fig.4.7) de synchronisation est dicté par l’exigence de réception de la trame de synchronisation par les nœuds esclaves. Conformément à la section 4.2, deux méthodes canoniques permettent de garantir la réception de la trame de synchronisation : l’élongation de la transmission par l’usage d’un préambule ou l’élongation de la période d’écoute. Par la première méthode, la consommation énergétique permettant de pallier au décalage des horloges est supportée par le nœud maître. Au contraire, la deuxième méthode implique une dépense énergétique supportée par chaque esclave. Dans une architecture à 77CHAPITRE 4. PROTOCOLE D’ACCÈS AU MÉDIUM RADIO ET DIMENSIONNEMENT : ACCÈS SYNCHRONE OU ASYNCHRONE ? radio longue portée, comme dans une architecture multi-sauts, on compte jusqu’à plusieurs milliers de compteurs par passerelle, nous choisissons donc de faire supporter le coût énergétique de la synchronisation par la passerelle dans le cas de l’architecture radio longue portée et par la passerelle et les nœuds participant à l’acheminement des données dans l’architecture multi-sauts. Nous choisissons donc la première méthode, i.e. l’usage d’un préambule. À la suite de ce préambule, nous concaténons la date courante exprimée à la seconde près depuis l’epoch UNIX [108] sous forme d’un entier 32bits. Figure 4.7 – Format de la trame de synchronisation 4.5.1 Dimensionnement du préambule et consommation d’énergie Nous étudions maintenant le dimensionnement du préambule en fonction des caracté- ristiques des oscillateurs à quartz des nœuds capteurs et de la tolérance sur le décalage entre horloges. Nous présentons dans un premier temps l’approche triviale, telle qu’utilisée par les protocoles de la littérature, e.g. [23] et exhibons le coût énergétique associé. Nous présentons ensuite notre protocole de synchronisation et prouvons son optimalité. Pour cela, nous formalisons le schéma de synchronisation Maître-Esclave comme suit. Les notations sont synthétisées dans le Tableau 4.1. Figure 4.8 – Mécanisme de synchronisation trivial 78CHAPITRE 4. PROTOCOLE D’ACCÈS AU MÉDIUM RADIO ET DIMENSIONNEMENT : ACCÈS SYNCHRONE OU ASYNCHRONE ? Comme illustré sur la Figure 4.8, le nœud maître émet périodiquement une trame de synchronisation préfixée d’un préambule de durée Tpreambule, cette période étant notée Tresync. Les nœuds esclaves 1..n programment un réveil à la date tref . En raison de la dérive de leur horloge, ils se réveillent à la date effective t1..n. À leur réveil, ils basculent la radio en réception, détecte le préambule et reçoivent la trame de données qui contient la date courante. La fin de la réception est ensuite utilisée comme jalon temporel et la date correspondante est définie à la valeur de la date annoncée par la trame de synchronisation. Dans la suite de cette étude, nous supposons que la dérive de l’oscillateur à quartz de la passerelle est négligeable en comparaison à celle des nœuds capteurs. Nous supposons par ailleurs que cette dérive des nœuds capteurs est bornée, comprise entre !dmax et +dmax et qu’elle suit une loi normale. Les puissances dissipées respectivement par le circuit radio en émission et en réception sont notées Ptx et Prx. notation signification dmax dérive temporelle maximale en ppm d’une horloge d’un nœud esclave Tresync période de resynchronisation des nœuds esclaves Dmax décalage temporel maximal sachant dmax et Tresync psync pas de quantification choisi pour exprimer le décalage temporel. Tpreambule durée du préambule Tdata durée nécessaire pour émettre la date Ts durée d’émission d’un symbole par la radio Ptx, Prx puissance dissipée par le circuit radio en transmission et réception respectivement Cmaitre, Cesclave consommation d’énergie du nœud maître et consommation d’énergie moyenne d’un nœud esclave respectivement m2, m4 taille du registre à décalage linéaire utilisé pour construire le préambule de synchronisation pour un alphabet de modulation de taille 2 et 4 respectivement Sref séquence à longueur maximale utilisée pour construire le préambule Srec fragment du préambule reçu par un nœud esclave quelconque (taille en bits : m) " intercorrélation de Srec par Sref D valeur du décalage entre l’horloge du nœud maître et du nœud esclave exprimée en temps bit Table 4.1 – Notations retenues pour l’étude du dimensionnement du préambule de la trame de synchronisation Compte tenu de ce scénario, la consommation du maître correspond à l’envoi du pré- ambule de synchronisation et de la date. La longueur du préambule est égale à deux fois le décalage potentiel maximum entre le temps de référence du nœud maître et celui d’un nœud esclave. On a donc : Tpreambule = 2Dmax = 2dmaxTresync La consommation du nœud maître est donc : Cmaitre = (2dmaxTresync + Tdata)Ptx La consommation du nœud esclave correspond quant à elle à l’écoute partielle du pré- ambule et à la réception de la trame de données. En raison de la symétrie de la loi de 79CHAPITRE 4. PROTOCOLE D’ACCÈS AU MÉDIUM RADIO ET DIMENSIONNEMENT : ACCÈS SYNCHRONE OU ASYNCHRONE ? distribution par rapport à 0, le temps d’écoute moyen du préambule correspond à la moitié de sa longueur. La consommation du nœud esclave est donc : Cesclave = (dmaxTresync + Tdata)Prx On constate dans les deux cas que la consommation est une fonction affine de la période de resynchronisation. En supposant un réseau de capteurs sans-fil multi-sauts tel que décrit dans le Chapitre 2 et une dérive de 30 ppm, on obtient les équations suivantes : Cmaitre = 3.10#3Tresync + 8.10#2mJ Cesclave = 1, 5.10#3Tresync + 8.10#2mJ De ces deux équations, nous déduisons un coût asymptotique minimum de la synchronisation d’environ 0.015 mW pour un nœud esclave. D’après le Chapitre 2, cette valeur correspond à environ un dixième de la puissance moyenne maximale autorisée par l’exigence de durée de vie du réseau de 15 ans. Nous pensons par ailleurs que ce constat est l’une des motivations à l’origine du grand nombre de protocoles de contrôle d’accès asynchrones présents dans l’état de l’art. En raison de la similarité des méthodes canoniques de synchronisation et des mécanismes de contrôle d’accès synchrone, nous nous interrogeons également sur la possibilité d’optimiser le coût énergétique de ce modèle en employant des mécanismes similaires à ceux décrits dans l’état de l’art, en particulier l’usage d’une séquence de micro-préambules tel que proposé par MFP [44]. La section suivante est le fruit de cette réflexion. 4.6 Optimisation du coût énergétique de la synchronisation selon le modèle maître-esclave La démarche que nous adoptons afin d’optimiser le coût énergétique de la synchronisation selon le modèle maître-esclave est la suivante. Nous constatons dans un premier temps que la synchronisation des nœuds esclaves sur l’horloge du nœud maître comporte deux étapes : la transmission du préambule qui a pour but d’informer les nœuds esclaves du temps restant avant que les données de synchronisation ne soient transmises et la réception des donnés de synchronisation qui permet d’associer à cet instant une valeur commune à l’ensemble des nœuds esclaves. Fonction et optimisation du préambule Dans sa forme la plus simple, nous constatons en particulier qu’en plus de signaler la transmission des données, le préambule contient une information implicite sur le temps restant avant envoi de la date. Lorsqu’un nœud esclave identifie le préambule, il apprend en effet que la date va être transmise dans les Tpreambule unités de temps à venir. En somme, le rôle formalisé du préambule est de renseigner le nœud esclave du décalage existant entre son horloge et celle du nœud maître. Optimalement, lorsqu’un nœud esclave se réveille afin de synchroniser son horloge, il ne reçoit que l’information nécessaire et suffisante pour déduire la valeur du décalage. Soit un décalage maximum Dmax et un pas de quantification psync, le temps passé à recevoir cette information correspond à la durée nécessaire pour recevoir un mot de I bits, I étant donné par la formule : I = dlog2( 2Dmax psync )e (4.1) Ici, I représente donc le nombre de bits d’information utiles à la synchronisation des nœuds esclaves. Ainsi, optimiser le coût énergétique de la synchronisation selon le modèle maître 80CHAPITRE 4. PROTOCOLE D’ACCÈS AU MÉDIUM RADIO ET DIMENSIONNEMENT : ACCÈS SYNCHRONE OU ASYNCHRONE ? esclave est équivalent à assurer que tout fragment de taille I bits contienne l’information de la durée résiduelle de préambule. Fonction et optimisation de la date courante La date courante a pour objectif d’associer une date de référence à l’instant de fin de transmission de la trame de synchronisation. Elle permet ainsi à un nœud esclave sans référence préalable d’en obtenir une. Dans l’hypothèse qu’un nœud a déjà obtenu cette référence, la réception de l’information de synchronisation est donc optionnelle. Elle peut en effet être déduite de la date antérieure connue et de la période de resynchronisation. 4.6.1 Construction du préambule de synchronisation optimal L’équation 4.1 garantit un coût énergétique optimal du modèle si et seulement tout fragment de taille I bits du préambule permet de déduire le temps restant avant la fin du préambule. Nous constatons que cet énoncé admet un corollaire : le coût énergétique du modèle est optimal si et seulement si tout fragment de taille I bits du préambule apparaît de manière unique dans le préambule et que cette propriété est caractéristique des séquences à longueur maximale générées par un registre à décalage linéaire de taille m = I. Une telle séquence, on parle de m-sequence, possède en effet les caractéristiques suivantes : la séquence est périodique de période 2m ! 1 et toute sous-séquence de taille m n’apparaît qu’une unique fois dans une période. Nous proposons donc de construire le préambule de synchronisation sur la base d’une telle séquence. Nous rappelons pour cela la contrainte à laquelle est soumis le préambule : celui-ci doit couvrir un intervalle de 2Dmax unités de temps, et le critère d’optimalité : chaque mot de I bits doit être unique dans la séquence. En premier lieu, nous déterminons la taille de la m-sequence à utiliser. Soit M la taille de l’alphabet de la modulation utilisée, la contrainte de couverture des 2Dmax unités de temps implique l’inéquation suivante : d 2m ! 1 log2(M) eTs & 2Dmax d 2m ! 1 log2(M) e & 2Dmax Ts où Ts est le temps symbole du circuit radio considéré. En choisissant comme pas de quantification en temps la durée d’un symbole radio, i.e. psync = Ts on doit vérifier qu’il est possible de coder l’ensemble des décalages en temps sachant une taille de séquence m : m & I m & dlog2( 2Dmax Ts )e Conformément au Chapitre 2, si l’on considère des modulations pour lesquelles l’alphabet M est de taille 2 (BPSK) ou 4 (QPSK et GFSK), on obtient les équations suivantes. Pour M = 2 : 2m ! 1 & 2Dmax Ts m & dlog2( 2Dmax Ts + 1)e 81CHAPITRE 4. PROTOCOLE D’ACCÈS AU MÉDIUM RADIO ET DIMENSIONNEMENT : ACCÈS SYNCHRONE OU ASYNCHRONE ? et on pose : m2 = dlog2( 2Dmax Ts + 1)e (4.2) Pour M = 4 : d2m#1 ! 1 2 e & 2Dmax Ts 2m#1 & 2Dmax Ts m & dlog2( 2Dmax Ts )e + 1 et on pose : m4 = dlog2( 2Dmax Ts )e + 1 (4.3) Les valeurs m2 et m4 permettent ainsi la construction d’une séquence à longueur maximale couvrant l’intervalle des décalages. On constate par ailleurs les propriétés remarquables suivantes : I  m2  I + 1 (4.4) m4 = I + 1 (4.5) Ces propriétés démontrent la quasi-optimalité d’un préambule basé sur des séquences à longueur maximales telles que définies. En effet, un nœud esclave peut se contenter de recevoir respectivementm2 et m4 bits de la séquence pour déduire le décalage d’horloge ce qui est la valeur optimale à un bit près. 4.6.2 Construction de la date optimale Afin d’optimiser la consommation énergétique, nous proposons que la réception de la date soit optionnelle pour les nœuds ayant déjà une référence de temps à jour (et ajustée par la réception du préambule). De fait, tout nœud esclave ayant déjà été synchronisé se contentera de la réception d’un fragment du préambule. 4.6.3 Implémentation du modèle quasi-optimal Nous venons de présenter la composition d’un préambule permettant une synchronisation des nœuds esclaves après l’écoute d’un nombre de bits m. Nous présentons ici l’algorithme permettant de calculer la valeur du décalage à partir de la réception de ces m bits. L’algorithme de calcul du décalage se base sur l’identification de la position du fragment reçu dans le préambule. À cette fin, les nœuds esclaves calculent la corrélation croisée du fragment reçu Srec à la sortie de la chaîne de réception (après démodulation et demapping) avec la séquence de référence supposée connue Sref . La corrélation croisée de ces séquences 82CHAPITRE 4. PROTOCOLE D’ACCÈS AU MÉDIUM RADIO ET DIMENSIONNEMENT : ACCÈS SYNCHRONE OU ASYNCHRONE ? binaires admet l’expression suivante 1 : "(⌧ ) = argmin(|S Xrec|,|Sref |#⌧) i=0 (!1)(Srec(i)+Sref (i+⌧)) (4.7) En l’absence d’erreur sur le signal reçu, le signal corrélé " admet un maximum pour : ⌧ = d 2m ! 1 2 e + D En présence d’un décalage 2, on déduit la valeur de D en temps bits par la formule : D = ⌧ ! d2m ! 1 2 e (4.8) 4.6.4 Adaptation du modèle en présence de bruit et d’interférence Nous avons considéré jusqu’à maintenant une réception sans erreur des fragments de préambule. En présence de bruit et d’interférence, le fragment que reçoit un nœud esclave peut être erroné et mener à une erreur sur l’estimation du décalage. Afin de pallier à l’apparition de ces erreurs, nous proposons d’étendre la période d’écoute du nœud esclave de façon à augmenter la taille du fragment reçu. Cette solution a l’avantage par rapport aux méthodes classiques de codage de ne pas nécessiter un codage par l’émetteur du signal. Par ailleurs, chaque nœud esclave peut adapter la taille du fragment reçu en fonction de son évaluation du lien et du canal. La Figure 4.9 illustre les performances du modèle de synchronisation proposé en pré- sence de bruit. Pour cet exemple, nous avons considéré une resynchronisation journalière avec une précision au temps symbole près. La dérive des nœuds esclaves est définie arbitrairement à 20 ppm. On constate que pour une large plage de taux d’erreur binaire (Bit Error Rate ou BER) , une réception d’une cinquantaine de bits suffit pour garantir des taux de succès de synchronisation supérieurs à 99,9%. 4.7 Généralisation du modèle maître-esclabe au réseau multisauts Nous proposons de généraliser le modèle maître-esclave en construisant un ordonnancement des envois de trame de synchronisation basé sur une topologie en arbre de recouvrement, enraciné à la passerelle du réseau. Les envois des trames de synchronisation sont ordonnancées selon l’ordre de parcours en largeur du graphe, comme illustré par la Figure 4.10. Dans ce type de réseaux, on considère trois types de dispositifs : la passerelle, les nœuds capteurs en charge de relayer la trame de synchronisation et les autre nœuds capteurs, appelés par la suite nœuds esclaves. La présence d’un nœud relayeur dont l’horloge présente 1. l’expression est équivalente à l’expression utilisée dans nos simulations : !(⌧ ) = argmin(|Srec X |,|Sref |!⌧) i=0 (2Srec(i) $ 1)(2Sref (i + ⌧ ) $ 1) (4.6) 2. En raison de la nécessité de centrer le préambule sur le temps de référence tref (voir Fig. 4.8), on trouve ⌧ = d 2m!1 2 e en l’absence de décalage. 83CHAPITRE 4. PROTOCOLE D’ACCÈS AU MÉDIUM RADIO ET DIMENSIONNEMENT : ACCÈS SYNCHRONE OU ASYNCHRONE ? Figure 4.9 – Taux de succès de la synchronisation en présence d’erreurs sur le fragment reçu Figure 4.10 – Ordonnancement des trames de synchronisation une dérive signifie une valeur de Dmax double par rapport à celle du modèle maître-esclave à un saut : Dmax = 4dmaxTresyn 4.8 Modèle de consommation Nous étudions maintenant le coût énergétique associé au modèle de synchronisation décrit dans la section précédente. Nous dérivons pour cela la puissance dissipée pour l’architecture longue portée et l’architecture multi-sauts en fonction de la période de resynchronisation et selon les rôles portés par chacun des nœuds. 84CHAPITRE 4. PROTOCOLE D’ACCÈS AU MÉDIUM RADIO ET DIMENSIONNEMENT : ACCÈS SYNCHRONE OU ASYNCHRONE ? 4.8.1 Réseau de télé-relève à radio longue portée Dans cette configuration, la passerelle fournit la référence de temps et se comporte donc comme le nœud maître. La puissance dissipée à des fins de synchronisation est équivalente au coût énergétique de l’envoi de la trame de synchronisation divisé par la période de resynchronisation Tresyn plus la consommation liée au quartz (Pquartz) : Psyn#passerelle = d 2dmaxTresyn Ts eTsPtx Tresyn + Pquartz Les nœuds capteurs se comportent en esclaves et dissipent une puissance équivalente à la phase d’activation de la radio suivie de la réception de ↵m2 ou ↵m4 bits selon la modulation choisie, le facteur ↵ représentant ici la surconsommation due à l’augmentation de la période d’écoute pour pallier au bruit et à l’interférence. À la consommation liée à la trame de synchronisation s’ajoute la consommation issue du quartz. Pour une modulation à deux états (M = 2) : Psyn#esclave = d↵dlog2( 2dmaxTresyn Ts + 1)eeTsPrx + Ereveil + Edetect Tresyn + Pquartz Pour une modulation à quatre états (M = 4) : Psyn#esclave = d ↵(dlog2( 2dmaxTresyn Ts )e+1) 2 eTsPrx + Ereveil + Edetect Tresyn + Pquartz 4.8.2 Réseau de télé-relève multi-sauts À l’instar d’un réseau de télé-relève à radio longue portée, la passerelle d’un réseau de capteur multi-sauts fournit la référence de temps. La puissance qu’elle dissipe à des fins de synchronisation vaut : Psyn#passerelle = d 4dmaxTresyn Ts eTsPtx Tresyn + Pquartz Les nœuds relayeurs de la trame de synchronisation dissipent de l’énergie afin de recevoir un fragment du préambule à l’instar des nœuds esclaves et pour relayer la trame de synchronisation. Par ailleurs, ces nœuds doivent au préalable activer leurs radios avant de transmettre ou recevoir : Pour une modulation à deux états (M = 2) : Psyn#relayeur = (d 4dmaxTresyn Ts ePtx + d↵(dlog2( 4dmaxTresyn Ts + 1)e)ePrx)Ts + 2Ereveil + Edetect Tresyn +Pquartz Pour une modulation à quatre états (M = 4) : Psyn#relayeur = (d 4dmaxTresyn Ts ePtx + d ↵(dlog2( 4dmaxTresyn Ts )e+1) 2 ePrx)Ts + 2Ereveil + Edetect Tresyn +Pquartz Enfin, les nœuds esclaves se comportent quant à eux comme pour un réseau à radio longue portée : 85CHAPITRE 4. PROTOCOLE D’ACCÈS AU MÉDIUM RADIO ET DIMENSIONNEMENT : ACCÈS SYNCHRONE OU ASYNCHRONE ? Pour une modulation à deux états (M = 2) : Psyn#esclave = d↵dlog2( 4dmaxTresyn Ts + 1)eeTsPrx + Ereveil + Edetect Tresyn + Pquartz Pour une modulation à quatre états (M = 4) : Psyn#esclave = d ↵(dlog2( 4dmaxTresyn Ts )e+1) 2 eTsPrx + Ereveil + Edetect Tresyn + Pquartz À partir de ces équations, nous traçons les résultats obtenus pour un réseau multi-sauts dont les paramètres sont recensés dans le tableau 4.11b. (a) Puissance dissipée due à la synchronisation Paramètre valeur Ptx 62.5 mW Prx 53.7 mW Pquartz 10 µW Ereveil 0.16 mJ Edetect 53.7 µJ dmax 20 ppm ↵ 4 (b) Paramètres Figure 4.11 – Modèle de consommation Nous déduisons les propriétés suivantes de ces résultats (Fig. 4.11a). Pour une période de resynchronisation supérieure à une heure, la puissance dissipée par le processus de synchronisation provient essentiellement de l’oscillateur à cristal de quartz dans le cas des nœuds esclaves, soit 10 µW ou 1/16 de la puissance moyenne dissipée maximale dans un objectif de 15 ans de durée de vie des compteurs. La puissance dissipée par les nœuds relayeurs et la passerelle est quant à elle dominée par l’envoi du préambule de synchronisation et compte pour 1/13 de la puissance moyenne dissipée maximale dans un objectif de 15 ans de durée de vie des compteurs, soit 12 µW. 4.9 Application au choix du mode de synchronisation d’un protocole de contrôle d’accès au médium pour réseau multi-sauts Nous utilisons maintenant ces résultats afin de motiver le choix du mode synchronisation pro-actif ou réactif pour régir l’accès au médium de communication dans un réseau multisauts. Pour cela, nous estimons la consommation d’énergie d’un protocole à synchronisation 86CHAPITRE 4. PROTOCOLE D’ACCÈS AU MÉDIUM RADIO ET DIMENSIONNEMENT : ACCÈS SYNCHRONE OU ASYNCHRONE ? pro-active et la comparons à celle d’un protocole à synchronisation réactive idéal. Les deux protocoles de référence sont illustrés par la Figure 4.12. Figure 4.12 – Protocoles asynchrone idéal et synchrone optimal Protocole de contrôle d’accès au médium synchrone Nous considérons ici une implémentation de protocole de contrôle d’accès au médium synchrone basé sur le modèle de synchronisation défini dans la Section précédente. Comme illustré par la Figure 4.12, ce protocole est composé d’une resynchronisation périodique, de période Tresyn, multiple de la période d’écoute du médium, Tcycle. La valeur de Tcycle est définie à 2 ! conformé- ment aux résultats du Chapitre 6. Le préambule de synchronisation utilisé est de durée Tpreambule = d 4dmaxTresyn Ts eTs et construite sur la base d’une séquence à longueur maximale tel que proposé dans la Section précédente. Chaque trame de données est préfixée d’un préambule de longueur d 4dmaxTresyn Ts eTs. Ce préambule, de taille courte, est construit de manière habituelle, c’est à dire qu’il ne se base pas sur une séquence à longueur maximale. Protocole de contrôle d’accès au médium asynchrone idéal Nous comparons notre proposition de protocole synchrone avec un protocole de contrôle d’accès asynchrone idéalisé. Ce protocole se base sur une écoute périodique de période Tcycle. Chaque trame de données est préfixée d’un préambule de durée Tcycle construit de manière identique à la 87CHAPITRE 4. PROTOCOLE D’ACCÈS AU MÉDIUM RADIO ET DIMENSIONNEMENT : ACCÈS SYNCHRONE OU ASYNCHRONE ? trame de synchronisation décrite dans la Section précédente. Ainsi, l’écoute d’un fragment de durée d dlog2( Tcycle Ts +1)e T s eTs suffit donc à déterminer l’instant de début de transmission des données. Nous supposons par ailleurs que le destinataire de la trame peut interrompre le préambule à coût nul et de manière instantanée. De ce fait, ce protocole présente une borne inférieure à la consommation d’énergie des protocoles asynchrones, d’où l’appellation idéale. 4.9.1 Scénario et hypothèses de l’étude Nous comparons ces deux protocoles sur la base du scénario décrit ci-après. Nous considérons un nœud capteur dont le voisinage radio est composé de N voisins, chacun des nœuds générant un trafic poissonien de paramètre !t. Nous supposons que les trames de données sont de taille nulle et que l’arbitrage de l’accès est à coût énergétique nul : de cette façon, on ne comptabilise que l’énergie dissipée afin d’initier la communication. On suppose également une modulation à deux états et un volume de trafic dans le voisinage radio connu de chacun des nœuds, permettant ainsi de dimensionner les périodes d’écoute de façon à minimiser le coût énergétique du protocole, comme illustré par la Figure 4.13. (a) Protocole asynchrone idéal (b) Protocole synchrone de référence Figure 4.13 – Optimisation des protocoles 4.9.2 Évaluation de la consommation d’énergie À partir de la description du scénario et des hypothèses de fonctionnement des protocoles, nous évaluons maintenant la puissance dissipée par chacun des deux protocoles. Protocole asynchrone idéal La puissance dissipée du protocole asynchrone se décompose en 3 pôles : l’envoi des trames de données et des préambules associés, l’écoute des fragments de préambule émis par les nœuds voisins et l’écoute périodique. Le coût moyen associé à chaque émission provient du réveil du nœud capteur, de la détection d’énergie sur le médium et de l’envoi du préambule. Pour des temps de réveil distribués uniformément, la durée moyenne du préambule avant interruption est de Tcycle 2 . Par ailleurs, l’écoute des fragments de préambule des nœuds voisins correspond à la réception d’un fragment de 88CHAPITRE 4. PROTOCOLE D’ACCÈS AU MÉDIUM RADIO ET DIMENSIONNEMENT : ACCÈS SYNCHRONE OU ASYNCHRONE ? préambule soit dlog2( Tcycle Ts + 1)e bits. Pasyn = !t(Ereveil + Edetect + d Tcycle 2Ts eTsPtx) +N!td dlog2( Tcycle Ts + 1)e Ts eTsPrx + Ereveil + Edetect Tcycle Protocole synchrone de référence La puissance dissipée par le protocole synchrone proposé se décompose en 4 pôles : la puissance dissipée par l’envoi des préambules courts à chaque trame de données, d’une longueur égale à 4dmaxTresyn, l’écoute des préambules des trames de données, en moyenne 2dmaxTresyn, de l’écoute périodique et de la puissance dissipée par la synchronisation, i.e. Psyn role, valant Psyn#relayeur ou Psyn#esclave selon la fonction du nœud dans le processus de synchronisation. Psyn = !t(Ereveil + Edetect + d 4dmaxTresyn Ts eTsPtx) +N!td 2dmaxTresyn Ts eTsPrx + Ereveil + Edetect Tcycle +Psyn role Figure 4.14 – Consommation d’énergie comparée des protocoles Les résultats obtenus pour le scénario considéré, i.e. une densité radio de 50 nœuds, sont reportés sur la Figure 4.14. On constate en premier lieu que le protocole synchrone 89CHAPITRE 4. PROTOCOLE D’ACCÈS AU MÉDIUM RADIO ET DIMENSIONNEMENT : ACCÈS SYNCHRONE OU ASYNCHRONE ? proposé consomme moins d’énergie que le protocole asynchrone idéal dès lors que le trafic applicatif supporté excède une trame par jour et voisinage radio. Ce constat montre donc qu’un protocole de contrôle d’accès au médium basé sur la méthode de synchronisation proposée est moins énergivore que tout protocole à synchronisation réactive pour un trafic tel qu’attendu dans une application de télé-relève. Ce résultat est l’une des motivations pour proposer un protocole de contrôle d’accès au médium à synchronisation pro-active dans le Chapitre 7. On observe également que le protocole asynchrone idéal est moins énergivore pour des trafics inférieurs à 1 émission par voisinage et par nœud, confirmant l’intérêt des protocoles asynchrones de l’état de l’art pour des trafics applicatifs de très faible volume. Enfin, on note qu’un protocole de contrôle d’accès à synchronisation pro-active tel que proposé ne peut supporter plus de 10 émissions par minute et par voisinage. 4.10 Synthèse Dans ce Chapitre, nous avons étudié le coût induit par une synchronisation pro-active des horloges des nœuds capteurs. Nous avons ensuite étudié le coût lié à l’établissement d’une communication selon le maintien ou non d’une synchronisation des horloges des nœuds capteurs. Pour cela, nous avons formalisé les objectifs fonctionnels remplis par le processus de synchronisation, identifié le modèle de synchronisation le plus adéquat à un réseau de télé-relève et déduit une implémentation optimale en termes de consommation d’énergie. À partir de ces résultats, nous avons comparé un protocole basé sur notre implémentation à un protocole de contrôle d’accès asynchrone idéal. Les résultats montrent que les protocoles à synchronisation pro-actives sont moins énergivores que les protocoles réactifs pour un volume de trafic typique d’une application de télé-relève de compteurs,i.e. supérieur à une trame générée par jour et par compteur. Ces résultats motivent donc les travaux menés sur les protocoles de contrôle d’accès synchrones (Chap.7) et sur les méthodes de contention pour accès synchrone (Chap.5). 90CHAPITRE 5 Dimensionnement et choix d’un algorithme de contention pour protocole d’accès synchrone 5.1 Introduction Dans le chapitre précédent, nous avons proposé une méthode de synchronisation basée sur la transmission d’une séquence à longueur maximale et prouvé son optimalité énergé- tique. Nous avons ensuite comparé le coût énergétique de l’établissement d’une communication selon un protocole de contrôle d’accès synchrone à celui d’un protocole asynchrone idéal (non réalisable). De cette étude, nous avons montré que l’établissement d’une communication nécessite moins d’énergie de manière synchrone qu’en asynchrone pour un trafic supérieur à une communication par voisinage et par jour. Par ailleurs nous avons montré qu’un protocole synchrone permettait d’établir de l’ordre de 60 fois plus de communications par unité de temps qu’un protocole asynchrone pour un réseau dont la durée de vie est de 15 ans. Ces observations nous ont conduits à recommander ces protocoles pour le déploiement d’un réseau de capteurs sans-fil multi-sauts. Nous étudions à présent l’arbitrage de l’accès au médium radio. Cet arbitrage est rendu nécessaire par la synchronisation des instants de transmission et de réception des nœuds capteurs. En effet, plusieurs nœuds d’un voisinage radio sont susceptibles d’initier simultanément une transmission. Dans un tel scénario, les transmissions peuvent interférer et rendre impossible leur décodage par leurs récipiendaires respectifs : les trames de données sont en collision. Afin d’éviter un tel scénario, les nœuds souhaitant transmettre une trame sur le médium doivent participer à une compétition dont le résultat détermine l’accès au médium, on parle de mécanisme de contention. Ces mécanismes de contention, ici synchrones, consistent à signaler la volonté de transmettre une trame sur le médium radio et à discriminer de manière distribuée un émetteur parmi les compétiteurs. Ainsi lorsqu’un nœud veut transmettre, il réalise au préalable, potentiellement plusieurs fois, deux actions élémentaires sur le médium : émettre un signal de transmission et détecter d’éventuels signaux de transmissions émanant de son voisinage. Lorsqu’un signal de transmission est détecté, un nœud repousse l’émission de sa trame de données à un instant de transmission ultérieur et annule les actions qu’il avait prévu d’opé- rer sur le médium. Lorsqu’un nœud réalise l’ensemble des actions qu’il souhaitait réaliser sur le médium, il décide de transmettre la trame de données à l’instant de transmission correspondant à la fenêtre de contention. Afin de discriminer un unique nœud émetteur, il est nécessaire que les nœuds en compétition réalisent des suites d’actions distinctes. Pour ce faire, les choix d’actions réalisées par chacun des compétiteurs sont conditionnés par un tirage aléatoire. Dans ce chapitre, nous adressons les objectifs suivants : (i) modéliser les algorithmes et mécanismes de contention de la littérature : nous montrons en particulier qu’un algorithme de contention peut être modélisé sous forme d’un espace probabilisé (⌦, S, P) que nous définissons ultérieurement, (ii) calculer la probabilité d’une collision entre transmis- 91CHAPITRE 5. DIMENSIONNEMENT ET CHOIX D’UN ALGORITHME DE CONTENTION POUR PROTOCOLE D’ACCÈS SYNCHRONE sions selon l’algorithme choisi et les propriétés du tirage aléatoire : ce calcul s’appuie sur la modélisation sous forme d’espace probabilisé des algorithmes de contention et permet d’exhiber une expression littérale en forme close de la probabilité de collision, et ce, quelque soit l’algorithme choisi, (iii) calculer l’énergie dépensée en moyenne par un nœud en compétition pour transmettre, (iv) déduire un dimensionnement du mécanisme de contention permettant de supporter le trafic cible et les exigences de taux de livraison du réseau. 5.2 Modélisation des mécanismes de contention notation signification n nombre de nœuds dans le voisinage radio K nombre d’intervalles dans la fenêtre de contention T Émission d’un signal de transmission D détection de signal de transmission seqpriori(i) séquence à priori du nœud i ⌦ ensemble des séquences à priori réalisables dans la fenêtre de contention S ensemble des séquences à priori autorisées par l’algorithme de contention P mesure de probabilité sur ⌦ tel que 8s 2 S, P(s) est la probabilité pour un nœud en compétition de tirer la séquence s C fonction de répartition sur ⌦ tel que 8s 2 S, C(s) est la probabilité de tirer une séquence à priori d’ordre inférieur ou égal à s Pcol(⌦, S, P, n) probabilité de collision pour n nœuds opérant un mécanisme de contention caractérisé par le triplet (⌦, S, P, n) Table 5.1 – Notations retenues pour l’étude des mécanismes de contention Avant de présenter les algorithmes de la littérature, nous rappelons l’objectif d’un mécanisme de contention et précisons les notations qui serviront dans cette étude. Ces notations sont recensées dans le Tableau 5.1. 5.2.1 Fenêtre de contention Figure 5.1 – Accès par contention Comme illustré sur la figure 5.1, un mécanisme de contention sert à discriminer un émetteur parmi un ensemble de n nœuds en compétition pour un instant de transmission 92CHAPITRE 5. DIMENSIONNEMENT ET CHOIX D’UN ALGORITHME DE CONTENTION POUR PROTOCOLE D’ACCÈS SYNCHRONE donné. Ce processus de compétition se déroule dans un intervalle de temps précédant l’instant de transmission et appelé fenêtre de contention. Cette fenêtre de contention est elle-même constitué de K intervalles de temps élémentaires permettant à chaque nœud de réaliser une action au choix parmi l’émission d’un signal de transmission, notée T et une détection de signal de transmission, notée D. 5.2.2 Séquence à priori Avant de participer à une fenêtre de contention, un nœud i décide des K actions successives qu’il prévoit de réaliser. Ces K actions sont appelées la séquence d’actions à priori de i : seqpriori(i). Afin d’illustrer cette notion, nous considérons la Figure 5.2. Ce Figure 5.2 – Exemple de séquence d’action à priori chronogramme représente la séquence d’actions à priori d’un nœud, nommé i, participant à une fenêtre de taille K = 6. Cette séquence est constituée de 3 détections, suivie d’une transmission, à nouveau d’une détection et enfin d’un signal de transmission. On note la séquence à priori : seqpriori(i)=(D, D, D, T, D, T) On constate dès à présent qu’un nœud participant dans une fenêtre de taille K choisit l’une des 2K séquences à priori distinctes possibles. Par la suite, nous notons ⌦ l’ensemble des séquences à priori distinctes possibles. Figure 5.3 – Compétition entre deux nœuds capteurs 93CHAPITRE 5. DIMENSIONNEMENT ET CHOIX D’UN ALGORITHME DE CONTENTION POUR PROTOCOLE D’ACCÈS SYNCHRONE 5.2.3 Décision de transmission Lorsque plusieurs nœuds participent à la même fenêtre de contention, chaque nœud i réalise, intervalle après intervalle, les actions prévues dans sa séquence à priori jusqu’à la réalisation de l’une de ces conditions : (i) toutes les actions de la séquence ont été réalisées, (ii) le nœud a réalisé une détection D et reconnu un signal de transmission T. Dans le scénario (i), i remporte la compétition et décide de transmettre la trame de données. Dans le scénario (ii), i reporte la transmission de la trame de données et interrompt sa participation à la fenêtre de contention. La Figure 5.3 illustre ce comportement pour deux nœuds en compétition dans une fenêtre de contention. Le nœud 1 tire la séquence à priori précédemment décrite et illustrée sur la Figure 5.2 : seqpriori(1) = (D, D, D, T, D, T) Le nœud 2 tire quant à lui la séquence : seqpriori(2) = (D, T, D, T, D, T) Dans l’intervalle 0, les nœuds 1 et 2 réalisent une détection d’énergie. Aucun des deux ne détecte un signal de transmission, ils réalisent donc ensuite la seconde action de leur séquence à priori dans le second intervalle. Dans l’intervalle 1, le nœud 1 réalise à nouveau une détection d’énergie alors que le nœud 2 émet un signal de transmission. Le nœud 1 détecte le signal, interrompt sa participation à la fenêtre de contention et reporte l’émission de la trame de données à un instant de transmission ultérieur. Le nœud 2 réalise la suite des actions de sa séquence à priori dans les intervalles 2 à 5 et émet sa trame de données à la suite de la fenêtre de contention. Figure 5.4 – Exemple de scénario pouvant mener à une collision On constate que les critères de décision de transmission ou de report (scénarios (i) et (ii)) entraînent une relation d’ordre entre les séquences à priori. Une séquence à priori débutant par un signal de transmission l’emporte nécessairement sur toute séquence débutant par une détection d’énergie et sera dite plus forte. Plus généralement tout couple de séquences à priori (s1, s2) de taille K, avec s1 l’emportant sur s2 vérifie : 9j 2 [0, K ! 1]|8i 2 [0, j ! 1],(s1[i] = s2[i]) ^ (s1[j] = T) ^ (s2[j] = D) (5.1) avec ^ la conjonction logique. D’après l’équation 5.1, deux séquences sont équivalentes, c’est à dire qu’aucune ne l’emporte sur l’autre, si et seulement si elles ne présentent aucune différence, c’est à dire 94CHAPITRE 5. DIMENSIONNEMENT ET CHOIX D’UN ALGORITHME DE CONTENTION POUR PROTOCOLE D’ACCÈS SYNCHRONE si elles sont identiques. Les critères de décisions de transmission ou de report impliquent donc une relation d’ordre stricte sur les éléments de S. Cette propriété est intéressante parce qu’elle permet de modéliser une séquence à priori par son ordre dans S et de déduire l’issue de la fenêtre de contention à partir des ordres des séquences tirées. Dans la suite de cette étude, on modélise donc le tirage des séquences à priori par un tirage avec remise dans l’ensemble des entiers {1, 2,..., |S|} où 1 représente par convention la séquence la plus forte de S et |S| la plus faible, avec |S| le cardinal de l’ensemble S. Ainsi, nous associons à chaque séquence un entier équivalent tel que l’issue du mécanisme de contention suite au tirage des séquences d’action à priori puisse être déduit du tirage sur l’ensemble des entiers équivalents. 5.2.4 Collisions Considérons maintenant le scénario décrit par la Figure 5.4. Les nœuds capteurs 1 et 2 ont tiré la même séquence à priori et décident de transmettre à la suite de la fenêtre de contention. Lorsque un pareil cas se produit, i.e. plusieurs nœuds décident de transmettre simultanément dans un voisinage radio, les trames de données peuvent interférer et induire des erreurs dans leur décodage par leurs destinataires respectifs. Dans cette étude, nous qualifions de collision l’ensemble des scénarios menant deux nœuds ou plus à transmettre à la suite d’une fenêtre de contention après y avoir participé. Compte tenu de l’équation 5.1, un tel scénario implique que deux nœuds ou plus tirent la même séquence à priori et que son ordre soit le plus petit parmi l’ensemble des séquences à priori tirées par les n nœuds. On note intuitivement que la probabilité de collision dépend du nombre de nœuds, n, participant à la fenêtre de contention, du nombre de séquences à priori distinctes pouvant être tirées, |S|, et de la mesure de probabilité sur ces séquences à priori, P. Avec l’aide de ces notations, nous détaillons maintenant les trois classes d’algorithmes de contention de la littérature : les algorithmes à tonalité simple (ATS) [34], les algorithmes à longue tonalité (ALT) [109] et les algorithmes à décompte binaire (ADB) [110], [111]. Nous présentons ensuite les deux mesures de probabilités couramment utilisées dans la littérature : la loi uniforme et la loi géométrique croissante tronquée. 5.3 État de l’art 5.3.1 Algorithmes à tonalité simple : ATS Les algorithmes à tonalité simple [34], [35] reposent sur des séquences à priori contenant un unique signal de transmission précédé et suivi de détections d’énergie. Une telle séquence d’action est décrite en Figure 5.5. La réalisation des détections suivant le signal peut être omise afin de diminuer la consommation d’énergie liée à la contention. La Figure 5.6 en apporte la justification et illustre la compétition de nœuds selon un algorithme à tonalité simple. Dans cet exemple, le nœud 1 réalise tire la séquence à priori : seqpriori(1) = (D, D, D, T, D, D) Le nœud 2 tire : seqpriori(2) = (D, T, D, D, D, D) Le nœud 1 interrompt sa participation à partir de l’intervalle 2 de la fenêtre de contention. Il détecte en effet le signal de transmission émis par le nœud 2 dans l’intervalle 1. Tout 95CHAPITRE 5. DIMENSIONNEMENT ET CHOIX D’UN ALGORITHME DE CONTENTION POUR PROTOCOLE D’ACCÈS SYNCHRONE Figure 5.5 – Exemple de séquence à priori pour un algorithme à tonalité simple Figure 5.6 – Compétition entre deux nœuds pour un algorithme à tonalité simple autre nœud ayant détecté l’émission émanant du nœud 2 fait de même. Ainsi, à la suite de l’émission du premier signal de transmission, ici par le nœud 2, l’ensemble des nœuds en compétition dans un voisinage radio interrompent leur participation à la fenêtre de contention. Les détections de transmission suivant l’émission du signal de transmission par le nœud 2 sont donc superflues. On constate que les algorithmes à tonalité simple ne permettent de tirer que K séquences à priori différentes pour une taille de fenêtre de contention de taille K, i.e. |S| = K. 5.3.2 Algorithmes à longue tonalité : ALT Les algorithmes à longue tonalité [109] reposent quant à eux sur des séquences à priori constituées d’une détection d’énergie précédée de l’émission d’un long signal de transmission, tel qu’illustré par la Figure 5.7. Dans cet exemple, le nœud considéré réalise un signal de transmission s’étendant sur les 3 premiers intervalles, représenté par un signal de transmission répété pour chacun de ces intervalles. Suite à ce signal de transmission, le nœud réalise une détection dans le 4eme intervalle. La Figure 5.8 illustre la compétition entre deux nœuds selon un algorithme de contention à longue tonalité. Dans cet exemple, le nœud 1 réalise un signal de transmission sur les intervalles 0, 1 et 2 puis une détection d’énergie D dans le slot 3 : seqpriori(1) = (T, T, T, D, D, D) Le nœud 2 réalise tire quant à lui la séquence à priori : seqpriori(2) = (T, T, D, D, D, D) 96CHAPITRE 5. DIMENSIONNEMENT ET CHOIX D’UN ALGORITHME DE CONTENTION POUR PROTOCOLE D’ACCÈS SYNCHRONE Figure 5.7 – Exemple de séquence à priori pour un algorithme à longue tonalité Figure 5.8 – Compétition entre deux nœuds pour un algorithme à longue tonalité Le nœud 2 interrompt le premier l’émission du signal de transmission et détecte le signal de transmission du nœud 1 à l’intervalle 2. Le nœud 2 reporte donc l’émission de la trame de données à un instant de transmission ultérieur et le nœud 1 émet sa trame de données à la suite de la fenêtre de contention. On constate qu’il est possible d’omettre la réalisation des détections de transmissions suivant la première pour des raisons similaires à celles exposées précédemment. Par ailleurs, on note que les algorithmes à longue tonalité ne permettent de tirer que K séquences à priori différentes pour une taille de fenêtre de contention de taille K, i.e. |S| = K. 5.3.3 Algorithmes à décompte binaire : ADB La dernière classe d’algorithmes de contention, les algorithmes de contention à décompte binaire, proposent de considérer chaque intervalle de la fenêtre comme une épreuve à l’issue de laquelle un nœud peut se retirer de la compétition, i.e. le nœud a réalisé une détection et identifié un signal de transmission, ou participer à l’épreuve suivante, i.e. tous les autres scénarios. Un nœud émet sa trame de données à la suite de la fenêtre de contention s’il ne retire à aucun moment de la compétition. Les séquences à priori autorisées sont au nombre de 2K pour une fenêtre de taille K, i.e. |S| = 2K. La Figure 5.9 donne un exemple d’une telle séquence. Le nœud considéré dans cet exemple réalise successivement une détection de signal de transmission, puis émet deux signaux de transmissions, réalise une détection, une transmission et à nouveau une détection. La Figure 5.10 illustre une compétition entre deux nœuds capteurs selon un algorithme à décompte binaire. Le nœud 1 tire une séquence à priori identique à celle décrite sur la 97CHAPITRE 5. DIMENSIONNEMENT ET CHOIX D’UN ALGORITHME DE CONTENTION POUR PROTOCOLE D’ACCÈS SYNCHRONE Figure 5.9 – Exemple de séquence à priori pour un algorithme à décompte binaire Figure 5.10 – Compétition entre deux nœuds pour un algorithme à décompte binaire Figure 5.9 : seqpriori(1) = (D, T, T, D, T, D) Le nœud 2 tire quant à lui : seqpriori(2) = (D, T, T, D, T, D) Dans cet exemple, les nœuds 1 et 2 exécutent une détection d’énergie dans le premier intervalle. En l’absence de signal de transmission, ils décident de participer au deuxième intervalle. Dans l’intervalle 1, les nœuds 1 et 2 émettent un signal de transmission. Dans l’intervalle 2, le nœud 1 émet à nouveau un signal de transmission alors que le nœud 2 réalise une détection. Le nœud 2 détecte le signal émis par le nœud 1, se retire de la compétition et reporte la transmission de sa trame de donnée à un instant de transmission ultérieur. Le nœud 1 continue sa participation à la fenêtre de contention jusqu’à la fin de celle-ci et transmet ensuite sa trame de données. Nous venons de présenter les algorithmes de contention de la littérature en exposant à chaque fois l’ensemble des séquences à priori utilisées dans chaque cas, c’est à dire que nous avons défini S pour chaque algorithme. Nous présentons maintenant les mesures de probabilités couramment utilisées dans la littérature afin de compléter cet état de l’art. 5.3.4 Mesure de probabilité à distribution uniforme La distribution uniforme consiste à affecter la même probabilité de tirage à chacune des séquences à priori de S. On note U la mesure de probabilité sur les entiers équivalents 98CHAPITRE 5. DIMENSIONNEMENT ET CHOIX D’UN ALGORITHME DE CONTENTION POUR PROTOCOLE D’ACCÈS SYNCHRONE à chaque séquence à priori : 8s 2 [1, |S|] , P(s) = U(s) = 1 |S| Afin de simplifier les notations dans la suite de cette étude, nous introduisons la fonction de répartition sur les ordres des séquences à priori : C. Pour une loi uniforme, on a : 8s 2 [1, |S|] , C(s) = s |S| 5.3.5 Mesure de probabilité à distribution géométrique croissante tronquée La distribution géométrique croissante tronquée vise à minimiser la probabilité de collision sur les séquences à priori les plus "fortes", i.e. c’est à dire celles qui, lorsqu’elles sont tirées par un nœud, lui procure plus de chance de transmettre à la suite de la fenêtre de contention. Pour cela, cette distribution affecte des probabilités de tirage plus faible aux séquences à priori d’ordre faible qu’aux séquences à priori d’ordre élevé. Cette loi, notée G s’exprime sous la forme : 8s 2 [1, |S|] , P(s) = G(s) = (1 ! ↵)↵|S| 1 ! ↵|S| ↵#s ↵ est ici un scalaire compris entre 0 et 1 exclus. Dans cette étude, nous retenons la formulation de la référence [34] : ↵ = n !1 |S|!1 On constate que cette formulation prend en compte le nombre de nœuds en compétition ainsi que la taille de l’ensemble des séquences à priori. La fonction de répartition s’exprime quant à elle sous la forme : 8s 2 [1, |S|] , C(s) = ↵|S|#s ! ↵|S| 1 ! a|S| 5.4 Calcul de la probabilité de collision Nous venons de modéliser les mécanismes de contention de la littérature par un triplet (⌦, S, P) et nous avons défini la notion de collision pour un tel mécanisme. Nous proposons maintenant une méthode générique de calcul du taux de collision. Nous avons défini en Section 5.2.4, les caractéristiques des évènements qualifiés de collision : deux nœuds ou plus tirent la même séquence à priori et son ordre est le plus petit parmi l’ensemble des séquences à priori tirées par les n nœuds. Nous utilisons cette définition pour dériver la formule en forme close de la probabilité de collision. Pour cela nous nous intéressons à l’évènement contraire : l’absence de collision. Cet évènement peut être traduit ainsi : parmi les n tirages, la séquence à priori d’ordre le plus petit n’est tirée qu’une seule et unique fois. La probabilité associée est égale à : 1 ! Pcol(⌦, S, P, n) = X |S| s=1 " (1 ! C(s ! 1))n . ✓n 1 ◆ . P(s) 1 ! C(s ! 1). ✓ 1 ! P(s) 1 ! C(s ! 1)◆n#1 # Dans cette expression, s est un itérateur sur les ordres des éléments de S. Sa valeur est donc comprise entre 1, l’ordre le plus petit et |S|, l’ordre le plus grand. (1 ! C(s ! 1))n traduit la 99CHAPITRE 5. DIMENSIONNEMENT ET CHOIX D’UN ALGORITHME DE CONTENTION POUR PROTOCOLE D’ACCÈS SYNCHRONE condition qu’aucune séquence d’ordre inférieur à s n’a été tirée parmi les n tirages. P(s) 1#C(s#1) est la probabilité pour un nœud de tirer la séquence à priori d’ordre s sachant qu’il n’a pas tiré de séquence d’ordre inférieur à s. Enfin, l’expression *n 1 + . P(s) 1#C(s#1) . ⇣ 1 ! P(s) 1#C(s#1)⌘n#1 traduit le fait qu’un unique nœud parmi les n a tiré la séquence à priori d’ordre s. Cette expression peut être simplifiée et réécrite comme suit et on obtient aisément la probabilité de collision : Pcol(⌦, S, P, n)=1 ! n X |S| s=1 h P(s).(1 ! C(s))n#1 i (5.2) À partir de cette équation on retrouve maintenant la probabilité de collision pour un mécanisme de contention utilisant une mesure de probabilité suivant une loi uniforme et géométrique croissante tronquée : Loi uniforme Pcol(⌦, S, U, n)=1 !X |S| s=1 ✓ 1 |S| n (|S| ! s) n#1 ◆ En simplifiant l’expression, on obtient : Pcol(⌦, S, U, n)=1 ! n. | X S|#1 s=0 [ sn#1 |S| n ] (5.3) Loi géométrique croissante tronquée Pcol(⌦, S, G, n)=1 ! n 1 ! ↵ (1 ! ↵|S| )n X |S| i=1 ✓ ↵|S|#i ⇣ 1 ! ↵|S|#i ⌘n#1 ◆ En simplifiant l’expression, on obtient : Pcol(⌦, S, G, n)=1 ! n 1 ! ↵ (1 ! ↵|S| )n | X S|#1 s=0 ⇥ ↵s (1 ! ↵s ) n#1⇤ (5.4) Nous calculons la probabilité de collision selon ces deux lois de distribution pour un nombre n de compétiteurs compris entre 2 et 100 et pour un nombre de séquences à priori utilisables |S| compris entre 2 et 256. Les résultats sont reportés sur la Figure 5.11. Les isolignes de probabilité de collision ont été tracées pour des taux de probabilités de 0,5%, 10%, 20%, etc., les vertes correspondent à la distribution uniforme et les rouges à la distribution géométrique croissante tronquée. La comparaison entre les deux lois de distribution montre que la distribution géométrique tronquée permet alternativement de diminuer le nombre de séquences à priori nécessaires (et donc la taille de la fenêtre de contention) pour une probabilité de collision cible ou de diminuer la probabilité de collision pour un nombre de séquences à priori fixe. Il est cependant à noter que de telles optimisations nécessitent une connaissance à priori du nombre de compétiteurs et donc d’utiliser des mécanismes d’estimation de trafic. À cette condition, nous constatons qu’une centaine de séquences à priori (|S| ⇡ 100) suffit à supporter jusqu’à une centaine de compétiteurs simultanés pour un taux de collision inférieur au pour-cent. Une telle valeur peut être atteinte pour des fenêtres de contention d’une centaine d’intervalles dans le cas des algorithmes ATS et ALT 100CHAPITRE 5. DIMENSIONNEMENT ET CHOIX D’UN ALGORITHME DE CONTENTION POUR PROTOCOLE D’ACCÈS SYNCHRONE et de 6 ! 7 intervalles pour des algorithmes ADB. Néanmoins, comme nous le montrons dans le Chapitre 6, le nombre de compétiteurs attendus par fenêtre de contention est inférieur à la dizaine. Dans ces conditions, le nombre d’intervalles nécessaires pour borner la probabilité de collision à 1% est peu influencé par la loi de distribution (10% d’écart maximum). Pour cette raison, nous continuons à étudier les deux distributions dans la suite de l’étude. Figure 5.11 – Probabilité de collision : loi uniforme (vert) et loi géométrique croissante tronquée (rouge) 5.5 Estimation de la consommation d’énergie Nous venons d’établir la formule de la probabilité de collision pour les algorithmes de contention et les lois de distribution utilisées dans la littérature. Nous étudions maintenant la consommation d’énergie d’un nœud participant à une fenêtre de contention. Pour cela, nous étudions dans un premier temps le dimensionnement des intervalles de la fenêtre de contention et montrons qu’il dépend des propriétés du circuit radio et de la fréquence de resynchronisation des nœuds. Nous simulons ensuite les différents mécanismes et traçons les résultats obtenus pour un scénario réaliste. Les notations propres à cette étude sont listées dans le tableau 5.2. 5.5.1 Dimensionnement des intervalles de la fenêtre de contention Lors d’un intervalle de la fenêtre de contention, un nœud doit être en mesure d’effectuer l’une ou l’autre des actions T ou D précédemment définies. Le temps nécessaire pour 101CHAPITRE 5. DIMENSIONNEMENT ET CHOIX D’UN ALGORITHME DE CONTENTION POUR PROTOCOLE D’ACCÈS SYNCHRONE Notation signification dmax dérive maximale en fréquence de l’horloge d’un nœud Tresyn période de resynchronisation des horloges des nœuds Dmax décalage maximum entre deux horloges de nœuds dans un voisinage radio Tint durée d’un intervalle de la fenêtre de contention TR temps de retournement de la radio TD temps minimum nécessaire pour effectuer une détection de signal de transmission TT temps minimum nécessaire pour émettre le signal de transmission Tact durée de l’intervalle réservée à la réalisation des actions T ou D $r durée du recouvrement des intervalles pour deux nœuds dont les horloges sont décalées de Dmax Tint durée d’un intervalle de la fenêtre de contention. N nombre de compétiteurs attendus maximum. Ptx puissance dissipée en émission. Prx puissance dissipée en réception. Ereveil énergie dissipée pour allumer le circuit radio. Erx!tx énergie dissipée pour la transition réception - émission du circuit radio. Etx!rx énergie dissipée pour la transition émission - réception émission du circuit radio. Tint durée d’un intervalle de temps Table 5.2 – Notations pour l’estimation de la consommation d’énergie réaliser une détection est noté TD et le temps nécessaire pour réaliser l’émission d’un signal d’occupation TT. Comme illustré par la Figure 5.2, un nœud peut réaliser successivement deux actions de nature différentes, e.g. T suivi de D et inversement. Cette succession d’actions nécessite un changement d’état du circuit radio : le circuit radio doit être en état de transmettre pour l’action T et en état de réception ou de détection d’énergie pour l’action D. Ce changement d’état prend du temps pour être effectif et cette durée est appelée temps de retournement de la radio, noté TR par la suite. Cela signifie que la durée d’un intervalle, notée Tint doit être à minima égale à la somme du temps de retournement de la radio TR et au maximum entre les temps nécessaires pour effectuer T et D, soit TT et TD respectivement. Le Tableau 5.3 recense ces grandeurs pour deux circuits couramment utilisés : le CC1100 [7] et CC2420 [112] de Texas Instruments. On note que TT n’est pas rapporté, sa contrainte étant d’être supérieure à TD. Contrainte matérielle circuit radio grandeur Durée de transition du circuit radio TR CC1100 ⇡ 30 µs CC2420 ⇡ 10 µs Durée minimale de détection de transmission TD CC1100 450 µs CC2420 128 µs Table 5.3 – Contraintes matérielles : Extraits de spécifications 102CHAPITRE 5. DIMENSIONNEMENT ET CHOIX D’UN ALGORITHME DE CONTENTION POUR PROTOCOLE D’ACCÈS SYNCHRONE Entre deux resynchronisations successives, les horloges des nœuds d’un voisinage radio se désynchronisent. Cette désynchronisation implique que deux actions programmées à une même date sur deux nœuds capteurs seront réalisées à des instants différents. Ce décalage en temps peut compromettre le fonctionnement du mécanisme de contention, en particulier s’il excède la durée d’un intervalle Tint. Lorsqu’un mécanisme de synchronisation est utilisé, e.g. celui proposé dans le Chapitre 4, ce décalage est borné par une durée Dmax qui dépend de la dérive du cristal de quartz utilisé et de la période de resynchronisation : Dmax = 2dmaxTresyn. Afin de garantir le fonctionnement des mécanismes de contention étudiés, il est nécessaire et suffisant de garantir pour tout couple de nœuds voisins tel que l’un effectue une émission de signal de transmission et l’autre effectue une détection, que l’intersection des supports temporels des actions, $r soit supérieur ou égal à TD. Cette propriété est illustrée par la Figure 5.12. Figure 5.12 – Contrainte de synchronisation On doit ainsi dimensionner Tact, la durée pendant laquelle un nœud doit réaliser l’action souhaitée selon la formule : Tact & 4dmaxTresyn + TD On obtient finalement le dimensionnement de la durée d’un intervalle Tint : Tint = TR + Taction À partir de ce dimensionnement, nous représentons en Figure 5.13a les résultats obtenus pour le scénario suivant : 5 nœuds participent à une fenêtre de contention dont les intervalles font 80ms. Cette durée correspond à une resynchronisation des nœuds capteurs toutes les 1000s et à une dérive maximale du crystal de quartz de 20ppm maximum. Ces valeurs, ainsi que la consommation des différentes actions de la radio, sont recensées dans le Tableau 5.13b. On constate en premier lieu que l’énergie dépensée par un nœud dans une fenêtre de contention est du même ordre de grandeur voire plus importante que l’énergie dissipée par la transmission des données. Dans cet exemple (resynchronisation de période 1000s), l’énergie moyenne dissipée est de l’ordre de la dizaine de millijoules pour un mécanisme ADB et compris entre une dizaine de millijoules et 1 joule pour les mécanismes ATS et ALT. À titre de comparaison, la transmission d’1kbits de données consomme environ 3mJ. Cette observation nous incite à minimiser le coût énergétique du mécanisme de contention pour une exigence de taux de livraison donnée. Ce travail est réalisé dans le Chapitre 6. 103CHAPITRE 5. DIMENSIONNEMENT ET CHOIX D’UN ALGORITHME DE CONTENTION POUR PROTOCOLE D’ACCÈS SYNCHRONE (a) Énergie moyenne dépensée par compétition Paramètre valeur N 5 Ptx 62.5 mW Prx 53.7 mW Ereveil 0.16 mJ Erx!tx 53.7 µJ Etx!rx 53.7 µJ Tint 80 ms (b) Paramètres Figure 5.13 – Modele de consommation Par ailleurs, on note qu’il serait intéressant de diminuer le coût énergétique par transmission dédié à la contention. Pour cela, il existe deux leviers : (i) optimiser les algorithmes existants et (ii) factoriser le coût de la contention entre plusieurs transmissions. Dans le calcul de la probabilité de collision, nous avons montré que la probabilité de collision était fonction du nombre de compétiteurs : n, du nombre de séquences à priori distinctes : |S|, et de la mesure de probabilité P. Pour une taille de fenêtre de contention de taille K, nous avons montré que la cardinalité de S (|S|) était bornée par 2K et que cette valeur était atteinte par les algorithmes ADB. Par ailleurs, les résultats sur la consommation d’énergie et sur la probabilité de collision des mécanismes ADB montrent que l’optimisation de la mesure de probabilité P n’entraîne in fine pas une grande différence sur la consommation d’énergie. De fait, le levier (i) nous semble peu propice à une diminution significative, par rapport à l’état de l’art, du coût énergétique de la contention. Le levier (ii), en revanche, nous semble être une piste intéressante et nous la développons dans le Chapitre 7. 5.6 Synthèse Dans ce Chapitre, nous modélisons les algorithmes et mécanismes de contention permettant l’arbitrage de l’accès pour un protocole MAC synchrone. Nous montrons que les algorithmes de la littérature et leurs performances peuvent être modélisés par un espace probabilisé (⌦, S, P) et nous déduisons de cette modélisation les formules de la probabilité de collision pour les lois de distribution classiquement utilisées. Nous estimons ensuite la consommation énergétique des mécanismes de contention et montrons que les mécanismes à décompte binaire sont de bons candidats pour discriminer un unique émetteur (faible coût énergétique). En raison de l’importance de l’énergie dépensée par les nœuds en contention, ces travaux nous incitent à étudier en détail le coût énergétique du mécanisme de contention pour un taux de livraison souhaité (Chapitre 6) et à étudier les possibilités de factorisation du mécanisme de contention entre plusieurs transmissions (Chapitre 7). 104CHAPITRE 6 Choix et dimensionnement de l’architecture et du protocole MAC d’un réseau de capteurs sous exigences de Qualité de Service 6.1 Introduction Dans ce chapitre, nous étudions le dimensionnement du protocole d’accès au médium pour des applications de réseaux de capteurs sans-fil urbains. Le tableau 6.1 rappelle les principales caractéristiques des applications cibles, dont la description est donnée dans le chapitre 1. Application trafic période (moy.) volume journalier qualité de service Télé-relève nœud vers passerelle 15 min à 1 j 1Ko/nœud perte max. 1% gaz, eau périodique 10-10 000 nœuds/passerelle délai max. 15mins à 1 j passerelle vers nœuds 1 an négligeable perte max. 1% sporadique délai max. 1h Éclairage nœud vers armoire 10 à 15 min 10 Ko/nœud perte max. 1% public périodique 100 nœuds/passerelle délai max. 10 à 15 min nœud vers armoire 4 ans négligeable perte max. 0, 1% apériodique délai max. 10 à 15 min Parc nœud vers passerelle 5 min à 6 h 100o-10Ko/nœud perte max. 0.1% stationnement sporadique 10-100 nœuds/passerelle délai max. 10s, ordre passerelle vers nœuds 1 an négligeable perte max. 1% périodique 1j Surveillance nœud vers passerelle 1min à 1h 2Ko-30Ko/nœud perte max. 1% à 10% pollution périodique 10-1000 nœuds/passerelle délai max. 1min à 1h passerelle vers nœuds 1 an négligeable perte max. 1% périodique délai max. 30s Gestion nœud vers passerelle 1 semaine 10o/nœud perte max. 0.1% des déchets sur demande 10-100 nœuds/passerelle délai max. 1h Table 6.1 – Applications des réseaux de capteurs urbains : principales caractéristiques Afin de supporter ces applications, deux architectures de réseau sont envisagées : une architecture à topologie en étoile utilisant des radios bas-débit (100bits/s à 4800bits/s), longue portée (portée > 1 km en milieu urbain) et une architecture à topologie multi-saut employant des radios moyenne portée (portée de quelques dizaines à centaines de mètres) et moyen débit (19,2Kbits/s). L’étude que nous présentons ici a un double objectif : (i) déduire les protocoles et le dimensionnement adéquat à chaque architecture en fonction des caractéristiques de dé- ploiement et des exigences de Qualité de Service, (ii) émettre des recommandations quant au type d’architecture à privilégier en fonction du déploiement à prévoir et des exigences en matière de taux de livraison et de délai pour les applications cibles. Pour cela, nous modélisons dans un premier temps un réseau multi-saut utilisant un protocole d’accès synchrone, conformément aux conclusions du chapitre 4. Nous déduisons de ce modèle le dimensionnement du cycle d’activité radio des nœuds capteurs et dérivons 105CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE le coût énergétique nécessaire à l’établissement d’une transmission respectant un taux de livraison donné. Nous modélisons ensuite une architecture réseau radio longue portée, et étudions le coût énergétique des différents protocoles de contrôle d’accès envisageables pour ce type d’architecture. Nous en dérivons des recommandations quant aux protocoles à implémenter sur ce type d’architecture en fonction du trafic à supporter. Enfin, nous proposons une comparaison des coûts énergétiques associés aux deux types d’architecture pour différents type de déploiements, de volume de trafic et d’exigences de Qualité de Service. Nous concluons par des recommandations sur le type d’architecture à retenir en fonction du trafic à supporter et d’exigences de Qualité de Service. 6.2 Réseaux de capteurs urbains multi-sauts 6.2.1 Modélisation notation signification valeur NR nombre de nœuds de la topologie [100, 1000, 5000, 10000] R rayon du disque unitaire p 1 ⇡ d degré du voisinage radio [10, 20, 50, 80] r portée de communication q d ⇡NR c(x) indice de la couronne du nœud d x r e, x : distance à la passerelle ! trafic généré par unité de temps par nœud entre 10#7 Hz et 10#2 Hz. Tcycle période d’écoute du médium radio dimensionné d’après le trafic Ltrame longueur d’une trame en bits 600 bits Dradio débit binaire de la radio 19,2 Kbits/s D(x) délai moyen de livraison à la passerelle calculé dans l’étude P(x) puissance moyenne dissipée par un nœud calculé dans l’étude Table 6.2 – Notations et grandeurs retenues pour le modèle d’architecture multi-sauts Nous étudions ici l’architecture à topologie radio multi-sauts : les nœuds capteurs sont susceptibles de relayer des trames de données jusqu’à leur acheminement à la passerelle. Pour cela, les nœuds maintiennent un cycle d’activité périodique, de période Tcycle, contenant une écoute du médium de communication suivi d’un sommeil radio. Le contrôle d’accès est fait par contention selon un protocole synchrone. Nous empruntons la modélisation du trafic développée par P. Gupta et P.R. Kumar [113] : NR nœuds sont répartis uniformé- ment sur un disque unitaire de rayon R = p 1 ⇡ , c’est à dire dont la surface est unitaire (1). Chaque nœud génère un trafic poissonnien de taux d’arrivée ! trames par unité de temps. Les trames, de longueur Ltrame bits, sont à destination d’une passerelle située au centre du disque et transmises à un débit de Dradio bits/s. Les instants de génération sont supposés indépendants d’un nœud à l’autre. Lorsqu’un nœud est à portée radio de la passerelle, i.e. la distance x qui les sépare est inférieure à r, les trames sont transmises directement à la passerelle. Dans le cas contraire, elles sont relayées de nœuds en nœuds selon un protocole de routage qui vérifie les deux hypothèses suivantes : (i) tout nœud à une distance x du puits utilise une route en c(x) sauts pour acheminer ses trames et appartient alors à la c(x)eme couronne, (ii) le protocole de routage distribue uniformément le trafic supporté entre les nœuds d’une même couronne. Enfin, le degré du voisinage radio, d, est le même 106CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE pour tout nœud appartenant à une couronne interne de la topologie 1. Nous supposons par ailleurs qu’un nœud qui génère une trame de données, alors que la précédente n’est toujours pas transmise, abandonne sa transmission au profit de la nouvelle 2. Dans cette étude, nous considérons successivement des réseaux de cardinalité et degré croissants : 100 nœuds et degré de 10 pour un déploiement de test de petite taille, 1000 nœuds et degré de 20 pour un déploiement sur une petite ville, 5000 nœuds et degré de 50 pour une agglomération de taille moyenne et 10 000 nœuds et degré de 80 pour un déploiement de forte densité. La longueur des trames et le débit binaire de la radio sont définis à 600 bits et 19,2 Kbits/s respectivement, soit la longueur indicative pour une télé-relève journalière et le débit binaire radio de la radio Wavenis de Coronis Systems [wavenis]. Enfin, les nœuds génèrent des trames à une fréquence comprise entre 10#7 Hz et 10#2 Hz 3. Le tableau 6.2 récapitule les notations utilisées et précise les valeurs retenues dans les calculs. 6.2.2 Dimensionnement de la période d’activité notation signification n nombre de nœuds dans une fenêtre de contention donnée n nombre de nœuds moyen par fenêtre de contention pcol(n) probabilité de collision à l’issue de la compétition à l’accès pour n compétiteurs. pgen probabilité de génération d’une trame de données parr(i, n) probabilité d’apparition de i nouveaux compétiteurs sachant n compétiteurs existants psor(n) probabilité d’une sortie, i.e. succès de transmission sachant n compétiteurs existants pt(n ! n + $) probabilités de transition entre les états de la chaîne de Markov Mt Matrice de transition entre deux états successifs du système. vs vecteur de probabilité stationnaire du système. Table 6.3 – Notations spécifiques au dimensionnement de la période d’activité Nous dimensionnons la période d’activité des nœuds capteurs, Tcycle, afin de supporter le trafic auquel le réseau est soumis. Pour cela, nous modélisons le nombre de nœuds en compétition pour l’accès au médium, n, dans un voisinage radio de degré d sous forme d’une chaîne de Markov. Dans ces conditions, le trafic est dit supporté ou admissible si et seulement si le nombre moyen de compétiteurs par fenêtre de contention, n, est inférieur strictement à 1, i.e. le nombre de tentatives de transmissions par unité de temps est inférieur au nombre d’opportunités de transmission. Nous appliquons ensuite cette modélisation au voisinage radio immédiat de la passerelle pour calculer le dimensionnement de la période d’activité du réseau. Les notations spécifiques à ce calcul sont recensées dans le tableau 6.3. 1. une couronne est appelée interne s’il existe une couronne située à une distance plus grande de la passerelle. 2. ce comportement est observable lorsque la pile protocolaire ne contient qu’un unique tampon de stockage de trame 3. nous traçons les courbes pour des fréquences comprises entre 10!7 Hz et 10!2 Hz afin d’illustrer le comportement asymptotique des grandeurs calculées, le domaine d’intérêt étant situé entre 10!5 Hz (environ une trame par jour) et 10!3 Hz (une transmission par quart d’heure). 107CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE (a) Système (b) Chaîne de Markov associée Figure 6.1 – Modèle de la population en compétition Lors d’un cycle d’activité, n peut évoluer du fait de l’arrivée de nouveaux compétiteurs et de l’éventuellement transmission avec succès d’une trame (sortie), comme illustré par la Figure 6.1. La probabilité de génération d’une nouvelle trame de données par un nœud pendant un cycle d’activité, pgen, est donnée par : pgen = 1 ! e#!Tcycle Les instants de génération de trames étant indépendants entre les nœuds, nous modélisons les arrivées de nouveaux compétiteurs par une loi de distribution binomiale de paramètres (N ! n, pgen) : 8i 2 [0, d ! n ! 1], parr(i, n) = ✓d ! n i ◆ pi gen(1 ! pgen) d#n#i Avec pcol(n) la probabilité de collision sur les trames de données pour un nombre n de nœuds en compétition, la probabilité d’une sortie, i.e. succès de transmission, psor est donnée par : psor(n)=1 ! pcol(n) Les probabilités de transition entre les différentes valeurs possibles de n sont données par : pt(n ! n + $) = 8 >>>>>>>>>>>< >>>>>>>>>>>: 0 $ < !1 psor(n)pa(0, n) $ = !1, 8n 2 [1, d] 0 $ = !1, n = 0 psor(n)parr(1 + $, n ! 1) +(1 ! psor(n))parr($, n) $ & 0, 8n 2 [1, d] parr($, n) $ & 0, n = 0 0 $ > d ! n L’évolution du système entre deux périodes d’activités successives peut ainsi être résumée 108CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE par la matrice de transitions : Mt = 2 6 6 6 6 6 6 6 4 pt(0!0) pt(0!1) pt(0!2) ··· pt(0!n) ··· pt(0!d#1) pt(0!d) pt(1!0) pt(1!1) pt(1!2) ··· pt(1!n) ··· pt(1!d#1) pt(1!d) 0 pt(2!1) pt(2!2) ··· pt(2!n) ··· pt(2!N#1) pt(2!d) . . . . . . . . . ... . . . 000 ··· pt(n!n) ··· pt(n!d#1) pt(n!d) . . . . . . . . . . . . . . . ... . . . . . . 000 ··· 0 ··· pt(d#1!d#1) pt(d#1!d) 000 ··· 0 ··· pt(d!d#1) pt(d!d) 3 7 7 7 7 7 7 7 5 La chaîne de Markov est irréductible et possède un nombre d’états finis, tous récurrents positifs. Elle admet donc un unique vecteur de probabilité stationnaire tel que : vs = vsMt et l’espérance du nombre de compétiteurs dans la fenêtre de contention est donnée par : n = n X=d n=1 [nvs[n]] (6.1) À partir de l’équation 6.1, nous déduisons le trafic admissible pour une période d’activité et un algorithme de contention caractérisé par |S| utilisant une loi de distribution uniforme. Nous présentons ces résultats sur la Figure 6.2 pour les valeurs de d retenues : {10, 20, 50, 80}. Figure 6.2 – Trafic admissible Pour les degrés de voisinage retenus, nous constatons que le trafic admissible se situe entre 0.55 et 0.65 trames par cycle d’activité par voisinage. Cela signifie que la fréquence du cycle d’activité radio des nœuds doit être approximativement le double de la fréquence de génération des trames de données pour un voisinage radio donné. Cette observation justifie le dimensionnement du cycle d’activité employé dans le Chapitre 4. Nous employons par ailleurs le même dimensionnement dans la suite des calculs concernant la modélisation d’un réseau de capteurs urbains multi-sauts. Plus précisément, nous définissons la fréquence du cycle d’activité radio des nœuds comme le double de la fré- quence de génération de trames de données pour le voisinage supportant le maximum de trafic, c’est à dire le voisinage direct de la passerelle. 6.2.3 Dimensionnement de la fenêtre de contention Comme indiqué dans le Chapitre 5, la fenêtre de contention est le support temporel de la compétition au médium radio. Le taux de collision entre trames de données, et donc le taux de livraison, sont fonction du nombre d’intervalles de temps qui la constituent, de l’algorithme de contention et du nombre de compétiteurs. Nous dimensionnons la fenêtre de contention de façon à garantir le taux de succès de l’algorithme de contention dans 99, 9% des scénarios (les notations spécifiques à ce dimensionnent sont recensés dans le tableau 6.4). Dans la section précédente, nous avons défini la fréquence d’activité des nœuds au double de la fréquence de génération des trames de données. Cette loi des arrivées étant binomiale, nous obtenons le nombre maximum de 109CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE notation signification nmax nombre de nœuds maximum à considérer dans une fenêtre de contention ncomp nombre de participations moyen aux fenêtres de contention pour une transmission pacces probabilité d’accès au médium d’un nœud suite à une participation à une fenêtre de contention Table 6.4 – Notations spécifiques au dimensionnement de la fenêtre de contention compétiteurs nmax à considérer en résolvant : ✓ d nmax◆ (pgen) nmax (1 ! pgen) d#nmax  10#3 soit ✓ d nmax◆ ⇣ 1 ! e# 0.5 d ⌘nmax ⇣ e# 0.5 d ⌘d#nmax  10#3 Pour des valeurs de d comprises entre 10 et 80, il faut ainsi considérer un nombre maximum de compétiteurs nmax égal à 5. Compte tenu du faible nombre de compétiteurs et des résultats du Chapitre 5 (Fig :fig :probabilite-collisions), une taille de fenêtre de contention d’une cinquantaine d’intervalles suffit pour un algorithme de type ATS et et ALT. Pour un algorithme ADB, 5 à 6 intervalles suffisent. Compte tenu de ce dimensionnement, nous déduisons l’énergie moyenne dissipée par un nœud dans une fenêtre de contention pour un taux de succès théorique garanti donné. Pour cela nous estimons au préalable le nombre de participations d’un nœud capteur aux fenêtres de contention pour une trame donnée 4 : ncomp = X1 i=1 ipacces(1 ! paccess) i#1 avec : pacces = (1 ! pgen) d#1 +X d#1 j=1 1 j ✓d ! 1 j ◆ (pgen) j (1 ! pgen) d#j#1 (6.2) Nous présentons les résultats en Figure 6.3a. Les caractéristiques radio et les éléments de dimensionnement significatifs sont recensés dans le tableau 6.3b. Ces résultats confirment les observations faites dans le chapitre 5 (Fig. 5.13a), à savoir le coût élevé de la participation à la fenêtre de contention et l’efficacité énergétique des algorithmes à décompte binaire. Ils apportent néanmoins un éclairage nouveau quant au choix de la loi de distribution pour ces algorithmes. On constate en effet que le coût énergé- tique associé à l’usage de la loi uniforme est équivalent à celui associé à une loi géométrique croissante tronquée pour des taux de succès supérieures à 95%. Cette observation suggère une implémentation simplifiée de ces algorithmes. Pour des taux de succès garanti inférieurs à 90%, on constate par ailleurs que la consommation d’énergie des algorithmes à simple tonalité entraîne un facteur de surconsommation (par rapport aux ADBs) inférieur à 3. Ce constat motive la proposition d’un mécanisme de compétition basé sur les ATS permettant d’allouer plusieurs transmissions en une unique étape de compétition, tel que proposé dans CT-MAC, exposé dans le Chapitre 7. 4. Dans cette estimation, on suppose que le taux de collision est négligeable et que chaque nœud a la même probabilité de gagner, un nœud en compétition avec j autres nœuds a donc une chance sur j d’accéder au médium 110CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE (a) Énergie moyenne dépensée par compétition Paramètre valeur Ptx 62.5mW Prx 53.7mW Ereveil 0.16mJ Erx!tx 53.7µJ Etx!rx 53.7µJ Tintervalle 80ms (b) Paramètres Figure 6.3 – Consommation d’énergie et taux de livraison 6.2.4 Impact sur le délai de livraison Nous venons de dimensionner le cycle d’activité radio des nœuds et la fenêtre de contention de manière à supporter un volume de trafic sous exigence de taux de livraison. Nous étudions maintenant l’impact de ce dimensionnement sur le délai de livraison, i.e. le temps nécessaire pour transmettre une trame entre un nœud et la passerelle. Pour cela nous considérons le modèle multi-sauts que nous venons de définir et nous déduisons successivement la portée radio d’un nœud de la densité des voisinages radio et le nombre de sauts en fonction de la distance d’un nœud à la passerelle : Soit r la portée radio d’un nœud selon un modèle de propagation de type disque unitaire 5, on a : r = r d ⇡NR D’après les propriétés du protocole de routage, un nœud situé à une distance x de la passerelle connaît un chemin en c(x) sauts avec : c(x) = d x r e En négligeant le temps d’émission des trames devant la durée de la période d’écoute 6, nous estimons le délai moyen de livraison comme suit : D(x) = Tcycle 2 + c(x)ncompTcycle Cette expression traduit le temps moyen d’attente entre la génération de la trame de données au niveau applicatif et la première opportunité de transmission et les transmissions successives de couronne en couronne jusqu’à destination. 5. bien qu’irréaliste dans le cas général (il ne tient pas compte de l’affaiblissement en espace libre du signal, du shadowing et du fading), ce modèle permet une représentation simple des transmissions lorsque les seuls liens retenus pour la communication sont choisis pour leur fiabilité (lien symétrique et SINR élevé) 6. la durée de transmission d’une trame sur le médium est d’environ 30ms alors que la période d’activité radio est de l’ordre de la dizaine de seconde. 111CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE (a) NR = 100 & d = 10 (b) NR = 1000 & d = 20 La Figure 6.3 recense les résultats pour les scénarios de déploiements choisis. On constate que : (i) le dimensionnement choisi du cycle d’activité permet le respect des exigences de délai de livraison de la plupart des applications référencées dans le tableau 6.1. Pour les topologies de plus de 1000 nœuds considérées et pour un trafic supérieur à une 112CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE (c) NR = 5000 & d = 50 (d) NR = 10000 & d = 80 Figure 6.3 – Délai moyen de livraison pour une architecture multi-sauts trame par jour et par nœud, le délai de livraison moyen est en effet inférieur à 15 mins pour l’ensemble des nœuds. (ii) une part significative du délai est due au relayage des trames, et plus particulièrement au temps d’attente entre chaque transmission d’une même trame. Les déploiements comptant le plus grand nombre de nœuds présentent en effet un rapport 10 entre les délais observés pour la première couronne et pour la dernière. Ces deux observations tirent leur explication du dimensionnement du cycle d’activité. 113CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE Le nombre moyen de tentatives d’accès au médium par période d’activité doit en effet être strictement inférieur à 1 ce qui implique un nombre moyen de tentatives d’accès par transmission proche de 1. Le délai de livraison est ainsi directement lié à la période du cycle d’activité et au nombre de sauts dans la topologie. De fait, nous déduisons qu’il n’existe que deux leviers protocolaires efficaces pour réduire le délai de livraison 7 : (i) une diminution de la période du cycle d’activité des nœuds ou (ii) un choix des relayeurs minimisant le nombre de sauts dans la topologie. La diminution de la période d’activité implique une augmentation de la puissance dissipée par les nœuds du fait d’un échantillonnage plus fréquent du médium de communication. Ce levier est donc en contradiction avec la démarche d’optimisation de la consommation d’énergie que nous avons détaillée jusqu’à présent. Le choix des relayeurs minimisant le nombre de sauts peut entraîner quant à lui l’usage de liens radios moins fiables et donc impacter sensiblement le taux de livraison des trames de données et le coût de maintenance de la topologie de routage. Ces aspects sont discutés dans le Chapitre 9 et un protocole de routage permettant d’exploiter les liens opportunistes et fluctuants tout en garantissant un taux de livraison élevé et une topologie de routage stable est proposé : QoS Oriented Opportunistic Routing protocol for Wireless Sensor Networks (QOR). 6.2.5 Calcul de la puissance dissipée Suite au dimensionnement de la période d’activité, des fenêtres de contention et de l’étude du délai de livraison, nous étudions maintenant la consommation d’énergie associée à une topologie multi-sauts. Les notations spécifiques à cette étude sont référencées dans le tableau 6.5 notation signification N(c) nombre de nœuds situés dans la couronne c Rx(c) nombre de trames reçues par unité de temps par un nœud de la couronne c Tx(c) nombre de trames transmises par unité de temps par un nœud de la couronne c Vx(x) nombre de trames transmises par unité de temps dans le voisinage radio d’un nœud à une distance x de la passerelle A(x) aire de l’intersection entre le voisinage radio d’un nœud à à une distance x de la passerelle et la couronne inférieure B(x) aire de l’intersection entre le voisinage radio d’un nœud à à une distance x de la passerelle et la couronne à laquelle il appartient C(x) aire de l’intersection entre le voisinage radio d’un nœud à à une distance x de la passerelle et la couronne supérieure Table 6.5 – Notations spécifiques au dimensionnement de la fenêtre de contention Afin de calculer la puissance dissipée par les nœuds capteurs dans un scénario multisauts, nous calculons le nombre de trames par unité de temps que chaque nœud doit recevoir Rx, transmettre T x et le trafic généré par son voisinage radio V x : 7. en réalité il existe un troisième levier protocolaire permettant de minimiser le délai : l’ordonnancement en cascade des cycles d’activité des nœuds en fonction de leur position dans la topologie de routage comme proposé par DMAC [dmac]. Cette solution ne permet cependant pas les communications depuis la passerelle vers les nœuds du réseau, communications pourtant nécessaires pour la mise en place de la topologie de routage et sa maintenance. 114CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE Le nombre de nœuds à c sauts de la passerelle (ceme couronne) est donné par : N(c) = 8 < : ⇡NR h (cr)2 ! ((c ! 1)r) 2 i c 2 [1, dR r e[ NR h 1 ! ⇡ ((c ! 1)r) 2 i c = dR r e (6.3) Le nombre de trames par unité de temps à recevoir pour un nœud de la couronne c est donné par : Rx(c) = ( ! NR[1#⇡(cr)2] N(c) c 2 [1, dR r e[ 0 c = dR r e Chaque nœud d’une couronne c transmet donc Tx(c) trames par unité de temps : T x(c) = Rx(c) + ! Nous calculons maintenant la composition du voisinage radio d’un nœud à une distance x de la passerelle : Figure 6.4 – Calcul de la composition du voisinage radio d’un nœud à une distance x de la passerelle Comme illustré par la Figure 6.4, le voisinage d’un nœud à une distance x de la passerelle peut contenir des nœuds de la couronne inférieure (plus proche de la passerelle), de la même couronne et de la couronne supérieure. En omettant les premières et dernières couronnes, un nœud à une distance x voit un nombre N.A(x) nœuds de la couronne inférieure, N.B(x) nœuds de la même couronne et N.C(x) nœuds de la couronne supérieure. Les expressions de A(x), C(x) et B(x) sont données par : A(x) = c2r2(✓1 ! cos✓1sin✓1) + r2(✓2 ! cos✓2sin✓2) C(x) = r2(✓0 2 ! cos✓0 2sin✓0 2)+(c + 1)2r2(cos✓0 1sin✓0 1 ! ✓0 1) B(x) = ⇡r2 ! A(x) ! C(x) 115CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE avec : c = d x r e ✓1 = arcos( 1 2 ( r x (c2 ! 1) + x r )) ✓2 = arcos( 1 2 ( r x (1 ! c2) + x r )) ✓0 1 = arcos( 1 2 ( r x (c + 1 ! 1 c + 1) + x r(c + 1))) ✓0 2 = arcos( 1 2 ( r x (c2 + 2c) ! x r )) (a) A(x) (b) C(x) Figure 6.5 – Éléments de démonstration des calculs des aires A(x), B(x) et C(x) Démonstration. Avec les notations choisies sur les Figures 6.5 et 6.5b, on note que (✓1, ✓2) et (✓0 1, ✓0 2) vérifient respectivement les systèmes d’équations 6.4 et 6.5 : ( y = crsin✓1 = rsin✓2 x = crcos✓1 + rcos✓2 (6.4) ( y = (c + 1)rsin✓0 1 = rsin✓0 2 z = rcos✓0 2 = (c + 1)rcos✓0 1 ! x (6.5) Du système d’équation 6.4, on déduit : ( ✓1 = arcos( 1 2 ( r x (c2 ! 1) + x r )) ✓2 = arcos( 1 2 ( r x (1 ! c2) + x r )) Le système 6.5 donne quant à lui : ( ✓0 1 = arcos( 1 2 ( r x (c + 1 ! 1 c+1 ) + x r(c+1) )) ✓0 2 = arcos( 1 2 ( r x (c2 + 2c) ! x r )) L’aire A(x) est déduite de l’addition des aires vertes et bleues. L’aire verte est obtenue par soustraction des aires bleue et magenta à la somme des aires verte plus bleue plus magenta : Aire verte = c2r2✓1 ! c2r2cos✓1sin✓1 116CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE L’aire bleue est obtenue quant à elle par la soustraction des aires jaune et verte à la somme des aires jaune, verte et bleue : Aire bleue = r2✓2 ! r2cos✓2sin✓2 Finalement, A(x) = Aire bleue + Aire verte A(x) = c2r2(✓1 ! cos✓1sin✓1) + r2(✓2 ! cos✓2sin✓2) L’aire C(x) (aire bleue) est obtenue par la soustraction des aires verte et jaunes à la somme des aires bleue, verte et jaune : Aire verte = (c + 1)2r2✓0 1 ! (c + 1)2r2cos✓0 1sin✓0 1 L’aire bleue est ainsi donnée par : Aire bleue = Aire bleue + Aire verte + Aire jaune ! Aire verte ! Aire jaune C(x) = r2✓0 2 ! ((c + 1)2r2✓0 1 ! (c + 1)2r2cos✓0 1sin✓0 1) ! r2sin✓0 2cos✓0 2 Dans le cas particulier d’un nœud de la première couronne, on a : A(x)=0 C(x) = r2(✓0 2 ! cos✓0 2sin✓0 2)+(c + 1)2r2(cos✓0 1sin✓0 1 ! ✓0 1) B(x) = ⇡r2 ! A(x) ! C(x) Enfin, pour un nœud de la dernière couronne : A(x) = c2r2(✓1 ! cos✓1sin✓1) + r2(✓2 ! cos✓2sin✓2) C(x)=0 B(x) = ⇡r2 ! A(x) ! C(x) À partir de la composition du voisinage radio d’un nœud, nous déduisons le trafic généré pour un voisinage radio situé à distance x du puits : V x(x) = NRA(x)T x(b x r c ! 1) + NRB(x)T x(b x r c) + NRC(x)T x(b x r c + 1) La puissance dissipée d’un nœud à distance x du puits peut maintenant être calculée en adaptant l’équation 4.9 du Chapitre 4 et en réutilisation les résultats des Chapitres 4 et 5 : P(x) = 8 >>>>< >>>>: T x(x)(ncomp(Ereveil + Edetect + Econt(unif orme, 2K, K)) + (d 4dmaxTresyn Ts eTs + Ltrame Dradio )Ptx) +Psyn esclave x r > b R r c T x(x)(ncomp(Ereveil + Edetect + Econt(unif orme, 2K, K)) + (d 4dmaxTresyn Ts eTs + Ltrame Dradio )Ptx) +(V x(x)d 2dmaxTresyn Ts eTs + Rx(x) Ltrame Dradio )Prx + Ereveil+Edetect Tcycle + Psyn relayeur sinon Les résultats obtenus pour les scénarios considérés sont disponibles en Figure 6.5. On note une différentiation nette entre la puissance dissipée par les nœuds appartenant à la dernière couronne et les autres, e.g. jusqu’à un facteur 100 entre la première et la dernière 117CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE (a) NR = 100 et d = 10 (b) NR = 1000 et d = 20 couronne (Fig. 6.5). Cette observation nous amène à nous interroger sur l’origine de cette différence et donc à identifier le principal poste de consommation d’énergie. Pour cela, notons que les nœuds appartenant à la dernière couronne se démarquent par l’absence d’écoute périodique, par l’absence d’émissions de trames de synchronisation ou de relayage 118CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE (c) NR = 5000 et d = 50 (d) NR = 10000 et d = 80 Figure 6.5 – Architecture de réseau de capteurs urbains sans-fil multi-sauts : Puissance dissipée 119CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE de trames de données. La Figure 6.6 recense les principales sources de consommation d’énergie pour un nœud appartenant à la première couronne. On note que l’écoute périodique du médium représente plus de 60% de la consommation moyenne d’un nœud pour une durée de vie de 15 ans, soit 2,5 plus que la deuxième contribution (synchronisation). Ce constat motive davantage notre proposition de mécanisme de compétition permettant d’allouer plusieurs transmissions en une étape de compétition : CT-MAC, présenté dans le Chapitre 7. En effet, avec un tel mécanisme, il est possible de diminuer la fréquence des écoutes du médium tout en assurant le même nombre de transmissions par unité de temps et donc de diminuer significativement la part de consommation liée à l’écoute pé- riodique. Enfin, cette observation motive notre analyse concernant les leviers protocoles adéquats pour diminuer le délai de livraison, à savoir notre choix d’exploiter les liens opportunistes et fluctuants tel que proposé dans le protocole de routage QoR, que nous présentons dans le Chapitre 9. Figure 6.6 – Principales contributions à la dépense d’énergie 6.3 Réseaux de capteurs urbains à radio longue portée Nous étudions maintenant l’architecture de réseaux de capteurs urbains à radio longue portée. Comme indiqué dans le Chapitre 1, les nœuds capteurs transmettent leurs trames directement à la passerelle. Pour cela, les nœuds disposent d’une radio bas-débit exploitant des modulations robustes. D’un point de vue protocolaire, cette architecture possède trois particularités essen- 120CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE tielles : la passerelle est en écoute permanente du médium, les nœuds capteurs limitent leur activité radio à la transmission des trames de données, éventuellement à la réception d’un acquittement, et la détection de transmission par les nœuds capteurs afin d’éviter une éventuelle collision s’avère obsolète (topologie en étoile). Ces observations suggèrent l’usage de protocoles de contrôle d’accès au médium tels qu’ALOHA, ALOHA à temps discrétisé [32] et leurs dérivés, i.e. à accès direct. Nous étudions leur dimensionnement afin d’assurer un taux de livraison cible de 99% et calculons la consommation d’énergie associée. Enfin, nous dérivons les recommandations d’usage en fonction du trafic à supporter. 6.3.1 Modélisation et scénario notation signification valeur NR nombre de nœuds de la topologie [100; 1000; 5000; 10000] m nombre de modulations 4, [4800; 2400; 300; 100] bits/s distinctes utilisées Ni, i 2 [1, m] nombre de nœuds utilisant [0, 5; 0, 3; 0, 15; 0, 05]NR la i ememodulation Ltrame longueur d’une trame en bits 600 bits "i, i 2 [1, m] durée de l’émission de la trame de donnée [125ms; 250ms; 2s; 6s] pour la i eme modulation T période d’émission des trames 10#7Hz à 100Hz de données pour un nœud P(i) puissance moyenne dissipée par un nœud calculé dans l’étude utilisant la i eme modulation Pcol(i) probabilité de collision pour un nœud calculé dans l’étude utilisant la i eme modulation Pliv(i) probabilité de livraison pour un nœud calculé dans l’étude utilisant la i eme modulation Table 6.6 – Notations et grandeurs retenues pour le modèle d’architecture longue portée Nous considérons un ensemble de nœuds capteurs rattachés à une passerelle. En raison des conditions de propagation disparates à l’échelle du réseau, tous les nœuds capteurs n’utilisent pas la même modulation : les nœuds pour lesquels le bilan radio est moins favorable utilisent des modulations plus robustes, au débit moins élevé. Nous faisons par ailleurs l’hypothèse que l’usage des différentes modulations ainsi que d’un contrôle de puissance permet à la passerelle de recevoir chaque trame avec un rapport signal à bruit équivalent après décodage, et ce, indépendamment du nœud émetteur. Nous distinguons ainsi m classes de nœuds en fonction de la modulation utilisée, chaque classe est peuplée de Ni nœuds et nous supposons que les nœuds transmettent périodiquement des trames de taille binaire identique, Ltrame, selon une même période T. Nous notons par la suite !i la durée de transmission de la trame pour un nœud utilisant la i eme modulation. Ce réseau comporte NR nœuds capteurs pour une passerelle et chaque capteur dispose d’une radio permettant un réglage de la modulation (et donc du débit) dans la plage de valeurs suivantes [4800bits/s, 2400bits/s, 300bits/s et 100bits/s]. On suppose que 50% de la population peut transmettre fiablement au débit maximum considéré soit à 4800bits/s. Ces nœuds sont à proximité de la passerelle et peu d’obstacles les séparent, le contrôle de puissance suffit à lui seul à garantir un rapport signal à bruit 121CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE Identifiant modulation débit population 1 4800bit/s 50%NR 2 2400bit/s 30%NR 3 300bit/s 15%NR 4 100bit/s 5%NR Table 6.7 – Répartition de la population des nœuds capteurs selon les débits radios utilisés à la passerelle satisfaisant pour le débit maximum. 30% de la population utilise utilise la modulation au débit de 2400bits/s dans l’objectif d’améliorer le rapport signal à bruit, le contrôle de puissance seul ne suffisant plus pour fonctionner au débit maximum. 15% des nœuds sont situés dans des zones densément urbanisés, sans visibilité avec la passerelle, par exemple dans un regard en béton enfoui sous terre et transmettent donc à 300 bits/s. Enfin, 5% des nœuds présentent des conditions de propagation les obligeant à fonctionner avec le débit le plus faible, soit 100bits/s. 6.3.2 Protocoles et performances Lorsque qu’ils admettent une expression analytique, nous dérivons ici le taux de livraison et la puissance dissipée pour chacun des protocoles étudiés. ALOHA En présence de modulations et donc de temps de transmissions différents, le taux de collision pour un nœud utilisant la i eme modulation s’exprime : 8i 2 [1..m], Pcol(i)=1 ! ✓T ! 2!i T ◆(Ni#1) Ym j=1 j6=i  1 ! !i + !j T ?Nj Démonstration. Soit deux nœuds transmettant leur trame en un temps !i et !j . À chaque période T, ces deux nœuds transmettent leur trame à un instant choisi aléatoirement (supposément distribué uniformément). Soit ti et tj les instants de début de transmission de chaque trame. Avec ces notations, une collision correspond à l’évènemement les supports temporels des deux trames se recouvrent, ce qui se traduit par : noncollision , ( T ! !j > ti ! tj > !i ti < tj T ! !i > tj ! ti > !j sinon Ce système d’équation admet une représentation graphique permettant de dériver la probabilité de collision entre deux trames d’index de modulation respectifs i et j : Pcol(i,j). La probabilité de succès peut en effet être déduite du rapport de l’aire de la surface non hachurée et de la surface du carré de côté T soit : 1 ! Pcol(i, j) = (T #"i) 2 2 + (T #"j ) 2 2 ! "2 i 2 ! "2 j 2 T2 Un nœud transmet avec succès si le support temporelle de sa trame n’est en recouvrement avec aucune autre soit : 1 ! Pcol(i) = (1 ! Pcol(i, i))Ni#1 Ym j=1 j6=i [1 ! Pcol(i, j)]Nj d’où le résultat. 122CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE Figure 6.7 – Calcul du taux de collision La Figure 6.8 illustre les résultats obtenus pour 1000 nœuds selon le scénario précédemment décrit et selon un scénario idéal où l’ensemble des nœuds est en capacité d’émettre au débit maximal. On constate en premier lieu que les nœuds exhibent un taux de collision clairement différencié selon le débit utilisé. Ainsi, les nœuds émettant à 4800bits/s peuvent supporter un trafic 7 fois plus intense que les nœuds à 100bits/s pour une même exigence de taux de livraison. Ce dernier étant exprimé sous forme de borne inférieure, cela signifie que le dimensionnement du réseau et ses performances sont contraints par une part marginale des nœuds capteurs. Ici le trafic admissible maximum est limité à 1 trame par semaine en raison de seulement 50 nœuds parmi 1000. On observe également l’impact des nœuds transmettant à débit réduit sur les performances des nœuds opérant à plein débit. La courbe aux symboles diamants, noire, repré- sente le taux de collision en fonction de la fréquence de génération des trames pour un scénario selon lequel l’ensemble des nœuds fonctionnent à débit maximal et l’on constate un volume de trafic supporté 7 fois supérieur au scénario à débit variable. Par ailleurs, on constate que l’usage d’ALOHA seul ne permet de satisfaire les contraintes des applications cibles, à savoir une génération de trames hebdomadaire et un taux de collision inférieur à 1%. Enfin, la puissance moyenne dissipée par un nœud d’index de modulation i est donnée par : P(i) = Ereveil + !iPtx T ALOHA avec répétitions Comme illustré par la Figure 6.8, le protocole ALOHA ne permet pas de garantir un taux de collision maximum de 1% pour des trafics supérieurs à une trame par semaine et ce, même pour un déploiement de taille modeste. Afin d’améliorer le taux de livraison des trames de données, il est possible de transmettre plusieurs fois chaque trame. La probabilité de livraison, Pliv, d’une trame répétée r fois est alors donnée par : 123CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE Figure 6.8 – ALOHA : Probabilité de collision 8i 2 [1..m], 1 ! Pliv(i) = 0 BB@ 1 ! ✓T ! 2r!i T ◆(Ni#1) Ym j=1 j6=i  1 ! r !i + !j T ?Nj 1 CCA r Démonstration. Les trames étant répétées r fois, le temps d’occupation du médium est r fois plus long (r!i). La trame n’est pas délivrée si les r tentatives sont infructueuses. La puissance moyenne dissipée est quant à elle donnée par : Pi = r(Ereveil + !iPtx) T La Figure 6.9 donne les taux de livraisons obtenus par répétition des trames de données. On constate, comme le suggère l’équation 6.6, que la répétition des trames permet d’améliorer le taux de livraison et donc le trafic admissible lorsque la fréquence de génération des trames est faible (d’une trame tous les 8 jours à plus d’une trame par jour). ALOHA avec répétitions et acquittement Lorsqu’un message d’acquittement est envisageable, c’est à dire lorsque l’hypothèse de symétrie du lien radio est vérifiée, il est possible d’adapter le schéma précédent avec répétitions de manière à interrompre les transmissions d’une trame lorsque la passerelle l’a acquittée. Cet acquittement permet ainsi de diminuer l’occupation du canal radio et l’énergie dissipée pour transmettre les trames. 124CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE Figure 6.9 – ALOHA avec répétitions : Probabilité de non délivrance, débit 100bits/s Le taux de livraison n’admet pas d’expression simple et nous fournissons en Figure 6.10 les résultats obtenus par calcul numérique pour les nœuds transmettant à 100bits/s, pour un nombre maximum de 8 retransmissions selon le scénario décrit et pour un déploiement de 1000 nœuds. Soit nret le nombre de retransmissions moyen par trame de données, la puissance dissipée par la radio est donnée par : P(i) = nret(Ereveil + !iPtx + Etx!rx + !ackPrx) T ALOHA à temps discret Lorsqu’un mécanisme de synchronisation est en place, les transmissions prennent lieu dans des intervalles de temps prédéfinis. De fait, les trames sont en collision si et seulement si elles ont lieu dans le même intervalle de temps. Soit nint le nombre d’intervalles de transmission disponibles pendant une période de génération de trames de données et $i le nombre d’intervalles occupés par la transmission d’une trame de longueur !i, la probabilité de collision est donnée par : 8i2[1..m],Pcol(i)= 1# ✓(nint!"i)(nint!"i+1) n2 int ◆(Ni!1) Qm j=1 j6=i  (nint!"i)(nint!"i+1)+(nint!"j )(nint!"j+1) 2n2 int &Nj Démonstration. P La démonstration est similaire à celle du cas continu, en notant la relation n i=1 i = (n)(n+1) 2 . 125CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE Figure 6.10 – ALOHA avec répétitions et acquittements : Probabilité de non délivrance, débit 100bits/s Dans la suite des travaux, les résultats sont illustrés avec un dimensionnement d’intervalle permettant de transmettre une trame à 4800bits/s et avec un dimensionnement à 100bits/s. Ce choix est motivé par les résultats de la Figure 6.11. Le graphe en question montre l’évolution de la probabilité de collision en fonction de la longueur de l’intervalle pour une transmission journalière des trames de données, les courbes bleues et rouges représentant le taux de collision moyen et les courbes magenta et violette représentant le taux de collision des trames transmises à 100bits/s. On constate que le dimensionnement permettant d’atteindre un minimum du taux de collision moyen (dimensionnement pour une trame transmise à 4800bits/s) ne correspond pas à celui permettant de minimiser le taux de collision pour les trames à 100bits/s (dimensionnement pour une trame transmise à 100bits/s). Pour cette raison, nous illustrons les résultats obtenus pour chacun des cas de figure. Int4800 = min(!i)+2dmaxTresyn Int100 = max(!i)+2dmaxTresyn on a donc : nint = b T ! 2dmaxTresyn Int4800 c ou nint = b T ! 2dmaxTresyn Int100 c 126CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE Figure 6.11 – Impact de la taille de l’intervalle sur la probabilité de collision La Figure 6.12 illustre les résultats obtenus pour les deux dimensionnements retenus pour l’intervalle. Avec un intervalle de taille Int4800, on retrouve les conclusions tirées dans le cas du protocole ALOHA, à savoir que la probabilité de collision dépend du débit de transmission et que les trames émises au débit le plus lent présentent une probabilité de collision supérieure aux autres. On constate par ailleurs qu’un tel dimensionnement implique un trafic admissible inférieur à celui obtenu pour le protocole ALOHA, et ce malgré la synchronisation des instants de transmission. Avec un intervalle de taille Int100, la probabilité de collision sur les trames est indépendante du débit auquel elles sont transmises et on note par ailleurs une amélioration du trafic admissible par le réseau par rapport à celui obtenu avec le protocole ALOHA (7,3 au lieu de 7.7 jours). La puissance dissipée est donnée par la formule : P(i) = Ereveil + !iPtx T + Psyn#esclave ALOHA temps discret avec répétitions À l’instar d’ALOHA, il est possible de ré- péter les trames plusieurs fois afin d’augmenter la probabilité de délivrance des trames de données. Soit r le nombre de répétitions d’une trame de données, la probabilité de non délivrance est donnée par : 8i2[1..m],1#Pliv(i)= 0 @1# ( nint r !"i)( nint r !"i+1) ( nint r ) 2 !(Ni!1) Qm j=1 j6=i " ( nint r !"i)( nint r !"i+1)+( nint r !"j )( nint r !"j+1) 2( nint r ) 2 #Nj 1 A r 127CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE (a) Int4800 (b) Int100 Figure 6.12 – ALOHA temps discret : probabilité de collision La Figure 6.13 illustre cette formule pour les dimensionnements précédemment mentionnés, les observations étant similaires à celles obtenues pour ALOHA avec répétitions. 128CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE (a) Int4800 (b) Int100 Figure 6.13 – ALOHA temps discret avec répétitions : probabilité de non délivrance La puissance dissipée est donnée par : P(i) = r(Ereveil + !iPtx) T + Psyn#esclave ALOHA temps discret avec répétitions et acquittement De la même façon, lorsqu’un acquittement est possible, le taux de livraison peut être amélioré comme le montre 129CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE la Figure 6.14. On constate ici que les observations liées au dimensionnement de l’intervalle de transmission sont inversées, à savoir qu’un dimensionnement selon le support temporel des trames les plus fréquentes (les plus courtes) donne un taux de livraison plus élevé sur les trames les plus longues. Figure 6.14 – ALOHA temps discret avec répétitions et acquittement : probabilité de non délivrance Enfin, soit nret le nombre de retransmissions moyen par trame de données, la puissance dissipée par la radio est donnée par : Pi = nret(Ereveil + !iPtx + Etx!rx + !ackPrx) T + Psyn#esclave 6.3.3 Synthèse À partir des équations et résultats de la section 6.3.2, nous pouvons maintenant déduire les protocoles à privilégier pour un trafic donné et une exigence de taux de livraison. La Figure 6.14 explicite ainsi les protocoles les moins énergivores en fonction de la fréquence de génération de trames de données pour un taux de livraison supérieur à 99%. Ces résultats sont présentés pour les scénarios de déploiement précédemment exposé et permettront une comparaison avec l’architecture réseau multi-sauts dans la section suivante. En première analyse, on note que seuls trois des protocoles exposés présentent un intérêt pour ce type de déploiements : Aloha pour les trafics les plus faibles, Aloha avec répétitions et acquittements pour la plupart des trafics cibles et Aloha temps discret avec répétitions et acquittements pour les trafics les plus denses. On constate en effet que ces trois protocoles (représentés en gras dans leur domaine d’intérêt) sont toujours plus efficaces en énergie sur l’ensemble de la plage de trafic étudiée. On note également que le protocole ALOHA temps 130CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE discret avec répétitions et acquittements présente un domaine d’intérêt pour des trafics de données ne permettant pas de respecter la durée de vie souhaitée de 15 ans. Ceci nous incite à considérer uniquement les protocoles Aloha et Aloha avec répétitions et acquittements dans notre comparaison avec l’architecture multi-sauts. Dans un second temps, on constate que pour des trafics supérieurs à une trame par jour et par nœud, cette architecture nécessite la transmission d’un acquittement de la passerelle vers le nœud capteur. Cette hypothèse est équivalente à supposer la symétrie du lien radio pour l’ensemble des nœuds capteurs de la topologie, hypothèse non vérifiée dans des déploiements existants [114]. Enfin, on constate que l’architecture à radio longue portée ne permet pas de respecter le taux de livraison souhaité (99% de taux de livraison) dès lors que le trafic par nœud excède deux trames de données par jour pour un déploiement de 5000 nœuds et 1 trame par jour pour un déploiement de 10000 nœuds, déploiement type pour une agglomération de taille moyenne et pour un déploiement en zone urbaine fortement peuplée respectivement. Ce constat exclue donc son usage dans le cadre d’un réseau opérant plusieurs applications simultanément. 131CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE (a) NR = 100 (b) NR = 1000 132CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE (c) NR = 5000 (d) NR = 10000 Figure 6.14 – Protocoles pour réseaux de capteurs urbains longue portée : puissance dissipée et domaines d’intérêt 133CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE 6.4 Recommandations pour une architecture de réseaux de capteurs urbains : Synthèse générale Après avoir étudié séparément les deux architectures de réseaux de capteurs urbains sans-fil, nous présentons une analyse comparative de ces dernières et les recommandations d’usage selon le trafic à supporter par le réseau. Pour cela, nous restituons sur la Figure 6.13 les résultats obtenus pour chacune des configurations de réseau : 6.15a présente les résultats obtenus pour un déploiement d’une centaine de nœuds et dont la densité est d’une dizaine de nœuds par voisinage radio dans l’approche multi-saut, 6.14b, 6.14c et 6.13d illustrent les résultats pour des déploiements comportant un nombre de nœuds et une densité correspondant respectivement à une petite ville (6.14b), à une ville de taille moyenne (6.14c) jusqu’à un arrondissement peuplé d’une grande ville (6.13d). On constate en premier lieu que l’architecture multi-sauts permet d’acheminer de l’ordre de deux fois plus de trafic sous exigence de durée de vie et de taux de livraison. En effet, l’architecture à radio longue portée supporte une période de génération de 3,1h pour un déploiement de 1000 nœuds, contre 1,5h pour l’architecture multi-sauts, de 11,7h contre 6,2h pour un déploiement de 5000 nœuds et de 23,6h contre 11,1h pour un déploiement de 10000 nœuds. On note également que l’architecture multi-sauts présente une consommation énergétique moyenne par nœud de deux à huit fois supérieure à celle de l’architecture longue portée pour une transmission journalière. En revanche, lorsque le trafic journalier excède quatre à cinq trames par jour, la consommation énergétique de l’architecture à radio longue-portée devient plus importante. (a) NR = 100 et d = 10 Suite à ces observations, nous déduisons les recommandations suivantes. Pour un trafic faible (inférieur ou égal à 1 trame par jour), sur des topologies de petite taille et jusqu’à un déploiement dans une agglomération de taille moyenne, l’architecture longue portée s’avère 134CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE (b) NR = 1000 et d = 20 (c) NR = 5000 et d = 50 135CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE (d) NR = 10000 et d = 80 Figure 6.13 – Comparaison des architectures longue portée et multi-saut être la plus efficace du point de vue énergétique. Cette architecture étant par ailleurs moins complexe à déployer et maintenir (pas de topologie de routage à maintenir), elle semble être la topologie à privilégier. Notons néanmoins que son fonctionnement repose sur deux hypothèses qui peuvent ne pas être vérifiées dans des déploiements réalistes : (i) tous les nœuds capteurs sont capables de transmettre une trame de données à la passerelle, sans relayage intermédiaire, (ii) les nœuds capteurs sont en capacité de recevoir les trames d’acquittement émises par la passerelle. Compte tenu de la faible vraisemblance que ces deux hypothèses soient respectées par tous les nœuds capteurs, nous proposons un protocole de contrôle d’accès permettant le relayage des trames de données pour ce type d’architecture. Ce protocole, appelé SARI-MAC et décrit dans le Chapitre 8, permet en effet de lever les hypothèses (i) et (ii) à faible coût énergétique et de résoudre l’accès au médium sans nécessiter la détection des transmissions du voisinage radio (contrairement aux algorithmes de contention classiques). Pour un trafic excédant 4 à 5 trames par jours et par nœud et pour des déploiements denses, nous recommandons faiblement l’usage d’une topologie multi-sauts. Cette topologie ne permet de supporter qu’un trafic deux fois plus important que l’architecture à radio longue portée et entraîne une complexité accrue de son opération : mise en place d’une topologie de routage (dont le trafic n’a pas été pris en compte dans ces calculs), d’un mé- canisme de synchronisation, etc. Afin de viabiliser cette architecture, nous proposons deux protocoles CT-MAC et QOR qui adressent les causes principales de la dépense énergétique de cette architecture : l’écoute périodique qui est dimensionnée sur le trafic à supporter et le nombre de transmissions nécessaires pour acheminer une trame de son émetteur à la passerelle. CT-MAC, présenté dans le Chapitre 7, propose un algorithme de contention 136CHAPITRE 6. CHOIX ET DIMENSIONNEMENT DE L’ARCHITECTURE ET DU PROTOCOLE MAC D’UN RÉSEAU DE CAPTEURS SOUS EXIGENCES DE QUALITÉ DE SERVICE permettant d’allouer plusieurs transmissions dans un même cycle d’activité radio. De fait, il permet soit de supporter davantage de trafic pour un cycle d’activité radio donné ou de diminuer la fréquence de l’écoute périodique et donc la consommation d’énergie pour un trafic donné. QOR, présenté dans le Chapitre 9, est un protocole de routage permettant l’usage de liens longue distance, asymétriques et transients afin de minimiser conjointement le nombre de retransmissions par trame de données et le délai de livraison. L’ensemble de ces contributions fait l’objet de la partie suivante du manuscrit. 137Troisième partie Protocoles adaptés à la collecte de données dans un réseau urbain 138CHAPITRE 7 Protocole MAC synchrone pour réseaux de capteurs urbains sans-fil multisauts : CT-MAC 7.1 Introduction Dans le Chapitre 6, nous recommandons l’usage d’une architecture radio multi-sauts à protocole d’accès synchrone pour un réseau de capteurs urbain lorsque le trafic supporté est supérieur à 4-5 trames par nœud et par jour. Dans les Chapitres 4, 5 et 6, nous avons identifié pour un tel scénario les principaux postes de dépense énergétique dans l’établissement et l’arbitrage d’une communication : (i) l’écoute périodique et (ii) la participation à une fenêtre de contention. Nous proposons maintenant un mécanisme de contention synchrone, Cascading Tournament MAC (CT-MAC) permettant d’arbitrer et d’établir plusieurs instants de transmission simultanément et de manière distribuée. CT-MAC supporte ainsi plusieurs émissions par période d’activité : le coût de l’arbitrage à l’accès est donc partagé entre plusieurs transmissions et la durée du sommeil entre les périodes d’activité est allongée. De cette façon, l’énergie dissipée par transmission diminue significativement. L’idée clé de CT-MAC est de construire un classement des nœuds en compétition dans la fenêtre de contention. Alors que les mécanismes de la littérature visent à discriminer un unique émetteur, CT-MAC construit une liste ordonnée d’émetteurs. À cette liste ordonnée correspond un ordonnancement des émissions à des instants de transmission successifs. Pour cela, CT-MAC repose sur un algorithme à 4 étapes : classement, suppression des doublons, annonce des émissions et transmissions (Fig. 7.1). La première étape emploie un algorithme de contention similaire aux mécanismes de contention à tonalité simple ATS grâce auquel chaque compétiteur s’attribue un rang, ce rang étant associé à un instant de transmission. L’étape de suppression des doublons utilise un algorithme ADB à distribution uniforme afin que chaque rang ne soit présent qu’une unique fois dans un deuxvoisinage radio. L’annonce des transmissions est constituée d’une fenêtre de temps dans laquelle les nœuds émettent tour à tour, selon le rang obtenu, l’adresse de leur destinataire. Enfin, les transmissions ont lieu dans l’ordre des annonces de transmission aux instants de transmissions disponibles. 7.2 Description du protocole 7.2.1 Vue globale Comme indiqué dans la Section précédente CT-MAC repose sur un algorithme à 4 étapes : classement, suppression des doublons, annonces des émissions et transmissions. Ces différentes étapes sont réalisées de manière séquentielle, tel que décrit par la Figure 7.1. Le scénario de cette Figure, nommé Exemple, servira de référence à chaque étape de la description. Nous rappelons que les nœuds suivent un cycle d’activité commun comptant une écoute 140CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC Figure 7.1 – Étapes de l’algorithme de contention de CT-MAC périodique du médium de communication. Nous supposons pour cela l’usage d’un mécanisme de synchronisation, par exemple celui proposé dans le Chapitre 4. Sur cette figure, l’écoute intervient à un instant noté t2. Dans l’Exemple de la figure 7.1, nous supposons par ailleurs l’existence de ct instants de transmission prédéterminés pour chaque cycle d’activité, ici ct = 3. Ces instants de transmission peuvent être décliné sous forme d’intervalles temporels successifs ou sous forme de canaux en fréquence distincts. Dans l’Exemple de la Figure 7.1, ces trois instants de transmission sont référencés a,b et c et consistent en trois intervalles de temps successifs. Les nœuds souhaitant émettre pendant un cycle d’activité à un instant prédéterminé, appelé t1, intervenant avant l’écoute des nœuds (t2), participent alors à l’étape 1 de classement. Le but de cette étape de classement est d’attribuer un rang compris entre 1 et 4 (ct+1) à chaque nœud en compétition. Les nœuds obtenant un rang parmi 1, 2 et 3 participent alors à l’étape 2. Les éventuels nœuds obtenant le rang 4 interrompent leur participation au mécanisme de contention et reportent la tentative d’émission à la prochaine période d’activité. L’étape 2 de suppression des doublons a pour objectif de discriminer un unique nœud par rang et par deux-voisinage radio. Elle se décompose en 3 fenêtres de contention, correspondant aux 3 rangs et aux trois instants de transmission. Les nœuds en compétition dans chacune des fenêtres emploient un algorithme de contention ADB à distribution uniforme. Une fois ces deux étapes réalisées, les nœuds n’étant pas encore actifs se réveillent. L’éventuel nœud de rang 1 transmet alors une trame d’annonce d’émission. Cette trame contient l’adresse du nœud destinataire ainsi qu’un identifiant de paquet, celui qui va être transmis. Le nœud de rang 2 et 3, s’ils existent, transmettent à leur tour, successivement, leur trames d’annonces. Lorsqu’un nœud n’émet pas de trame d’annonce, il écoute le mé- dium de communication. À la réception d’une trame d’annonce, un nœud détermine s’il est le destinataire de la trame de données. Si oui, il planifie une écoute du médium de communication à l’instant de transmission correspondant. Une fois l’étape d’annonce terminée, les nœuds ayant obtenu l’autorisation d’émission exécutent l’envoi de leur trame de données aux instants de transmission déterminés par leur rang : le nœud de rang 1 émet à l’instant de transmission a, le nœud de rang 2 à l’instant de transmission b et le nœud de rang 3 à l’instant de transmission c. 141CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC 7.2.2 Étape 1 : Classement des nœuds émetteurs L’étape de classement des nœuds émetteurs prend place dans une fenêtre de contention de taille K1, débutant à l’instant t1. La durée des intervalles composant la fenêtre est déterminée conformément au dimensionnement proposé dans le Chapitre 4 et est explicité en Section 7.3.1. La durée d’un intervalle garantit donc une période commune entre nœuds voisins permettant l’envoi et la détection de signaux d’annonce de transmission, malgré une éventuelle désynchronisation. Les nœuds émetteurs participant à cette fenêtre de contention tirent l’un des intervalles selon une loi de distribution choisie. Dans la première partie de cette présentation, nous supposons l’usage d’une loi uniforme. A l’instar des mécanismes de contention à tonalité simple 1 (ATS), un nœud planifie l’émission d’un signal de transmission dans l’intervalle tiré et une écoute des intervalles précédents. Ce comportement est décrit par la Figure 7.2. Figure 7.2 – Étape 1 de l’algorithme de contention de CT-MAC, comportement d’un nœud isolé souhaitant émettre Contrairement aux mécanismes de contention de type ATS, un nœud n’interrompt pas nécessairement sa participation lorsqu’il détecte un signal de transmission. Au lieu de cela, il en mémorise le nombre dans un registre : c1. A chaque nouvelle détection, la valeur de c1 est comparée au nombre d’instants de transmission disponibles : ct (ct = 3 dans l’Exemple de la Figure 7.1). Si c1 est égal à ct alors la participation du nœud est annulée et la transmission est reportée à une période d’activité ultérieure. Dans le cas contraire, le nœud continue sa participation. Un nœud qui n’interrompt pas sa participation mémorise la valeur c1 au moment d’émettre le signal de transmission. Cette valeur, qui correspond au nombre d’intervalles marqués, est utilisée à titre de classement et permet l’allocation des ct instants de transmission. Dans l’exemple illustré par les Figures 7.1 et 7.3, le nœud 2 obtient le premier instant de transmission (a), le nœud 1 obtient le second instant de transmission (b) et le nœud 4 obtient le troisième et dernier instant de transmission (c). Le nœud 3 interrompt sa participation au mécanisme de contention, il n’y a en effet plus d’instant de transmission disponible. 7.2.3 Étape 2 : Suppression des doublons dans le classement Lorsque deux nœuds ou plus réalisent le même tirage lors de l’étape 1, c’est à dire émettent leur signal de transmission dans le même intervalle, ils obtiennent probablement 1. une définition de ces mécanismes est disponible dans le Chap.5 142CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC Figure 7.3 – Étape 1 de l’algorithme de contention de CT-MAC, comptage des détections et classement le même classement et tentent d’émettre au même instant de transmission. Un tel scénario, illustré par la Figure 7.4, peut mener à une collision des trames de données et donc à un échec de leurs transmissions. Conformément aux observations du Chapitre 5, l’algorithme de l’étape 1 peut être ajusté de manière à limiter la probabilité correspondante : en augmentant le nombre de séquences a priori 2 ou en utilisant une loi de distribution optimisée lors du tirage. La première solution nécessite une augmentation de la taille de la fenêtre de contention : K1. Compte tenu de la nature de l’algorithme, i.e. les nœuds tirent un intervalle parmi les K1 disponibles, le nombre de séquence a priori augmente de manière linéaire avec la taille de la fenêtre. La deuxième solution nécessite quant à elle une estimation fiable du nombre de compétiteurs. Dans CT-MAC, nous distinguons l’objectif de classement des nœuds, opéré lors de l’étape 1 et la suppression des doublons dans le classement, opérée ultérieurement : étape 2. Dans le Chapitre 5, nous avons en effet montré que les algorithmes à décompte binaires (ADB) sont les algorithmes de contention les plus efficaces pour discriminer un nœud unique parmi un ensemble en compétition. Nous associons donc une fenêtre de contention de suppression des doublons à chaque instant de transmission disponible. Dans l’exemple de la Figure 7.1, nous avons trois fenêtres nommées d’après les instants de transmission correspondants, i.e. a, b et c, chacune de taille k2, k2=6. Les fenêtres de contention de l’étape 2, au nombre de 3 dans l’exemple, ont lieu après la fenêtre de contention de l’étape 1. Chacune est de taille K2. À chaque intervalle, conformément à la description faite des algorithmes à décompte binaire dans le Chapitre 5, les nœuds réalisent soit une détection de transmission, soit l’émission d’un signal de transmission, selon un tirage aléatoire. Compte tenu des conclusions tirées dans le Chapitre 5, le tirage aléatoire suit une loi de distribution uniforme. À chaque intervalle, les nœuds participants effectuent l’action tirée aléatoirement. La Figure 7.5 illustre le déroulement d’une telle fenêtre pour un nœud seul en compétition. Si un nœud détecte un signal de transmission, il interrompt sa participation et reporte l’envoi de sa trame de données à la prochaine période d’activité. Un tel scénario est décrit par la Figure 7.6. 2. la notion de séquence a priori est définie et expliquée dans le Chapitre 5. 143CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC Figure 7.4 – Deux noeuds obtiennent un classement identique suite au tirage du même intervalle Figure 7.5 – Étape 2 de l’algorithme de contention de CT-MAC, comportement d’un nœud isolé Figure 7.6 – Étape 2 de l’algorithme de contention de CT-MAC, suppression d’un doublon 7.2.4 Étape 3 : Annonces des émissions À la fin de l’étape 2, les nœuds souhaitant transmettre ont soit obtenu accès à l’un des instants de transmission, soit reporté l’émission de leur trame de données. À la date t2, 144CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC tous les nœuds du réseau activent leur circuit radio. Les nœuds sortis vainqueurs des étapes 1 et 2 transmettent un trame d’annonce dans l’un des ct intervalles de la fenêtre d’annonce selon l’ordre du classement établi. Cette trame d’annonce contient l’identifiant du destinataire de la trame de données et un identifiant de paquet, incrémenté à chaque nouvelle trame de données. Une fois la trame d’annonce émise, le nœud émetteur écoute le médium radio dans l’attente d’un acquittement de la part de la destination. À la réception de ce dernier, le nœud programme l’émission de la trame à l’instant de transmission correspondant à son rang. En l’absence d’acquittement, l’émission de la trame de donnée est annulée et le nœud la reporte à la période d’activité suivante. Lorsqu’un nœud ne transmet pas d’annonce dans un intervalle, il écoute le médium. À la réception d’une trame d’annonce, il détermine s’il est le destinataire de la trame. Dans ce cas, il programme une écoute du médium à l’instant de transmission correspondant à l’annonce. Dans le cas contraire, il ignore l’annonce. La Figure 7.7 illustre ce comportement : le nœud 2 transmet une trame d’annonce dans l’intervalle a après avoir obtenu accès à l’instant de transmission a. Les nœuds 1 et 3 détectent et reçoivent la trame d’annonce. le nœud 3, destinataire de la trame transmet en retour une trame d’acquittement alors que le nœud 1 ignore la trame. Finalement, le nœud 2 planifie l’émission de la trame de données à l’instant de transmission a et le nœud 3 planifie son écoute. Figure 7.7 – Étape 3 : annonce des émissions et planification des émissions/écoute Le mécanisme de classement par comptage et d’annonces ordonnées a pour effet de grouper les annonces au début de la fenêtre. Nous exploitons cette propriété pour limiter le coût inhérent à l’écoute périodique, c’est à dire à l’écoute des trames d’annonces. Ainsi, si aucune trame d’annonce n’est détectée dans plusieurs intervalles d’annonce successifs, ce nombre étant appelé ca, un nœud éteint sa radio jusqu’au prochain instant de réveil programmé (l’un des instants de transmission ou la période d’activité suivante selon les cas). La Figure 7.8 illustre un tel scénario pour une valeur ca égale à deux : le nœud 4, situé hors de portée des nœud 1 et 2, ne détecte aucune trame d’annonce dans les deux premiers intervalles d’annonce et éteint donc sa radio. Le choix de la valeur ca est discuté en Section 7.3.1. 145CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC Figure 7.8 – Étape 3 : Écoute adaptative des annonces 7.2.5 Étape 4 : Transmission des trames de données Lors de l’étape 3, les nœuds émetteurs ont annoncé l’instant de transmission ainsi qu’un identifiant de paquet. Les nœuds ayant reçu un acquittement émettent leur paquet de données à l’instant de transmission correspondant à leur classement. Les destinataires écoutent quant à eux le médium aux instants définis par les messages d’annonce, comme illustré par la Figure 7.9. Figure 7.9 – Étape 4 : Transmission des données 7.3 Discussions Dans cette Section, nous détaillons l’implémentation de la détection de transmission, l’optimisation de la loi de distribution de l’étape 1 et l’optimisation de l’usage des instants de transmission. 146CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC 7.3.1 Implémentation de la détection de transmission CT-MAC fait usage de fenêtres de contention pour départager et classer les nœuds candidats à l’émission. Lors d’une fenêtre de contention, un nœud peut alternativement émettre des signaux de transmission ou écouter le médium afin de détecter une éventuelle transmission. Comme l’indique la Section 7.2.2, le bon fonctionnement des algorithmes de classement et de suppression des doublons dépendent de la capacité des nœuds à détecter les signaux de transmission des autres compétiteurs. Nous décrivons ici une implémentation de ces mécanismes permettant d’assurer le bon fonctionnement du protocole. Nous proposons que la détection est effectuée au moyen d’un "Clear Channel Assessment" (CCA) comme proposé par B-MAC [25] afin de limiter le nombre de faux-positifs 3. De fait, il suffit que le signal excède le seuil de sensibilité du circuit radio pour être détecté. Démoduler un message nécessite au contraire un rapport signal sur bruit et interférences fonction du taux d’erreur binaire acceptable. De cette façon, nous assurons un périmètre de détection de transmission plus large que pour la transmission de données. Nous spécifions également que chaque intervalle des fenêtres de contention des étapes 1 et 2 soit décomposé en deux sous-intervalles, tel qu’illustré par la Figure 7.10 et proposé par [115]. À l’instar du nœud 2 de la Figure 7.10, les nœuds émettant un signal d’occupation le font dans le premier sous-intervalle. Un nœud à l’écoute réalise une première détection dans ce même sous-intervalle. Si un signal est détecté, il transmet un signal d’occupation dans le deuxième sous-intervalle (écho), sinon il réalise à nouveau une détection. Figure 7.10 – Fiabilisation de la détection par voix d’écho La Figure 7.10 illustre l’intérêt d’un tel mécanisme. Dans ce scénario, le nœud 4 ne détecte pas le signal de transmission du nœud 2 lors de la première détection. En revanche le nœud 3 le détecte et transmet donc un signal d’occupation en écho dans le deuxième sous-intervalle. Lors de la deuxième détection, le nœud 4 détecte le signal d’écho et est donc notifié de la transmission du nœud 2. Cette implémentation est particulièrement utile lorsque les nœuds reçoivent les messages de données à des niveaux de puissance proches du seuil de sensibilité de la radio ou en présence de nœuds cachés, i.e. lorsque l’hypothèse d’une portée de détection double de celle de communication n’est pas vérifiée. 3. le mécanisme est basé sur une série de détection de signal à laquelle est appliqué un algorithme de détection d’outlier 147CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC La contrepartie d’une telle mesure est un accroissement de la consommation d’énergie, pouvant ainsi atteindre le double d’un mécanisme sans voix d’écho (pire cas). Néanmoins, ce coût est compensé par l’allocation multiple d’instants de transmission, i.e. ct instants par période d’activité (ct & 2). 7.3.2 Optimisation de la loi de distribution du tirage de l’étape 1 Dans le Chapitre 5 traitant des mécanismes de contention, nous montrons que tirer les séquences a priori selon une loi de distribution géométrique croissante tronquée plutôt que selon la loi uniforme diminue le taux de collision sur les données. Son usage est cependant d’un intérêt limité en raison du faible nombre de compétiteurs par fenêtre de contention (en moyenne inférieur à 1) avec les algorithmes de contention de la littérature. Cette mesure n’a en effet d’intérêt qu’en présence de multiples compétiteurs par fenêtre de contention. Parce qu’il factorise l’allocation de plusieurs instants de transmission lors de l’étape 1, CT-MAC conduit à la présence de multiples compétiteurs dans la fenêtre de contention. Compte-tenu du dimensionnement de la période d’activité présenté dans le Chapitre 6, le nombre attendu de compétiteurs lors de l’étape 1 est de ct/2. Il devient donc intéressant d’utiliser une loi de distribution optimisée. Nous présentons ici une méthodologie afin de parvenir à son expression. En revanche, notre analyse de performance se basera sur une loi de distribution uniforme, l’implémentation et l’analyse de performance selon une telle loi optimisée faisant l’objet de travaux futurs. 7.3.2.1 Notations Dans cette étude, nous réutilisons les notations et conventions adoptées dans le Chapitre 5. Les notations utiles à la compréhension sont synthétisées dans le tableau 7.1. Nous rappelons également la convention choisie dans le Chapitre 5 : chacune des |S| séquences a priori est associée à un entier compris entre 1 et |S|, l’entier 1 correspondant à la séquence la plus forte et |S| la séquence la plus faible. notation signification n nombre de nœuds dans le voisinage radio ⌦ ensemble des séquences a priori réalisables dans la fenêtre de contention S ensemble des séquences a priori autorisées par l’algorithme de contention P mesure de probabilité sur ⌦ tel que 8s 2 S, P(s) est la probabilité pour un nœud en compétition de tirer la séquence s Pr(⌦, S, P, n) mesure de probabilité sur ⌦ tel que 8s 2 S, Pr(⌦, S, P, n)(s) est la probabilité que la séquence s soit d’ordre r sachant le quadruplet (⌦, S, P, n) Cr(⌦, S, P, n) fonction de répartition correspondante à Pr(⌦, S, P, n) Ar(⌦, S, P, n) différence d’aire entre les courbes Cr(⌦, S, P, n) et Cr+1(⌦, S, P, n) Table 7.1 – Notations retenues pour l’optimisation de la loi de distribution utilisée à l’étape 1 du protocole CT-MAC 7.3.2.2 Méthode La méthode d’optimisation que nous proposons repose sur l’analyse des statistiques d’ordre des tirages de séquences a priori réalisés lors de l’étape 1. Nous constatons en effet que le classement des nœuds correspond à l’ordre des séquences de chaque nœud parmi l’ensemble des séquences tirées, e.g. le nœud tirant la séquence la plus forte obtient le 148CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC premier instant de transmission, le nœud tirant la séquence la plus forte parmi les séquences restantes obtient le second instant de transmission, etc. Minimiser le taux de collision pour la première place du classement est donc équivalent à maximiser la probabilité que la plus petite valeur tirée parmi [1, |S|] soit différente de la deuxième plus petite valeur. Autrement dit, on souhaite maximiser la différence entre les aires sous les courbes de C1(⌦, S, P, n) et de C2(⌦, S, P, n). Pareillement, minimiser les collisions sur les ct premières places du classement , i.e. celles permettant un accès aux instants de transmissions revient à maximiser les différences des aires des courbes Cr(⌦, S, P, n) et Cr+1(⌦, S, P, n), c’est à dire Ar(⌦, S, P, n), pour r compris entre 1 et ct. Figure 7.11 – Fonction de répartition des statistiques d’ordre pour une loi uniforme, exemple avec |S| = 16 et n = 4 Démonstration. La Figure 7.11 représente les fonctions de répartitions des statistiques d’ordre pour une loi de tirage dans S uniforme et pour 4 compétiteurs, i.e. C1(⌦, S, U, 4) : marqueurs ronds (en orange) et annotation "ordre 1", C2(⌦, S, P, 4) : marqueurs triangulaires (en bleu) et annotation "ordre 2", C3(⌦, S, U, 3) : marqueurs carrés (en vert) et annotation "ordre 3" et C4(⌦, S, U, 4) : marqueurs étoilés (en rouge) et annotation "ordre 4". Afin d’expliciter la signification de chacune des courbes, considérons les points d’intersection entre la droite d’abscisse 7 et les courbes "ordre 1" et "ordre 2". L’intersection avec la courbe "ordre 1" (C1(⌦, S, U, 4)) nous informe que la séquence la plus forte a une probabilité de 90% d’être inférieure ou égale à 7, alors que l’intersection avec la courbe "ordre 2" (C2(⌦, S, U, 4)) nous informe que la seconde séquence la plus forte a une probabilité d’environ 60% d’être inférieure à 7. Considérons maintenant la surface délimitée par le rectangle en pointillés. D’après ce qui vient d’être dit, plus cette aire est grande, plus la séquence la plus forte a des chances d’être distincte de la deuxième séquence la plus forte, i.e. la séquence la plus forte est inférieure ou égale à l’abscisse du rectangle alors que la 149CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC deuxième séquence la plus forte est supérieure strictement à cette abscisse. Par extension, nous en déduisons que plus l’aire entre les courbes de deux ordres successifs est grande, i.e. Ar(⌦, S, P, n), plus la probabilité d’avoir des séquences d’ordres successifs distinctes est grande. 7.3.2.3 Calcul de Ar(⌦, S, P, n) D’après [116], la loi de densité de la statistique d’ordre r en un point s d’un ensemble discret et fini est donnée par la formule : Pr(⌦, S, P, n)(s) = n! (r ! 1)!(n ! r)! Z C(s) C(s#1) wr#1(1 ! w) n#rdw (7.1) Cette expression est équivalente à : Pr(⌦, S, P, n)(s) = n! (r ! 1)!(n ! r)!  wr r 2F1(r, r ! n;1+ r; w) ?C(s) C(s#1) avec 2F1 la fonction hypergéométrique de Gauss. En utilisant la transformée d’Euler : Pr(⌦, S, P, n)(s) = n! (r ! 1)!(n ! r)![ wr r .(1 ! w) n+1#r 2F1(1, 1 + n;1+ r; w)]C(s) C(s#1) En simplifiant d’avantage et en remplaçant la fonction hypergéométrique par son expression littérale : Pr(⌦, S, P, n)(s) = n! r!(n ! r)![wr(1 ! w) n+1#r 2F1(1, 1 + n;1+ r; w)]C(s) C(s#1) = n! r!(n ! r)![wr(1 ! w) n+1#rX1 k=0 wk1(k) (1 + n)(k) k!(1 + r)(k) ] C(s) C(s#1) = n! r!.(n ! r)![wr(1 ! w) n+1#rX1 k=0 wkk! (n+k)! n! k! (r+k)! r! ] C(s) C(s#1) = 1 (n ! r)![wr(1 ! w) n+1#rX1 k=0 wk(n + k)! (r + k)! ] C(s) C(s#1) En opérant le changement de variable k ! k ! r, l’expression devient : Pr(⌦, S, P, n)(s) = 1 (n ! r)![wr(1 ! w) n+1#rX1 k=r wk#r(n + k ! r)! (r + k ! r)! ] C(s) C(s#1) = 1 (n ! r)![(1 ! w) n+1#rX1 k=r wk(n + k ! r)! k! ] C(s) C(s#1) = [(1 ! w) n+1#rX1 k=r wk(n + k ! r)! k!(n ! r)! ] C(s) C(s#1) En faisant apparaître la somme de k=0 à l’infini : Pr(⌦, S, P, n)(s) = [(1 ! w) n+1#r( X1 k=0 wk(n + k ! r)! k!(n ! r)! !Xr#1 k=0 wk(n + k ! r)! k!(n ! r)! )]C(s) C(s#1) = [(1 ! w) n+1#r( 1 (1 ! w)n+1#r !Xr#1 k=0 wk(n + k ! r)! k!(n ! r)! )]C(s) C(s#1) 150CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC Pr(⌦, S, P, n)(s) = [(1 ! w) n+1#rXr#1 k=0 wk(n + k ! r)! k!(n ! r)! ] C(s#1) C(s) La fonction de répartition s’exprime donc sous la forme : Cr(⌦, S, P, n)(s) = Xs i=1 Cr(⌦, S, P, n)(s) = Xs i=1 [(1 ! w) n+1#rXr#1 k=0 wk(n + k ! r)! k!(n ! r)! ] C(s#1) C(s) La somme étant télescopique, on obtient : Cr(⌦, S, P, n)(s) = [(1 ! w) n+1#rXr#1 k=0 wk(n + k ! r)! k!(n ! r)! ] 0 C(s) On déduit : Ar(⌦, S, P, n) = X |S| s=1 [Cr(⌦, S, P, n)(s) ! Cr+1(⌦, S, P, n)(s)] = X |S| i=s [[(1 ! w) n+1#rXr#1 k=0 wk(n + k ! r)! k!(n ! r)! ] 0 C(s) ![(1 ! w) n#rXr k=0 wk(n + k ! r ! 1)! k!(n ! r ! 1)! ] 0 C(s)] = X |S| s=1 (1 ! C(s))n#r[ Xr#1 k=0 [ C(s)k k! (n + k ! r ! 1)! ! (n+k#r)! n#r (1 ! C(s)) (n ! r ! 1)! ] + C(s)r r! (n ! 1)! (n ! r ! 1)!] 7.3.2.4 Application à un cas simple : choix du paramètre ↵ de la loi géomé- trique croissante tronquée Afin d’illustrer l’intérêt de la méthode proposée, nous étudions le choix de la valeur du paramètre ↵ de la loi géométrique G. Nous nous plaçons dans le cas d’un mécanisme de contention classique, i.e. allocation d’un seul instant de transmission. Nous rappelons à titre informatif que [34] propose la valeur suivante : ↵ = n !1 |S|!1 . D’après ce qui précède, minimiser le taux de collision dans ce scénario revient à maximiser A1(⌦, S, G, n). Son expression est donnée par : A1(⌦, S, G, n) = X |S| s=1 [nC(s)(1 ! C(s))n#1] = X |S| s=1 [n ↵|S| 1 ! ↵S (↵#s ! 1)(1 ! ↵|S| 1 ! ↵S (↵#s ! 1))n#1] En faisant varier le paramètre ↵ dans l’intervalle ]0; 1[ on obtient la courbe noire présentée sur la Figure 7.12 (|S| = 128 et n = 32). 151CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC Figure 7.12 – Paramètrage de la loi géométrique, choix du paramètre ↵ pour |S| = 128 et n = 32 On observe que A1(⌦, S, G, n) admet un maximum global et aucun maximum local. Une recherche de ce maximum par la méthode de l’algorithme du gradient est donc envisageable : sur cet exemple, ce maximum est obtenu pour ↵ ⇡ 0.958 (étoile verte sur la courbe). À des fins de comparaison, nous avons rapporté la valeur de ↵ proposée par [34] : ↵ = 0.973. En injectant ces valeurs dans l’équation de la probabilité de collision pour une loi géométrique (équation 5.4 du Chapitre 5), nous obtenons le taux de collision obtenu avec le dimensionnement proposé par [34] : 2, 7% et avec notre méthode de dimensionnement : 2, 4%. La méthode de dimensionnement proposée permet, pour cet exemple, une diminution de 11% du taux de collision. 7.3.2.5 Application à l’étape de classement de CT-MAC Cette même méthode peut être appliquée à l’optimisation de l’étape de classement de CT-MAC et nous proposons de l’appliquer pour choisir le paramètre ↵ de la loi géomé- trique 4. Comme indiqué précédemment, maximiser l’aire Ar(⌦, S, P, n) revient à minimiser le taux de collision entre la rieme plus petite valeur tirée dans S et la (r + 1)ieme plus petite valeur. Dans l’illustration de CT-MAC (Figure 7.1), nous avons 3 instants de transmission par période d’activité. Nous cherchons donc dans cet exemple à maximiser les aires A1(⌦, S, P, n), A2(⌦, S, P, n) et A3(⌦, S, P, n) au détriment des aires Ar(⌦, S, P, n) d’ordre r & 4. À chacun des ordres inférieur ou égal à trois correspond un instant de transmission et nous supposons que ces instants de transmissions sont tous équivalents, i.e. ils permettent 4. cette méthode permet également de trouver la loi de distribution générique optimale. Il faut pour cela considérer la forme générale de Ar(⌦, S, P, n). Ce travail nécessite néanmoins une méthode d’optimisation non triviale en raison de la fonction objectif non linéaire et des contraintes sur l’espace des solutions (somme des probabilités égale à 1). 152CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC tous l’émission d’une trame de données. Nous choisissons donc une fonction objectif visant à minimiser le taux de collision le plus élevé parmi les ct premiers ordres : fobjectif = max(min(A1(⌦, S, P, n), A2(⌦, S, P, n), ..., Act(⌦, S, P, n))) Afin d’illustrer les résultats obtenus, nous considérons le scénario suivant : n = 32 nœuds en compétition dans une fenêtre de taille K1 = 128 et ct = 3 instants de transmissions. La Figure 7.13 représente les valeurs de A1(⌦, S, P, n), A2(⌦, S, P, n), A3(⌦, S, P, n) et A4(⌦, S, P, n) sur l’intervalle ↵ 2 [0, 85; 1]. Figure 7.13 – Application à l’étape de classement de CT-MAC, choix du paramètre ↵ D’après la Figure 7.13, le maximum de la fonction objectif est atteint pour ↵ ⇡ 0, 973, valeur à choisir comme paramètre de la loi géométrique tronquée pour ce scénario. 7.3.3 Optimisation de l’usage des instants de transmission Suite à l’étape 1 de CT-MAC, les nœuds émetteurs en compétition se sont soit retirés de la compétition, soit attribués un classement. À la suite de la compétition, jusqu’à ct instants de transmission ont été alloués pour chaque deux-voisinage radio. Lorsque certains instants de transmission n’ont pas été affectés, nous permettons aux nœuds souhaitant émettre plus d’un paquet lors de la période d’activité de concourir pour l’un des instants de transmission restés vacants. Pour cela, nous proposons que ces nœuds maintiennent un deuxième compteur nommé c2. Ce compteur est initialisé à 0 au début de l’étape 1 et est incrémenté chaque fois que le nœud détecte ou transmet un signal de transmission. Afin de déterminer les instants de transmission restés vacants, ces nœuds prolongent ainsi leur écoute du médium après l’envoi du signal de transmission et continuent d’incrémenter c2 si un signal d’occupation est détecté. Ce comportement est décrit par la Figure 7.14. Dans ce scénario, les nœuds 1 et 2 sont en compétition pour l’accès aux instants de transmission, le nœud 1 a deux trames de données à émettre, le nœud 2 en a une. Le nœud 2 émet son signal de transmission en premier, il obtient donc le classement 1. Le nœud 1 détecte le signal du nœud 2 puis transmet son signal, il obtient le classement 2. Sachant 153CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC Figure 7.14 – Optimisation de l’usage des instants de transmission qu’un instant de transmission est toujours vacant (ct = 3) et qu’il a une autre trame à émettre, le nœud 1 prolonge son écoute. Une fois la fenêtre de contention écoulée, le nœud 1 constate qu’un intervalle est toujours vacant c2 < ct et décide donc de concourir également pour l’instant de transmission c. La suite du protocole, i.e. les étapes 2, 3 et 4 se déroule sans modification. Cette optimisation s’avère particulièrement utile pour les nœuds proches de la passerelle dans le cas d’une topologie multi-sauts. En effet, en raison de la convergence des trames vers la passerelle, les nœuds proches de celle-ci peuvent alors écouler plusieurs trames au sein d’une même période d’activité, permettant ainsi une économie en énergie (une seule compétition pour plusieurs trames) et en délai (plus besoin d’attendre la prochaine période d’activité). 7.4 Analyse de performances Dans cette Section, nous étudions les performances de CT-MAC et les comparons au protocole SCP-MAC [35]. SCP-MAC est un protocole synchrone à contention efficace en énergie et sa description est disponible dans le Chapitre 3 (Section 3.1.3.1). Un résumé est disponible dans la Section 7.4.1.5. Dans cette étude nous retenons 3 critères de comparaison : le taux de livraison, le délai de livraison et la puissance dissipée. Ces critères permettent en effet d’étudier l’adéquation des protocoles étudiés avec les exigences de Qualité de Service et de durée de vie exprimées dans le Chapitre 1. Nous rappelons ici les exigences principales : Durée de vie des capteurs La durée de vie attendue des capteurs sans-fil est d’une quinzaine année environ, soit une puissance moyenne dissipée de 0, 16 mW. Taux de livraison Les applications cibles tolèrent une perte de paquets de l’ordre du pourcent. Délai de livraison Dans les Chapitres 1 et 6, nous avons montré que le dimensionnement du réseau dans l’optique de supporter le trafic applicatif permettait de garantir le délai de livraison moyen attendu, nous vérifions ce résultat dans cette étude. 7.4.1 Environnement de simulation, scénarios et critères d’évaluation Cette évaluation de performance est réalisée par simulation et nous détaillons ici les outils et la méthodologie utilisée. 154CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC 7.4.1.1 WSNet Les simulations ont été réalisées sur le simulateur WSNet [14]. Ce simulateur développé par l’Institut National de Recherche en Informatique et en Automatique (INRIA) est disponible en open-source à l’adresse "http ://wsnet.gforge.inria.fr". Développé en C, il est spécifiquement conçu pour simuler des réseaux sans-fil, en particulier les réseaux de capteurs. Il présente en effet une modélisation fine de l’interférence et de la propagation des signaux radio. 7.4.1.2 Topologies physiques Les résultats que nous présentons sont issus de la simulation de réseaux de capteurs déployés selon deux topologies physique : en clique et en grille régulière. Clique La topologie en Clique consiste en un 1-voisinage radio contenant l’ensemble des nœuds simulés. Quelque soit la source, le niveau de signal reçu à chaque nœud est le même. Ainsi, deux trames émises sur le même support temporel ne peuvent être décodées. Cette topologie nous permet de vérifier le fonctionnement de l’algorithme de classement en l’absence de pertes due au pathloss et aux nœuds cachés. Nous avons retenu un nombre de nœuds par scénario compris entre 10 et 80 de façon à correspondre aux études du Chapitre 6. Grille régulière La grille régulière consiste en un réseau multi-sauts, i.e. les trames sont nécessairement relayées afin d’être transmises depuis les émetteurs vers les destinataires. La Figure 7.15 illustre une telle grille et un exemple de portées de communication et de détection de transmission. Les résultats de simulations qui sont illustrés ci-après portent sur une grille de 169 nœuds soit jusqu’à 6 sauts entre les sources et la passerelle. Nous avons choisi une grille régulière à maille carrée afin de pouvoir classifier les nœuds en fonction de leur position physique et logique dans la topologie. Le détail de l’explication est disponible dans la Section 8.3.1.4. 7.4.1.3 Modèle radio Nous considérons dans cette étude un modèle de propagation des ondes radios à deux rayons sur un canal AWGN. En pratique cela signifie un affaiblissement de 40dB/décade dans la topologie à grille régulière. Les circuits radio considérés émettent dans la bande ISM 868MHz à un débit de 19,2kbit/s, selon une modulation BPSK et le temps symbole est de Ts = 50 µs. La sensibilité du récepteur est de !110 dBm et la puissance en émission est de 0 dBm. Les puissances dissipées considérées sont identiques au paramétrage choisi dans le Chapitre 6, nous rappelons les principales informations dans le tableau 7.2 : Paramètre valeur Ptx 62, 5 mW Prx 53, 7 mW Ereveil 0, 16 mJ Erx!tx 53, 7 µJ Etx!rx 53.7 µJ Table 7.2 – Puissances et énergies dissipées dans le circuit radio 155CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC Figure 7.15 – Grille régulière à maille carrée 7.4.1.4 Paramétrage de CT-MAC Nous proposons dans cette analyse de performance d’étudier CT-MAC pour une allocation de ct = 16 instants de transmission par période d’activité 5. Fréquence d’écoute périodique du médium Dans le Chapitre 6, nous avons étudié le dimensionnement d’un protocole synchrone à contention. Ce dimensionnement définit la période de réveil des nœuds capteurs, le dimensionnement des fenêtres de contention, la période de resynchronisation des horloges et la taille des préambules. Nous avons montré en particulier que la fréquence d’écoute du médium devait être le double de la fréquence d’envoi de trames dans le réseau. Ce dimensionnement avait en effet pour hypothèse qu’un unique instant de transmission par période d’activité. Avec CT-MAC, nous pouvons allouer jusqu’à ct instants de transmission par période d’activité, nous proposons donc de diviser la fréquence d’écoute par ct par rapport à la valeur conseillée dans le Chapitre 6. Dimensionnement de la fenêtre de contention de l’étape 1 Dans cette étude de performance, CT-MAC implémente la méthode de détection décrite en Section 7.3.1. Chacun des intervalles de la fenêtre de contention est donc de taille double par rapport à celle proposée dans le Chapitre 6. Nous choisissons de munir l’étape 1 de CT-MAC d’une fenêtre de taille relativement faible au regard du nombre d’instants de transmission disponible, i.e. K1=2ct = 32. Nous rappelons que l’objectif est ici de classer les nœuds, la suppression des doublons étant réalisés à l’étape 2. 5. Dans la publication [117], nous proposons une étude de CT-MAC avec 32 instants de transmission par période d’activité. Ces résultats sont de même nature et concordent avec ceux illustrés ici. 156CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC Dimensionnement des fenêtres de contention de l’étape 2 Les fenêtres de contention de l’étape 2 sont dimensionnées d’après les résultats du Chapitre 6 : la taille choisie est de 6. 7.4.1.5 Paramétrage de SCP-MAC Avant de présenter son dimensionnement, nous rappelons la structure du protocole SCP-MAC présenté sur la Figure 7.16. Figure 7.16 – Protocole SCP-MAC : structure du protocole SCP-MAC est un protocole synchrone basé sur une écoute périodique synchrone du médium. Les nœuds souhaitant émettre se réveillent juste avant l’instant prédéterminé pour l’écoute périodique, écoutent le canal radio et émettent un signal de transmission si aucune transmission n’est détectée. Le moment de réveil en question est tiré aléatoirement dans une fenêtre de contention et le signal de transmission est maintenu jusqu’à l’instant de réveil des nœuds récepteurs. De cette façon, les nœuds récepteurs sont avertis de la transmission à venir et les autres émetteurs reportent l’émission de leur trame s’ils détectent ce signal. Suite à l’émission du signal de transmission, les nœuds émetteurs attendent pendant une courte durée tirée aléatoirement. Ils écoutent ensuite le médium et transmettent leur trame de données si aucune autre trame n’est détectée. Nous observons ici 3 éléments de dimensionnement : la période d’écoute et la taille des deux fenêtres de contention. Ces différents éléments sont dimensionnés selon les recommandations du Chapitre 6 : la fréquence d’écoute est double du trafic à supporter, la taille de la première fenêtre de contention est identique à celle de CT-MAC, i.e. 32 et enfin la deuxième fenêtre est de taille 8. Afin d’offrir une comparaison équitable des deux protocoles, nous remplaçons en effet le mécanisme de contention proposé originellement par SCP-MAC par un algorithme à décompte binaire, prouvé plus efficace en énergie pour un taux de collision donné (voir Chapitre 5). 157CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC 7.4.1.6 Modèle de routage Nous comparons CT-MAC et SCP-MAC sur une même topologie logique. Cette topologie est un graphe acyclique dirigé enraciné à la passerelle. Dans ces simulations, un nœud transmet ses trames de données aux parents en équilibrant la charge entre ces derniers. De cette façon, la charge de trafic est homogénéisée entre les nœuds d’une même couronne. Une telle topologie est représentée par la Figure 7.17. Figure 7.17 – Routage sur topologie multi-sauts 7.4.1.7 Modèle de trafic Dans cette étude, nous considérons une application de relève de compteurs urbains : chaque nœud autre que la passerelle transmet des trames de données de 600 bits. Les instants de génération sont strictement périodiques et la loi de distribution temporelle des instants de génération est uniforme sur la population des nœuds. En raison de la dérive des horloges des nœuds, la période de génération des trames est définie à ±20ppm. Nous faisons varier la fréquence de génération des trames entre une trame par jour et une trame par heure. D’après le Chapitre 6, cette plage de fréquences correspond en effet au domaine où un réseaux multi-sauts synchrone consomme moins qu’un réseau radio longue portée ou qu’un réseau multi-sauts asynchrone. 7.4.2 Conditions d’expérimentation Chacun des scénarios pré-cités est simulé 6 fois, le générateur de nombres pseudoaléatoire étant initialisé à chaque fois avec une graine différente ("seed"). Chaque itération représente une durée équivalente à 10 000 périodes d’activité de SCP-MAC. Les résultats que nous présentons font l’objet d’un moyennage sur l’ensemble des 6 itérations et l’intervalle de confiance à 95%, non représenté sur les Figures pour des raisons de lisibilité, est d’une largeur inférieure à 6% de la valeur représentée. 158CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC 7.4.3 Résultats pour une topologie physique en clique Nous présentons ici les résultats obtenus pour la topologie physique en clique. 7.4.3.1 Puissance dissipée Figure 7.18 – Puissance dissipée comparée, clique de 80 nœuds La Figure 7.18 représente la puissance moyenne dissipée par le réseau (la passerelle n’est pas incluse). On constate en premier lieu que la puissance dissipée par CT-MAC est inférieure à celle de SCP-MAC. Sur l’ensemble des scénarios, la puissance moyenne dissipée est réduite d’environ 10%. Pour les trafics les plus faibles, on constate que le coût majoritaire est induit par le mécanisme de synchronisation. En effet, dans le Chapitre 4, nous avons montré que la puissance dissipée pour un nœud relayeur est de l’ordre de 0,02 mW, valeur qui correspond à la majeure partie de la dépense énergétique totale. Nous traçons donc la puissance dissipée hors mécanisme de synchronisation afin de juger de l’intérêt de l’allocation de multiples instants de transmission par période d’activité. Les résultats sont reportés sur la Figure 7.19. Dans ces conditions, nous observons que CT-MAC présente une consommation énergé- tique inférieure de 20% à celle de SCP-MAC. Cette consommation provient majoritairement du mécanisme de contention. Ces résultats sur la topologie en clique valident donc l’intérêt de factoriser le coût de l’allocation de plusieurs instants de transmission et donc la pertinence du protocole CT-MAC. 159CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC Figure 7.19 – Puissance dissipée comparée (hors synchronisation), clique de 80 nœuds 7.4.3.2 Taux de livraison Nous vérifions maintenant que cette diminution de la consommation énergétique ne s’accompagne pas d’effets secondaires préjudiciables sur les exigences de Qualité de Service que nous avons décrit dans le Chapitre 6. La Figure 7.20 représente les taux de livraison obtenus sur la clique de plus grande population (80 nœuds). Pour cette étude, le mécanisme de retransmission en présence d’un échec de l’envoi des données a été désactivé. On observe que CT-MAC présente un taux de livraison supérieur ou égal à 99,8% sur l’ensemble des scénarios de trafic. On constate néanmoins un taux de livraison légèrement inférieur à SCP-MAC pour les trafics les plus faibles. De tels résultats s’expliquent par le dimensionnement de la période d’activité. En effet, dans le cas de SCP-MAC, l’objectif du dimensionnement est de garantir un nombre moyen de compétiteurs par fenêtre de contention strictement inférieur à 1. Ainsi, la probabilité que plusieurs nœuds soient en compétition lors de la première fenêtre de contention de SCP-MAC est faible et donc une collision est improbable. Dans le cas CT-MAC, l’objectif est au contraire de rassembler plusieurs compétiteurs par fenêtre de contention afin de factoriser le coût de l’allocation des instants de transmission. De fait, la probabilité d’une collision dépend davantage de la taille des fenêtres de contention et des lois de distribution utilisées. Ce constat seul n’explique cependant pas l’amélioration du taux de collision lorsque le trafic est accru. L’explication vient ici du mécanisme de détection des transmissions dé- crit dans la section 7.3.1. En raison de la dérive des instants de génération des trames, le nombre de nœuds en compétition par fenêtre de contention présente une variance d’autant plus faible que le trafic est important (la moyenne restant constante en raison du dimensionnement). De ce fait, le nombre observé de compétiteurs d’une période d’activité à une autre présente des variations plus faibles et le dimensionnement de la fenêtre est d’autant 160CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC Figure 7.20 – Taux de livraison comparé, clique de 80 nœuds plus fiable. 7.4.3.3 Délai de livraison CT-MAC diminue le coût énergétique de l’établissement des transmissions et de l’écoute périodique en allouant plusieurs instants de transmission par période d’activité. À trafic égal, CT-MAC divise par ct la fréquence de l’écoute périodique par rapport à SCP-MAC. En conséquence, les opportunités de transmission sont ct moins fréquentes et le temps moyen entre la génération de la trame de données et la tentative d’émission est ct fois supérieure. Nous vérifions ici que cette caractéristique ne compromet pas les exigences de qualité de service d’une application de télé-relève de compteurs. La figure 7.21 représente les résultats obtenus. Conformément aux résultats attendus, CT-MAC présente un délai de livraison plus important que SCP-MAC. En revanche, on observe que le délai de CT-MAC est inférieur à ct fois celui de SCP-MAC, i.e. dans ces simulations, le ratio est de 10, au lieu de 16. Ce résultat s’explique par l’allocation multiple d’instants de transmission de CT-MAC et le dimensionnement spécifié dans le Chapitre 6 : la fréquence d’écoute est dimensionnée afin que le nombre moyen de trames générées par période d’activité soit égal à la moitié du nombre d’instants de transmission disponible. À chaque période d’activité, SCP-MAC dispose d’un instant de transmission contre ct pour CT-MAC. Lorsque plusieurs nœuds sont en compétition avec SCP-MAC, certains reportent leurs émissions et leurs trames subissent un délai additionnel. CT-MAC supporte de 0 à ct transmissions par période d’écoute. Les trames de données ne subissent donc pas de délai additionnel lorsque le nombre d’émetteur dépasse la valeur moyenne attendue de ct 2 . Au contraire, davantage de trames sont délivrées dans un même intervalle de temps : le délai observé diminue donc. 161CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC Figure 7.21 – délai comparé, clique de 80 nœuds 7.4.4 Résultats pour une topologie multi-sauts Les résultats obtenus sur la topologie en clique valident l’intérêt de l’allocation de multiples instants de transmission par période d’activité : CT-MAC présente en effet une réduction de la consommation d’énergie d’environ 10% par rapport à SCP-MAC, protocole synchrone à allocation simple, paramétré et optimisé d’après les résultats des Chapitres 4, 5 et 6. Nous montrons cependant que cette réduction d’énergie est obtenue au détriment du délai et d’une légère diminution du taux de livraison (inférieure de 0,1% pour les trafics les plus faibles). Dans cette Section, nous analysons les performances de CT-MAC sur une topologie multi-sauts. Les objectifs sont les suivants : 1. confirmer la réduction de la consommation d’énergie et 2. vérifier que le taux et le délai de livraison correspondent aux exigences de Qualité de Service, i.e. 99% de taux de livraison et délai inférieur à la journée. 7.4.4.1 Puissance dissipée La Figure 7.22 représente les résultats obtenus sur la topologie de 169 nœuds. Les observations qualitatives sont valables pour l’ensemble des scénarios que nous avons étudiés. On observe que les simulations sur la topologie multi-sauts confirment la réduction d’énergie observée sur la topologie en clique : CT-MAC consomme en effet moins que SCPMAC. Le gain est d’autant plus marqué que les nœuds sont proches de la passerelle,i.e. numéro de couronne faible. Les nœuds à un saut de la passerelle présente une réduction de la consommation d’environ 12% sur l’ensemble de la plage de trafic considérée alors que les nœuds en périphérie de la topologie présente un gain compris entre 4 et 9%. Les nœuds les plus chargés, i.e. ceux à la durée de vie la plus courte, profitent ainsi d’un allongement de leur durée de vie de 12%. 162CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC Figure 7.22 – Puissance dissipée comparée, grille de 169 nœuds 7.4.4.2 Taux de livraison La figure 7.23 présente les taux de livraison obtenus pour la même topologie de 169 nœuds. On constate de prime abord que le dimensionnement choisi permet de garantir l’exigence de 99% de taux de livraison pour les deux protocoles. Conformément aux résultats précédents, on note cependant un taux de livraison légèrement inférieur pour CT-MAC (de 0.5% maximum). L’accroissement du taux de livraison observé sur la Figure 7.20 n’est cependant plus visible, probablement en raison de la disparité du trafic supporté entre les nœuds en périphérie de la topologie et ceux plus proches de la passerelle 6. 7.4.4.3 Délai de livraison Les résultats concernant le délai de livraison de bout-en-bout sont disponibles sur la Figure 7.24. Ces résultats montrent que les exigences de délai sont respectées sur l’ensemble de la plage de trafic étudiée et on retrouve les observations qualitatives des résultats de la topologie en clique. 7.4.5 Synthèse des résultats Cette analyse de performance met en valeur deux résultats principaux concernant CTMAC : – La comparaison que nous proposons, à savoir CT-MAC comparé à SCP-MAC optimisé d’après les résultats des Chapitres 4, 5 et 6, confirme l’intuition qu’allouer 6. le taux de livraison est évalué sur un ensemble de nœuds présentant des trafics supportés variables, le taux de livraison observé ne peut donc être lié aisément aux conditions de trafic 163CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC Figure 7.23 – Taux de livraison comparé, grille de 169 nœuds Figure 7.24 – Délai de bout en bout comparé, grille de 169 nœuds plusieurs transmissions par période d’activité diminue significativement la consom- 164CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC mation d’énergie liée à l’établissement des transmissions. Ce constat valide l’approche que nous proposons. – Nous constatons également que cette approche est compatible avec les exigences de Qualité de Service d’une application pour réseaux de capteurs urbains. Nous montrons, en particulier, qu’avec des tailles de fenêtre de contention de taille identique à celle de SCP-MAC, nous pouvons allouer jusqu’à 16 fois plus d’instants de transmission par fenêtre de contention sans diminution significative du taux de livraison, i.e. 0.5% de différence maximum par rapport à SCP-MAC. Enfin, nous montrons que les délais observés avec une telle approche sont compatibles avec les exigences de délai de livraison détaillés dans le Chapitre 1. 7.4.6 Discussion : Adaptation aux variations de trafic Les résultats que nous venons de présenter reposent sur le dimensionnement de la période d’activité, de la période de resynchronisation et des fenêtres de contention tel que proposé dans les Chapitres 4, 5 et 6. Ce dimensionnement recquiert la connaissance du volume de trafic supporté par le réseau dès son déploiement. Durant les 15 ans de durée de vie attendues du réseau, il est cependant très probable que ce volume de trafic varie, e.g. à l’ajout de nouveaux nœuds ou de nouvelles passerelles dans le réseau, en raison du déploiement de nouvelles applications, etc. Dans cette Section, nous étudions les effets d’une augmentation du volume de trafic sur CT-MAC et SCP-MAC dimensionnés pour un trafic de 1 trame par jour. Les Figures 7.25, 7.26 et 7.27 représentent les résultats observés sous ces conditions. Figure 7.25 – Taux de livraison comparé, période d’activité fixe, Clique de 80 nœuds La Figure 7.25 représente le taux de livraison en fonction du trafic généré. On constate en premier lieu que les deux protocoles atteignent leur objectif de taux de livraison pour le 165CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC trafic pour lequel ils ont été dimensionnés, ici une trame par jour. Lorsque le volume de trafic augmente, le taux de livraison du protocole SCP-MAC diminue immédiatement alors que celui de CT-MAC observe un plateau. Afin de quantifier cette différence de comportement, nous considérons le trafic supporté pour un taux de livraison dégradé de 80%. Alors que CT-MAC supporte jusqu’à 2 trames par jour, SCP-MAC ne supporte que 1,4 trames par jour. Avec un dimensionnement pour un même trafic cible, CT-MAC supporte donc jusqu’à 40% de trafic supplémentaire que SCP-MAC. Cette observation implique que CT-MAC est en mesure de supporter davantage de variations de trafic que SCP-MAC. CT-MAC permet ainsi une évolution moins contrainte des usages du réseau et son dimensionnement recquiert une estimation moins précise que SCP-MAC. Figure 7.26 – Puissance dissipée comparée, période d’activité fixe, Clique de 80 nœuds La Figure 7.26 corrobore ces résultats et illustre le comportement des deux protocoles en termes de consommation d’énergie. Dans le domaine 1, CT-MAC présente une consommation d’énergie inférieure à celle de SCP-MAC. Au point de croisement des deux courbes, le protocole SCP-MAC est déjà à saturation de sa capacité et présente un taux de livraison inférieur à 80% alors que le taux de livraison de CT-MAC est supérieur à 99,8%. Dans le domaine 2, SCP-MAC consomme moins d’énergie que CT-MAC mais livre environ 50% moins de trames. Nous concluons cette analyse par les résultats de la Figure 7.27. Les ruptures de pente des courbes de délai permettent de retrouver les fréquences de génération de trames pour lesquelles les files d’attente des nœuds capteurs sont saturées, i.e. les instants de transmissions disponibles sont en quantité insuffisante pour servir la demande en trafic. On constate également que le délai subit par le trafic en mode dégradé est moins important avec CT-MAC. 166CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC Figure 7.27 – Délai comparé, période d’activité fixe, Clique de 80 nœuds 7.5 Synthèse sur CT-MAC Dans ce Chapitre, nous explorons l’une des pistes proposées dans les Chapitres 5 et 6 pour réduire la puissance dissipée : la factorisation de l’allocation des instants de transmission. Nous proposons ainsi un algorithme de contention permettant d’allouer de multiples instants de transmissions et nous présentons le protocole Cascading Tournament MAC (CT-MAC) qui l’implémente. Nous proposons une étude de performance par simulation de CT-MAC et une comparaison avec le protocole SCP-MAC. Cette étude compare les deux protocoles sur des topologies en clique et multi-sauts et expose les résultats obtenus en termes de taux de livraison, délai de livraison et puissance dissipée. Ces résultats montrent que CT-MAC consomme jusqu’à 12% de moins que SCP-MAC dimensionné selon les résultats des Chapitres 4, 5 et 6, i.e. dimensionné pour respecter les contraintes de qualité de service au moindre coût énergétique. Cette diminution de la consommation d’énergie est réalisée dans le respect des exigences de qualité de service typique d’un réseau de collecte. Nous montrons par ailleurs que CT-MAC est moins sensible aux variations de trafic que SCP-MAC. Les performances de CT-MAC présentent en effet une zone de performances dégradées plus progressive que SCP-MAC lorsque le trafic dépasse la valeur utilisée pour le dimensionnement. CT-MAC est donc une solution plus pérenne qu’un protocole à allocation simple pour un déploiement de réseau à longue durée de vie. Enfin, nous proposons une piste d’optimisation de l’algorithme d’allocation multiple basé sur une étude des statistiques d’ordre. La méthode proposée est illustrée dans deux cas simples : nous calculons la valeur du paramètre ↵ de la loi géométrique croissante tronquée dans le cas d’une allocation simple et dans le cas d’une allocation multiple. Nous 167CHAPITRE 7. PROTOCOLE MAC SYNCHRONE POUR RÉSEAUX DE CAPTEURS URBAINS SANS-FIL MULTI-SAUTS : CT-MAC montrons en particulier que l’utilisation de cette méthode pour le calcul de ↵ permet une diminution du taux de collision significative du taux de collision (11% dans notre exemple) par rapport à la valeur proposée dans la littérature [34]. 168CHAPITRE 8 Protocole de relayage adaptatif pour réseau urbain de capteurs sans-fil longue portée : SARI-MAC 8.1 Introduction Le Chapitre 6 recommande l’usage d’une architecture radio longue portée lorsque le réseau de capteurs sans-fil supporte moins de quelques trames, typiquement 4 à 5 trames, par nœud et par jour. Pour ce scénario et sachant les contraintes de Qualité de Service des applications de télé-relève de compteurs, nous avons identifié les protocoles MAC les plus efficaces en énergie selon le volume de trafic : ALOHA et ALOHA avec retransmissions et acquittement. Cette solution repose sur deux hypothèses que nous rappelons ici : (i) tous les nœuds capteurs sont capables de transmettre une trame de données à la passerelle, sans relayage intermédiaire, (ii) les nœuds capteurs sont en mesure de recevoir les trames d’acquittement émises par la passerelle. Autrement dit, cette solution nécessite un lien fiable et symétrique entre chaque nœud du réseau et la passerelle. Compte tenu des caractéristiques de déploiement en milieu urbain, i.e. capteurs déployés sous des regards en béton armé ou dans des gaines techniques, cette hypothèse est peu crédible. Nous notons par ailleurs qu’une communication directe entre nœuds et passerelles force certains nœuds à transmettre à bas débit, i.e. entre 100 et 300 bits/s contre 2400 voire 4800 bits/s dans les cas les plus favorables. Les trames ainsi envoyées occupent le médium pendant plusieurs secondes, consomment plus d’énergie et subissent davantage de collisions que celles transmises à débit plus élevé, e.g. 2400 ou 4800 bits/s. Afin de pallier ces problèmes, nous proposons que certains équipements du réseau, de préférence déployés en hauteur, entretiennent une écoute périodique du médium et servent de relais. Ainsi, un nœud, dont le lien à la passerelle ne vérifie pas les hypothèses pré-citées, peut transmettre sa trame à un nœud relais qui se charge de l’acheminement jusqu’à la passerelle. Le protocole de contrôle d’accès en question doit respecter certaines contraintes afin d’être opérationnel sur une architecture réseau longue portée : (i) la transmission doit être initiée par le récepteur, seul garant de l’absence d’une transmission en cours ou d’un interférent dans son voisinage radio. En effet, les nœuds sont pour partie déployés dans des caves, canalisations, sous la chaussée etc. Ces nœuds ne détectent qu’une faible part des transmissions des nœuds à proximité géographique et ne peuvent donc déterminer avec fiabilité l’état du médium radio tel que perçu par le nœud relais. (ii) l’activité radio des nœuds relais doit être dimensionnée afin de répondre aux exigences de Qualité de Service et afin de limiter l’énergie dissipée. (iii) le protocole choisi doit pouvoir co-exister avec ALOHA et ALOHA avec retransmissions et acquittement, c’est à dire se baser sur les mêmes hypothèses de fonctionnement, i.e. asynchrone, et éviter au mieux les collisions. Compte tenu de l’absence de détection de transmission avant émission dans ALOHA, ce dernier objectif nécessite de limiter/minimiser le temps d’occupation du médium par transmission. Afin de répondre à ce cahier des charges, nous proposons SARI-MAC, The SelfAdapting Receiver Initiated MAC protocol, un protocole MAC initié récepteur et 169CHAPITRE 8. PROTOCOLE DE RELAYAGE ADAPTATIF POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL LONGUE PORTÉE : SARI-MAC asynchrone, à l’instar de [49] et [38]. SARI-MAC décompose l’établissement d’une transmission en quatre étapes (Fig. 8.1) : (1) l’émission d’une trame d’annonce par le récepteur marquant le début d’une fenêtre de contention, (2) l’émission d’une trame d’intention de transmission par l’émetteur dans l’un des intervalles de la fenêtre, (3) l’émission d’un échéancier des transmissions par le récepteur et (4) les transmissions ordonnancées selon l’échéancier. SARI-MAC adapte de lui-même son paramétrage d’après une estimation au fil de l’eau du trafic supporté par les relais. Ce mécanisme permet de répondre aux exigences de Qualité de Service (délai, taux de livraison) tout en minimisant la puissance dissipée et l’occupation du médium par les nœuds relais. 8.2 Description de SARI-MAC 8.2.1 Vue globale Figure 8.1 – Vue générale de SARI-MAC SARI-MAC est un protocole initié récepteur asynchrone. Comme l’illustre la Figure 8.1 1, les instants de transmission sont déterminés par les récepteurs selon un processus en 4 étapes : annonce du récepteur, annonce des intentions de transmission, annonce de l’échéancier des transmissions et transmission des données. Dans ce schéma de communication, seuls les récepteurs entretiennent une activité radio périodique. Les émetteurs qui ne servent pas de relayeurs activent quant à eux leur circuit radio lorsqu’une trame de données doit être transmise, et seulement dans ce cas. Lorsqu’une trame de données est soumise à la couche MAC pour transmission, un nœud active sa radio et écoute le médium (étape 1). Lorsqu’une trame d’annonce est détectée, le nœud compare l’adresse source de l’annonce avec l’adresse de destination de la trame de données. Si ces deux adresses sont identiques, le nœud émetteur participe alors à une fenêtre d’annonce des intentions de transmission (étape 2). Les nœuds émetteurs qui participent à l’étape 2 émettent une trame d’intention de transmission dans l’un des intervalles de la fenêtre d’annonce pendant que le nœud récepteur écoute le médium et enregistre les trames d’intentions. À la fin de la fenêtre d’annonce d’intention, le nœud récepteur émet une trame contenant un échéancier des transmissions (étape 3). Les nœuds émetteurs écoutent le médium et déterminent si 1. le scénario décrit par la Figure 8.1 sert de référence pour l’ensemble de la description du protocole. 170CHAPITRE 8. PROTOCOLE DE RELAYAGE ADAPTATIF POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL LONGUE PORTÉE : SARI-MAC et quand ils peuvent transmettre leur trame de données. La transmission des données fait suite à la transmission de l’échéancier (étape 4). Les nœuds émetteurs transmettent leur données dans l’ordre décrit par l’échéancier. Une fois leur transmission réalisée et acquittée, les nœuds émetteurs éteignent leur radio. À la fin de l’étape 4, le nœud récepteur éteint sa radio et programme la prochaine trame d’annonce selon la réussite ou l’échec des transmissions programmées et le nombre d’annonces d’intention entendues. 8.2.2 Annonce de la fenêtre de réception Figure 8.2 – Étape 1 : annonce de la fenêtre de réception L’étape 1 de SARI-MAC consiste à établir une date de référence commune entre un récepteur et les nœuds souhaitant lui transmettre une trame de données. Pour cela, à la date t1, le récepteur émet une trame d’annonce après avoir vérifié qu’aucune transmission n’est détectable. Les champs de la trame d’annonce sont décrits par la Figure 8.2. Outre le préambule physique, le type de trame et le champ de contrôle d’erreur (CRC ), une trame d’annonce récepteur contient l’adresse du récepteur, la taille de la fenêtre d’annonce (k) et la taille du champ code (c) de la trame d’intention de transmission. L’usage de ces derniers champs est expliqué dans la Section suivante. À la réception d’une trame d’annonce récepteur, un nœud émetteur détermine si l’annonce provient du nœud auquel il souhaite envoyer une trame. Si l’adresse concorde, le nœud émetteur passe à l’étape 2 du protocole. Sinon, il éteint sa radio et programme une écoute après une durée équivalente à la fenêtre d’intention de transmission. 8.2.3 Annonce des intentions de transmission À la date t2, i.e. au début de l’étape 2 (Fig. 8.3), le nœud récepteur commence une phase d’écoute du médium. Les nœuds émetteurs programment l’envoi d’une trame d’intention de transmission dans l’un des k intervalles de la fenêtre d’annonce. Cette trame d’annonce est constituée des champs suivants : le type de la trame, le champ code et un CRC. Le champ code, dont la taille est spécifiée par la trame d’annonce récepteur, prend une valeur aléatoire tirée par chaque nœud émetteur entre 0 et 2c !1. Dans l’exemple de la Figure 8.3, l’émetteur a transmet une trame d’annonce avec le code 123 dans le deuxième intervalle alors que l’émetteur b transmet le code 74 dans le 4eme intervalle. Le nœud récepteur mémorise les enregistrements (intervalle, code) correspondant aux trames reçues : dans cet exemple, il mémorise la séquence [(2,123),(4,74)]. Cette séquence sert à la construction de l’échéancier des transmissions. L’objectif de chacun des couples mémorisés est d’identifier de manière unique un nœud émetteur. 171CHAPITRE 8. PROTOCOLE DE RELAYAGE ADAPTATIF POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL LONGUE PORTÉE : SARI-MAC Figure 8.3 – Étape 2 : annonce des intentions de transmission Figure 8.4 – Phénomène de capture et intérêt du champ code Considérons le scénario décrit par la Figure 8.4 : les émetteurs a et b transmettent leur trame d’intention dans le même intervalle et seule la trame en provenance de a est reçue par le récepteur. En l’absence d’un champ différenciant les deux intentions de transmission, le récepteur ne peut construire un échéancier des transmissions sans collision. Deux méthodes existent pour produire ce champ différenciant : (i) utiliser un identifiant existant supposé unique, i.e. l’adressse MAC et (ii) tirer une valeur aléatoire tel que décrit sur la Figure 8.4. Bien que la première méthode garantisse l’unicité de la valeur, nous jugeons cependant que transmettre une adresse MAC complète, e.g. 48 bits en 802.15.4 [56] représente une dépense énergétique non nécessaire. Nous motivons ce choix dans la Section 8.2.6. Nous montrons en effet qu’il est possible de dimensionner la taille de la fenêtre de contention ainsi que la taille des codes de façon qu’un tirage aléatoire d’un code de quelques bits borne le taux de collision conformément avec les exigences de QoS des applications cibles (Chap. 1), e.g. taux de collision sur les données inférieur à 1%. 8.2.4 Publication de l’échéancier des transmissions À la date t3, i.e. une fois la fenêtre d’intention écoulée, le nœud récepteur émet une trame contenant un échéancier des transmissions (Fig. 8.5) et les nœuds émetteurs écoutent le médium. Cette trame énumère les enregistrements (intervalle, code) entendus lors de la 172CHAPITRE 8. PROTOCOLE DE RELAYAGE ADAPTATIF POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL LONGUE PORTÉE : SARI-MAC Figure 8.5 – Étape 3 : publication de l’échéancier des transmissions fenêtre d’intention, l’ordre des enregistrements correspondant à l’ordre de transmission des trames lors de l’étape 4. À la réception de la trame, un nœud émetteur consulte les couples énumérés. Si le couple (intervalle, code) correspondant à sa trame d’intention est présent, il programme la transmission de sa trame de données dans l’étape 4. Dans le cas contraire, il reporte sa tentative de transmission à la prochaine trame d’annonce du nœud récepteur. 8.2.5 Transmissions des trames de données Une fois la trame d’échéancier émise (date t4), le nœud récepteur écoute le médium afin de recevoir les trames de données. Cette étape est décrite par la Figure 8.6. Figure 8.6 – Étape 4 : transmission des trames de données L’étape 4 consiste en une fenêtre de temps composé d’intervalles permettant chacun l’envoi d’une trame de données et l’émission d’une trame d’acquittement, le nombre d’intervalles étant égal au nombre d’enregistrements de l’échéancier. Outre le préambule, le type de trame et le CRC, la trame de données contient un champ code et les données. La trame d’acquittement contient un champ code. Dans l’exemple de référence de la Figure 8.1, le nœud récepteur a entendu 2 enregis- 173CHAPITRE 8. PROTOCOLE DE RELAYAGE ADAPTATIF POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL LONGUE PORTÉE : SARI-MAC trements, il planifie 2 intervalles de réception et donc deux instants de transmission t4 et t5. Conformément à l’échéancier, l’instant de transmission t4 est utilisé par l’émetteur a et l’instant t5 par l’émetteur b. À chaque réception d’une trame de données, le nœud récepteur émet une trame d’acquittement contenant le champ code de la trame de données reçue. Une fois la fenêtre de réception terminée, le nœud récepteur planifie la prochaine trame d’annonce. Si une trame de données n’est pas reçue, la trame d’annonce est envoyée après un court temps d’attente tiré aléatoirement (backoff). Si toutes les transmissions se sont déroulées avec succès, le nœud récepteur éteint son circuit radio et calcule la durée d’attente avant transmission de la prochaine trame d’annonce. Ce calcul, basé sur l’estimation du trafic entrant, est expliqué dans la Section suivante. 8.2.6 Auto-adaptation des paramètres du protocole Comme indiqué dans la Section 8.1, SARI-MAC adapte ses paramètres de fonctionnement en fonction du trafic estimé, des exigences de Qualité de Service (exprimées sous forme de délai moyen maximum et taux de livraison) 2 et de façon à minimiser l’occupation du médium radio par les nœuds relais. À ces fins, SARI-MAC adapte ainsi les paramètres de fonctionnement suivants : la période d’attente avant envoi d’une nouvelle trame d’annonce (Tannonce), la taille de la fenêtre d’intention (k), la taille des codes des trames d’intention (c). Figure 8.7 – Auto-adaptation des paramètres Pour cela, comme l’illustre la Figure 8.7, les nœuds relais estiment le nombre de trames d’intentions qui leur sont destinées lors de la fenêtre d’intention : n˜ (1). Les nœuds relais dérivent de cette estimation le volume de trafic à supporter (2). À partir de cette nouvelle estimation, les nœuds calculent le temps d’attente avant la prochaine trame d’annonce de façon à (i) supporter le trafic entrant et (ii) respecter les exigences de délai. Au moment de transmettre la nouvelle trame d’annonce, les nœuds relais estiment le nombre de trames 2. Nous supposons que les exigences de Qualité de Service sont connues des nœuds relais, e.g. renseignées par l’applicatif. 174CHAPITRE 8. PROTOCOLE DE RELAYAGE ADAPTATIF POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL LONGUE PORTÉE : SARI-MAC d’intention attendues, na priori, en fonction du temps qui s’est réellement déroulé depuis la dernière période d’activité (3), l’émission de la trame d’annonce a en effet pu être retardée en raison de transmission en cours. Enfin les nœuds relais calculent la taille de la fenêtre de contention, k, et la taille des codes, c, en fonction de na priori et des exigences sur le taux de livraison. 8.2.6.1 Estimation du nombre de trames d’intention : n˜ Cette estimation est construite à partir du nombre de transmissions détectées lors de la fenêtre d’annonce, noté detections. Remarquons qu’une trame d’annonce peut être détectée mais non reçue, e.g. collision, erreur de décodage, etc. Cet estimateur est dérivé de la formule de l’espérance sur le nombre d’intervalles marqués parmi les k intervalles de la fenêtre d’intention pour n trames d’intentions distinctes. Cette espérance admet l’expression suivante : E(detections) = k(1 ! (1 ! 1 k ) n) (8.1) où k est la taille de la fenêtre d’intention, n le nombre de trames d’intention et E(detections) l’espérance sur le nombre de détections. Démonstration. Soit F = 1, 2, ..., k l’ensemble des intervalles de la fenêtre d’intention. Chacun des n nœuds tire un des intervalles au hasard selon une loi uniforme. Ses tirages sont notés : Xi pour i 2 1, 2, ..., n. Pour chaque élément ` de F, définissons Y` le nombre de fois que l’intervalle ` a été choisi : Y` = |{i 2 1, 2, ..., n : Xi = `}| Posons maintenant Y = (Y1, Y2, ..., Yn). Par définition, Y suit une loi multinomiale de paramètres n et ( 1 k , 1 k , ..., 1 k ). Nous pouvons maintenant définir les deux variables aléatoires suivantes : U = |{` 2 {1, 2, .., k} : Y` = 0}| V = |{` 2 {1, 2, .., k} : Y` > 0}| où U représente le nombre d’intervalles non tirés et V le nombre d’intervalles distincts tirés par les n nœuds. Soit I` la probabilité que l’intervalle ` ne soit pas choisi. L’espérance de I` est donnée par : 8` 2 {1, 2, ..., k}, E(I`) = (1 ! 1 k ) n Nous notons que U = Pk `=1 I` donc l’espérance de U est donnée par : E(U) = Xn `=1 E(I`) = k(1 ! 1 k ) n Finalement, nous remarquons que U + V = m soit le résultat : E(V ) = k(1 ! (1 ! 1 k ) n) (8.2) 175CHAPITRE 8. PROTOCOLE DE RELAYAGE ADAPTATIF POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL LONGUE PORTÉE : SARI-MAC Nous inversons l’équation 8.1 afin d’exprimer le nombre de détections en fonction de k et l’espérance sur le nombre de détection : n = ln(k ! E(detections)) ! ln(k) ln(k ! 1) ! ln(k) et nous dérivons de cette expression l’expression de n˜ : n˜ = ln(k ! j) ! ln(k) ln(k ! 1) ! ln(k) (8.3) avec j le nombre de détections effectives à la suite d’une fenêtre d’intention. L’équation 8.3 n’est valide que si j 6= k, i.e. il existe au moins un intervalle dans lequel aucune transmission n’a été détectée. Dans le cas contraire, nous posons de manière arbitraire n˜ = 4k. Ce cas particulier nous incite à légèrement sur-provisionner la taille de la fenêtre d’intention : k, de façon à obtenir une estimation fidèle du nombre de trames d’intention. 8.2.6.2 Estimation du trafic supporté et fluctuations : ! et ( Après avoir estimé le nombre de trames d’intention n˜, un nœud relai met à jour son estimation du trafic à supporter : !. Pour cela, le nœud relai calcule une moyenne glissante du nombre d’arrivées par unité de temps sur la base des nestimations dernières estimations de n˜ et de la date de ces estimations 3. L’écart-type de cet estimateur, (, est également calculé et mémorisé ; son usage est expliqué dans les sections suivantes. 8.2.6.3 Calcul de la période des trames d’annonce et adéquation avec le trafic relayé Les nœuds relais adaptent la période des trames d’annonce en fonction de l’estimation du volume de trafic supporté. Cette période, Tannonce, est calculée de façon à (i) satisfaire les exigences de délai de livraison, (ii) supporter le trafic entrant. Afin de satisfaire la contrainte (i), la durée Tannonce est bornée par le délai maximum de livraison à un saut : Delai1saut. La contrainte (ii) implique quant à elle que le nombre d’instants de transmission proposés par un nœud relais suffise à écouler le trafic qui lui est destiné : le nombre de trames d’annonce par unité de temps est égal au nombres de trames à destination du relai par unité de temps : T annonce = ( 1 ! si 1 ! < Delai1saut Delai1saut si 1 ! & Delai1saut (8.4) 8.2.6.4 Calcul de la taille de la fenêtre d’intention et efficacité énergétique SARI-MAC adapte également la taille de la fenêtre d’intention ainsi que la taille du champ code la trame d’intention de façon à minimiser l’énergie dépensée en signalisation tout en satisfaisant les exigences de taux de livraison. À cette fin, SARI-MAC doit (i) supporter les fluctuations transitoires du trafic : i.e. variations de trafic liées aux décalages d’horloges servant à programmer les instants de transmission et (ii) s’adapter à la disponibilité du médium : i.e. le médium n’est pas disponible au moment prévu pour l’envoi de la trame d’annonce (exemple fourni par la Fig. 8.8). 3. Ce moyennage permet d’estimer le volume moyen de trafic étant destiné au nœud. Le volume de trafic supporté est supposé stationnaire ou quasi-stationnaire 176CHAPITRE 8. PROTOCOLE DE RELAYAGE ADAPTATIF POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL LONGUE PORTÉE : SARI-MAC Figure 8.8 – Exemple de retard de transmission de la trame d’annonce Afin de pallier ces variations de trafic et l’incertitude sur la date des trames d’annonce, un nœud relai estime le nombre de trames d’intention à recevoir avant d’émettre une trame d’annonce. Ce nombre a priori de nœuds émetteurs, na priori, est dérivé du volume moyen de trafic, !, de ces fluctuations ( et du temps effectif depuis la dernière période d’activité : Tattente : na priori = d(! + ()Tattentee (8.5) Cette estimation est ensuite utilisée dans le calcul de la taille de la fenêtre d’intention : k. Dans SARI-MAC, nous cherchons à maximiser l’efficacité énergétique de la fenêtre d’intention, i.e. maximiser le pourcentage d’intervalles de la fenêtre d’intention dans lequel une trame d’intention est transmise avec succès au nœud récepteur. Soit pi = 1 k la probabilité avec laquelle un nœud émetteur quelconque choisit un intervalle de la fenêtre d’intention, probabilité que nous supposons indépendante entre nœuds capteurs. Alors, le calcul de k revient à maximiser la probabilité qu’un unique nœud émette un trame d’annonce dans un intervalle donné. Soit un intervalle i quelconque de la fenêtre d’intention, la probabilité de l’évènement "n des na priori émetteurs choisissent l’intervalle i", Pi(n, na priori), suit une loi binomiale : n ⇠ B(na priori, pi) 8n 2 [0, na priori], Pi(n) = ✓na priori n ◆ pn i (1 ! pi) (na priori#n) k est choisie de façon à maximiser la probabilité qu’une et une seule trame d’intention soit transmise par intervalle de la fenêtre, c’est à dire de façon à maximiser Pi(1) : Pi(n = 1) = na priori 1 k (1 ! 1 k ) na priori#1 Cette équation admet un maximum pour k = na priori, i.e. quand la taille de la fenêtre d’intention est égale au nombre attendu de trames d’intentions et nous posons donc : k = na priori (8.6) Démonstration. La dérivée partielle de Pi(n = 1) admet l’expression suivante : $ $k Pi(n = 1) = !na priori( k#1 k )n(k ! na priori) (k(k ! 1)2) = !na priori(k ! 1)na priori#2(k ! na priori) kn+1 & &kPi(n = 1) s’annule pour k = na priori et k = 1. k = 1 n’est évidemment pas un maximum 177CHAPITRE 8. PROTOCOLE DE RELAYAGE ADAPTATIF POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL LONGUE PORTÉE : SARI-MAC pour toute valeur na priori strictement supérieure à 1. Au point k = na priori, on a : limk!n! a priori $ $k Pi(n = 1) & 0 limk!n+ a priori $ $k Pi(n = 1)  0 d’où le résultat. 8.2.6.5 Calcul de taille des codes et taux de livraison La taille du champ code des trames d’intention est calculée telle que la probabilité d’une collision entre deux trames de données à destination du récepteur soit suffisamment faible pour satisfaire les exigences de taux de livraison. Dans ce scénario, une trame de données est perdue lorsque celle-ci est acquittée mais non reçue, i.e. deux ou plus nœuds choisissent le même intervalle de la fenêtre d’intention et le même code. La probabilité de l’évènement "n des na priori émetteurs choisissent le même intervalle et le même code j" suit une loi binomiale : Pi.j (n) = B(na priori, p.pc) Pi.j (n) = ✓na priori n ◆ (p.pc) n.(1 ! p.pc) na priori#n où p est la probabilité avec laquelle un émetteur choisit un intervalle quelconque i et pc la probabilité de choisir le code j (supposée uniforme pour toute valeur de j). D’après l’équation 8.6, nous avons p = 1 na priori . Soit c la taille du champ code, il existe alors 2c codes différents. Dans ces conditions, la probabilité d’une collision est donnée par : Pcollision = P(n & 2|n & 1) Pcollision = 1 ! na priori 1 na priori.2c .(1 ! 1 na priori.2c )na priori#1 1 ! (1 ! 1 na priori.2c )na priori Calculer la taille du champ code revient donc à trouver la plus petite valeur de c telle que : 1 ! Pcollision & taux de livraison na priori na priori.2c ! 1 ( na priori.2c#1 na priori.2c )na priori 1 ! ( na priori.2c#1 na priori.2c )na priori & taux de livraison 8.3 Analyse de Performance Dans cette Section nous étudions les performances de SARI-MAC et les comparons au protocole RI-MAC [38]. RI-MAC est le protocole asynchrone initié récepteur de référence. Sa description est disponible dans l’état de l’art (Chap. 3). L’analyse comparée de SARI-MAC et RI-MAC se base sur les critères suivants : 178CHAPITRE 8. PROTOCOLE DE RELAYAGE ADAPTATIF POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL LONGUE PORTÉE : SARI-MAC Durée de vie des capteurs D’après le Chapitre 1, la durée de vie moyenne attendue d’un capteur est d’une quinzaine d’année, ce qui équivaut à une puissance moyenne dissipée de 0, 16 mW. Dans cette étude, nous étudions non seulement la puissance dissipée par un nœud capteur émettant à destination d’un nœud relai mais aussi la puissance dissipée par un nœud relai, les nœuds relais étant également soumis aux exigences de durée de vie. Taux de livraison Conformément aux exigences évoquées dans le Chapitre 1, les applications de télé-relève de compteurs tolèrent une perte de paquets de l’ordre du pourcent. Dans cette étude, nous nous intéressons au taux de livraison des trames des nœuds capteurs aux nœuds relais afin de vérifier que les taux de livraison sur ce lien ne soit pas contradictoire avec le taux de livraison cible à la passerelle. Délai de livraison Dans une architecture avec relai, le délai de livraison des trames de données à la passerelle dépend du délai de livraison du nœud capteur au relai et du nœud relai à la passerelle. Dans cette analyse de performance, nous étudions le délai de livraison depuis un nœud capteur vers un nœud relai et vérifions l’adéquation avec les objectifs sur le délai de bout en bout. Cycle d’activité des nœuds relais et occupation du médium Comme indiqué en Section 8.1, plus l’occupation du médium par les nœuds relais est grande, plus le trafic émis à la passerelle selon le protocole ALOHA est perturbé, i.e. subit plus de collisions. D’autre part, la réglementation sur l’usage des bandes ISM contraint le cycle d’activité radio des nœuds, typiquement à 1%. Dans cette étude, nous comparons donc le temps passé par un nœud relai à transmettre sur le médium selon le protocole utilisé. 8.3.1 Environnement de simulation, scénarios et critères d’évaluation Cette évaluation de performance est réalisée par simulation et nous détaillons ici les outils et la méthodologie utilisée. 8.3.1.1 WSNet Cette évaluation de performance est réalisée en utilisant le simulateur WSNet présenté en Section 7.4.1.1. 8.3.1.2 Topologie physique Comme indiquée en Section 8.1, les topologies de radio longue portée présentent une forte dissymétrie de voisinage radio entre les nœuds capteurs confinés et les nœuds relais placés de manière privilégiée sur des points hauts. Alors que les nœuds capteurs n’entendent pratiquement que les nœuds relais, les nœuds relais sont en mesure d’entendre un grand nombre des nœuds capteurs à proximité géographique. Dans cette étude, nous modélisons ce scénario par une topologie en étoile : les nœuds capteurs, au nombre de 50 entendent uniquement le nœud relais qui lui entend l’ensemble des nœuds capteurs. 8.3.1.3 Modèle radio Cette étude considère des circuits radio émettant dans la bande ISM 169 MHz à un débit de 4800 bit/s. Les puissances dissipées considérées sont identiques au paramétrage choisi dans le Chapitre 6, nous rappelons les principales informations dans le tableau 8.1 : 179CHAPITRE 8. PROTOCOLE DE RELAYAGE ADAPTATIF POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL LONGUE PORTÉE : SARI-MAC Paramètre valeur Ptx 62, 5mW Prx 53, 7mW Ereveil 0, 16 mJ Erx!tx 53.7 µJ Etx!rx 53.7 µJ Table 8.1 – Puissances et énergies dissipées dans le circuit radio 8.3.1.4 Modèle de trafic Dans cette étude, nous considérons une application de relève de compteurs urbains : chaque nœud autre que la passerelle transmet des trames de données de 600 bits. Les instants de génération sont strictement périodiques et la loi de distribution temporelle des instants de génération est uniforme sur la population des nœuds. En raison de la dérive des horloges des nœuds, la période de génération des trames est définie à ±20ppm. Nous faisons varier la fréquence de génération des trames entre trois trames par an et quelques trames par jour. D’après le Chapitre 6, nous avons montré que cette plage de fréquences correspond en effet au domaine où un réseau longue portée consomme moins qu’un réseau multi-sauts. 8.3.1.5 Paramétrage de SARI-MAC Compte-tenu des mécanismes d’auto-adaptation des paramètres de fonctionnement, SARI-MAC ne nécessite qu’un paramétrage initial, dont les valeurs sont ensuite optimisées en fonction des exigences de Qualité de Service. Dans cette étude, la période des trames d’annonce initiale est définie à Tannonce = 20 s et les exigences de Qualité de Service sont les suivantes : taux de livraison au nœud relai La cible du taux de livraison au nœud relai est définie à 99,9%. Ce choix est plus exigeant que l’objectif de taux de livraison à la passerelle (99%) et est motivé par le constat suivant : une trame relayée nécessite d’abord d’être livrée au nœud relai puis à la passerelle, soit deux transmissions et donc deux possibilités d’un échec de transmission par trame de données. délai de livraison à 1 saut De la même façon, nous définissons une exigence sur le délai de livraison à un saut plus contraignante que l’objectif défini par les applications de télé-relève de compteurs. Au lieu d’un délai maximum de 24h pour la livraison d’une trame au concentrateur, nous imposons un délai maximum de 12h afin de prendre en compte les délais induits par chacune des deux transmissions. 8.3.1.6 Aperçu de RI-MAC et paramétrage Nous rappelons ici le fonctionnement du protocole RI-MAC. Comme l’illustre la Figure 8.9, RI-MAC est un protocole initié récepteur asynchrone. À l’instar de SARI-MAC, RI-MAC initie une transmission par l’envoi d’une trame d’annonce (beacon). Un nœud souhaitant transmettre une trame écoute le médium radio jusqu’à réception d’une trame d’annonce en provenance du destinataire. Une fois la trame d’annonce reçue, le nœud émet la trame de données. Si le nœud récepteur détecte une collision, alors il ré-emet une trame d’annonce. Les nœuds émetteurs émettent à nouveau leur trame après un temps d’attente aléatoire (fenêtre de contention selon un algorithme ATS (Chap. 5). RI-MAC nécessite le paramétrage suivant : 180CHAPITRE 8. PROTOCOLE DE RELAYAGE ADAPTATIF POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL LONGUE PORTÉE : SARI-MAC Figure 8.9 – Aperçu du protocole RI-MAC Période d’annonce La période d’annonce dans RI-MAC est fixe. Dans cette étude, nous étudions RI-MAC avec la plage de période suivante : 50s, 300s, 600s, 2500s et 5000s. Taille de la fenêtre de contention La taille minimale de la fenêtre de contention est définie à 4. Ce cas correspond à la première détection de collision. À chaque nouvelle détection, la taille de la fenêtre est multipliée par 2 jusqu’à une taille maximale de 512 intervalles. 8.3.2 Conditions d’expérimentation La simulation de chacun des scénarios pré-cités est itérée 6 fois, le générateur de nombres pseudo-aléatoire étant initialisé à chaque fois avec une graine différente ("seed"). Chaque itération représente une durée équivalente à 300 envois de trames de données. Les résultats que nous présentons font l’objet d’un moyennage sur l’ensemble des 6 itérations et l’intervalle de confiance à 95%, non représenté sur les Figures pour des raisons de lisibilité, est d’une largeur inférieure à 2% de la valeur représentée. 8.3.3 Résultats 8.3.3.1 Estimation du trafic Avant de présenter les résultats en termes de taux de livraison, délai, puissance et cycle d’occupation du médium, nous illustrons les performances du mécanisme d’estimation de trafic proposé pour SARI-MAC. La Figure 8.10 représente l’évolution du trafic supporté par un nœud relai lors d’une simulation (courbe en dessous, rouge) et le trafic estimé par ce même nœud relai (courbe supérieure, bleue). On constate ainsi que le mécanisme proposé fournit une estimation fidèle du trafic réel, i.e. les variations de trafic sont correctement détectées et représentées. On note par ailleurs 181CHAPITRE 8. PROTOCOLE DE RELAYAGE ADAPTATIF POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL LONGUE PORTÉE : SARI-MAC Figure 8.10 – Estimation du trafic par SARI-MAC que l’estimation présente une légère sur-estimation du trafic réel ( 10%), et ce, afin de tenir compte des fluctuations potentielles du trafic. 8.3.3.2 Taux de livraison Dans la Section précédente, nous avons montré que SARI-MAC estimait fidèlement le volume de trafic supporté par les nœuds relais. Nous vérifions maintenant qu’il est en mesure de satisfaire les exigences de taux de livraison. Les résultats observés pour SARIMAC et RI-MAC sont reportés sur la figure 8.11. On constate en premier lieu que le taux de livraison atteint avec SARI-MAC respecte l’exigence de taux de livraison, et ce, sur l’ensemble de la plage de trafic considérée. La fréquence d’émission des trames d’annonce est donc suffisante pour supporter le volume de trafic. Ce constat indique que mécanisme d’auto-adaptation de SARI-MAC assure efficacement le respect de la contrainte sur le taux de livraison. RI-MAC présente des taux de livraison comparables à ceux de SARI-MAC sur le domaine 1, c’est à dire pour des trafics jusqu’à une trame par jour et par nœud capteur relayé. Au delà de ce volume de trafic (domaine 2), le protocole RI-MAC présente une baisse du taux de livraison qui, pour certaines configurations (périodes de trames d’annonces les plus grandes), entraînent un non respect des exigences de taux de livraison. 8.3.3.3 Délai de livraison Nous nous intéressons ici à l’exigence de délai de livraison et regardons les résultats obtenus par SARI-MAC et RI-MAC (Fig. 8.12). La courbe de SARI-MAC présente deux comportements selon le trafic supporté par le nœud relai. Dans le domaine 1, correspondant aux trafics inférieurs à une trame par quinzaine de jours, le délai moyen de livraison des trames de données est d’environ 6h et reste constant. Dans le domaine 2, soit plus d’une trame par quinzaine de jours, le délai moyen diminue lorsque le trafic augmente. Ce comportement trouve son explication dans les équations 8.4. SARI-MAC adapte en effet la fréquence d’envoi des trames d’annonces au trafic à supporter et à l’exigence sur le délai de livraison. Dans cette étude, le délai maximum 182CHAPITRE 8. PROTOCOLE DE RELAYAGE ADAPTATIF POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL LONGUE PORTÉE : SARI-MAC Figure 8.11 – Taux de livraison comparé Figure 8.12 – Délai comparé toléré est de 12h, la durée maximale de la période d’émission des trames d’annonce est donc de 12h quand bien même le temps d’inter-arrivées des trames de données au nœud relai est supérieur à 12h (domaine 1). Dans ces conditions, en raison de la distribution uniforme des instants de génération des trames de données, le délai moyen observé est de la moitié de la période d’annonce, soit 6h. Le domaine 2 correspond à un temps d’inter-arrivées entre trames de données inférieur à 12h. Dans ce domaine, SARI-MAC adapte donc la fréquence d’envoi des trames d’annonce à la fréquence de génération des trames de données. Lorsque le volume de trafic supporté augmente, la période d’envoi des trames d’annonce diminue, 183CHAPITRE 8. PROTOCOLE DE RELAYAGE ADAPTATIF POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL LONGUE PORTÉE : SARI-MAC et donc le délai observé diminue aussi. Avec RI-MAC, la période d’envoi des trames d’annonce est constante. Il en résulte un délai constant d’une durée équivalente à la moitié de la période d’envoi des trames d’annonce. De ces résultats, on déduit que SARI-MAC adapte avec succès la période d’envoi des trames d’annonce aux exigences de délai et au trafic supporté par les nœuds relais. 8.3.3.4 Puissance dissipée Figure 8.13 – Puissance dissipée comparée (nœuds capteurs) Nous venons d’analyser les performances de SARI-MAC et RI-MAC en termes de délai et de taux de livraison et nous constatons que les deux protocoles satisfont les exigences de Qualité de Service lorsque le trafic est inférieur à 1 trame par jour et par capteur. Lorsque le trafic est supérieur à 1 trame par jour et par capteur, SARI-MAC satisfait également les exigences de Qualité de Service alors que RI-MAC nécessite un paramétrage adéquat afin de garantir le taux de livraison (période des trames d’annonces inférieure à 2500s). Nous étudions en premier lieu la consommation des nœuds capteurs relayés (Fig. 8.13). Notre étude montre que SARI-MAC présente une consommation équivalente voire infé- rieure à celle des différentes instances de RI-MAC. Pour les trafics supérieurs à 1 trame par jour et par capteur, la consommation de SARI-MAC est d’environ 10 à 50% inférieure à celle de l’instance la moins énergivore de RI-MAC. La consommation observée aux nœuds relais (Fig. 8.14) présente un contraste beaucoup plus fort entre les deux protocoles. SARI-MAC consomme en effet deux fois moins que RIMAC dans sa configuration la moins énergivore (Tannonce = 5000 s). Par ailleurs, on note que la configuration de RI-MAC la moins consommatrice du point de vue des nœuds relais est également la plus consommatrice du point de vue des nœuds capteurs. Il n’existe donc pas une configuration globalement optimale de RI-MAC pour les volumes de trafic cibles, le choix de la configuration devant être adaptée aux contraintes sur les nœuds relais et les nœuds relayés. 184CHAPITRE 8. PROTOCOLE DE RELAYAGE ADAPTATIF POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL LONGUE PORTÉE : SARI-MAC Figure 8.14 – Puissance dissipée comparée (nœuds relais) 8.3.3.5 Occupation du médium La Figure 8.15 représente le temps pendant lequel un nœud relai émet sur le médium radio dans sa tâche de collecte des trames des nœuds relayés. Figure 8.15 – Occupation du médium par les nœuds relais On note que SARI-MAC présente l’occupation du médium la plus faible des deux protocoles, quelle que soit la configuration de RI-MAC retenue dans cette étude. De fait, SARI-MAC est moins susceptible que RI-MAC de dégrader les performances des nœuds capteurs transmettant directement au concentrateur. Afin d’illustrer et quantifier l’impact de l’occupation du médium par les nœuds relais, nous considérons le scénario suivant : un réseau de capteurs longue portée est composé de 185CHAPITRE 8. PROTOCOLE DE RELAYAGE ADAPTATIF POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL LONGUE PORTÉE : SARI-MAC 5000 nœuds capteurs transmettant directement à la passerelle selon le protocole ALOHA et de 5 nœuds relais. Compte-tenu de l’existence des nœuds relais, nous faisons l’hypothèse que les trames à destination de la passerelle sont émises au débit maximum de 4800bits/s. Nous supposons également que les nœuds relayés n’interfèrent pas avec les nœuds non relayés et que les nœuds relais sont rattachés à la passerelle via un médium de communication distinct. Ainsi, seuls les trames des nœuds relais à destination des nœuds relayés et des nœuds non relayés interfèrent. La figure 8.16 illustre, pour ce scénario, l’influence de l’occupation du médium par les nœuds relais sur le taux de collision attendu sur les trames émises directement à la passerelle. Ces résultats confirment l’intérêt d’un mécanisme ajustant la fréquence d’émission des trames d’annonce au trafic à supporter, i.e. réduire le nombre de trames d’annonces lorsque le trafic à supporter ne le nécessite pas. Figure 8.16 – Influence de l’occupation du médium par les nœuds relais sur le taux de collision des trames des nœuds capteurs non relayés à la passerelle 8.3.4 Synthèse des résultats Cette étude comparative entre SARI-MAC et RI-MAC montre que le mécanisme d’autoadaptation des paramètres de fonctionnement de SARI-MAC permet à notre proposition de satisfaire les exigences de Qualité de Service pour une large plage de volume de trafic. En outre, les performances de SARI-MAC excèdent celles des différentes configurations de RI-MAC, quel que soit le volume de trafic considéré, et ce, avec une configuration initiale non optimisée pour chaque scénario. SARI-MAC exhibe en effet les meilleurs taux de livraison, la plus faible consommation énergétique, tant pour les nœuds capteurs que pour les nœuds relais, et une moindre interférence avec les communications directes à la passerelle tout en respectant les exigences de délai. 186CHAPITRE 8. PROTOCOLE DE RELAYAGE ADAPTATIF POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL LONGUE PORTÉE : SARI-MAC 8.4 Synthèse sur SARI-MAC Dans ce Chapitre, nous proposons SARI-MAC, The Self-Adapting Receiver Initiated MAC protocol. SARI-MAC est un protocole MAC initié récepteur conçu pour opérer une fonction de relayage dans une architecture de réseaux de capteurs longue portée. SARIMAC évalue le trafic à supporter par les nœuds relais de façon à adapter son paramétrage aux exigences de Qualité de Service et de manière à minimiser la consommation énergétique. Dans cette étude, nous avons comparé SARI-MAC à RI-MAC, le protocole initié récepteur efficace en énergie de référence. L’analyse de performance montre que SARI-MAC surpasse RI-MAC sur l’ensemble des critères retenus : taux de livraison (& 99, 9%), consommation d’énergie (réduction de 50% de la consommation des nœuds relais par rapport à RI-MAC) et cohabitation avec les protocoles privilégiés sur les architectures longe portée , i.e. ALOHA et dérivées, par son occupation moindre du médium par les nœuds relais. Nous montrons par ailleurs que le paramétrage de SARI-MAC ne nécessite pas d’être optimisé pour le scénario de trafic envisagé, l’ensemble des simulations ayant été exécutée avec le même paramétrage de SARI-MAC. SARI-MAC est donc une solution efficace en énergie permettant d’assurer la connectivité de l’ensemble du parc des capteurs d’un réseau de capteurs urbains à radio longue portée. Sa simplicité de configuration et sa capacité d’auto-adaptation aux conditions de trafic en font un protocole pérenne, nécessitant peu ou pas de maintenance. 187CHAPITRE 9 Protocole de routage opportuniste pour réseau urbain de capteurs sans-fil multisauts : QOR 9.1 Introduction Dans le Chapitre 6, nous avons identifié deux solutions pour améliorer l’efficacité énergétique des réseaux de capteurs urbains multi-sauts. La première solution, exposée dans le Chapitre 7, consiste à factoriser l’allocation des instants de transmission au sein d’un mécanisme de contention. Le protocole proposé, nommé CT-MAC, diminue ainsi la consommation induite par l’écoute périodique et l’arbitrage de l’accès au médium radio. Nous étudions ici la deuxième solution : utiliser de manière opportuniste les liens longue distance, asymétriques ou fluctuants afin de diminuer le nombre de transmissions nécessaires à l’acheminement des données à la passerelle. Ces liens, dont la réalisation est incertaine et non prédictible, sont habituellement ignorés ou interdits à l’usage par les protocoles de routage à objectifs de Qualité de Service. Il est en effet jugé nécessaire d’utiliser seulement des liens fiables afin d’être en mesure de répondre aux exigences de taux de livraison. Dans ce chapitre, nous apportons la contradiction à ce jugement et montrons que l’usage de ces liens permet une amélioration significative des performances du réseau en termes de délai et de taux de livraison tout en réduisant la consommation d’énergie. Nous illustrons ce propos par des traces de connectivité issues du démonstrateur du projet ANR ARESA [81] et montrons par ailleurs que les protocoles de routage dérivés des réseaux filaires et radio conventionnels font face à un dilemme lorsqu’ils sont confrontés simultanément à des exigences de délai et de taux de livraison : l’amélioration du taux de livraison se faisant au détriment du délai de livraison et vice et versa. En raison de cette observation, nous proposons le protocole de routage Quality Of Service oriented Opportunistic Routing (QOR). QOR permet d’exploiter les liens longue distance, asymétriques ou fluctuants et garantit la fiabilité des communications grâce aux liens fiables. Pour cela, QOR délègue le choix de relayage des trames aux nœuds récepteurs, au contraire des protocoles conventionnels pour lesquels le destinataire est désigné par le porteur actuel de la trame. Ce schéma de communication opportuniste, précédemment proposé par S.Biswas [67] pour les réseaux sans-fils 802.11, décompose l’établissement du chemin suivi par une trame en deux sous-problèmes : (i) quel est l’ensemble des nœuds, noté N, susceptibles de retransmettre une trame en provenance d’une source donnée ? et (ii) Qui parmi les nœuds de cet ensemble ayant reçu la trame doit retransmettre ? Nous montrons que cette décomposition permet de répondre simultanément aux exigences de livraison et de délai et donc de résoudre le dilemme précédemment cité. Cette approche introduit néanmoins de nouveaux problèmes qui en limitent l’adoption, notamment la duplication de paquets et l’absence d’acquittement fiable. Nous proposons une solution à ces problèmes en combinant le schéma de communication opportuniste à un adressage hiérarchique des nœuds 188CHAPITRE 9. PROTOCOLE DE ROUTAGE OPPORTUNISTE POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL MULTI-SAUTS : QOR capteurs et à des règles de relayage basées sur ces adresses. 9.2 Intérêt de l’approche et défis Figure 9.1 – Traces de connectivité du démonstrateur ARESA Afin d’illustrer l’intérêt du schéma de relayage opportuniste, nous proposons d’analyser une trace de connectivité issue du démonstrateur du projet ANR ARESA [81], [118], et disponible sur la Figure 9.1. Sur ce graphe sont représentées les réalisations de liens 1 entre nœuds du réseau : chaque lien ayant été réalisé au moins une fois est représenté par un point, son abscisse représentant la distance entre les nœuds et son ordonnée l’espérance de réalisation. Nous avons indiqué l’ensemble des liens qui seraient utilisés par un protocole de routage traditionnel imposant une probabilité de réalisation supérieure à 90%, i.e. taux de livraison supérieur à 73% pour un chemin de 3 sauts sous hypothèse d’indépendance des réalisations de liens. On constate dans cette configuration que seulement 17% de l’ensemble des réalisations de liens est utilisé pour l’acheminement de données. La Figure 9.1 révèle également que seuls les liens courte portée sont exploitées par un protocole de routage traditionnel en raison de la contrainte sur le taux de livraison. Dans le démonstrateur, seuls les liens d’une distance inférieure à 100m ont ainsi été éligibles pour construire la topologie de routage. À l’aide du scénario de la Figure 9.2, nous montrons comment les liens non exploités peuvent améliorer le taux de livraison, le délai de bout en bout et la consommation d’énergie. Dans ce scénario, un nœud source S génère des trames de données applicatives destinées à la passerelle D. Supposons un protocole de routage traditionnel et un taux de succès par lien exigé de 90%, S transmet donc ses trames à A, qui les relaient à B, qui les livre 1. un lien entre une source et une cible est dit réalisé si une émission provenant de la source est reçue par la cible 189CHAPITRE 9. PROTOCOLE DE ROUTAGE OPPORTUNISTE POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL MULTI-SAUTS : QOR Figure 9.2 – Intérêt de l’approche opportuniste à D. Dans cette configuration, sans acquittement ni retransmission, le taux de livraison attendu est de 83% et chaque trame livrée nécessite 3 transmissions. Avec acquittements et retransmissions, l’espérance du nombre d’émissions nécessaires est 3,19. Supposons maintenant un protocole de routage opportuniste : 10% des trames émises par S sont reçues par D, 10% des trames émises peuvent donc être livrées avec une seule transmission. Lorsque ce lien n’est pas disponible, les trames peuvent être livrées en deux sauts (S-A-D ou S-B-D), ce scénario se réalise pour 67% des trames émises. Enfin, les trames peuvent être livrées en 3 sauts (11% des trames émises). Avec un protocole opportuniste, sans acquittement ni retransmission, le taux de livraison attendu est de 88% et le nombre moyen de transmissions pour livrer une trame est de 2,01. Lorsque les acquittements et retransmissions sont utilisées, l’espérance du nombre d’émissions nécessaires est de 2,27. On constate donc qu’un protocole de routage opportuniste peut fournir un meilleur taux de livraison et nécessiter moins d’émissions par trame livrée et donc améliorer le délai de bout en bout et la puissance dissipée. Pour cela, nous devons résoudre les problèmes cités en Section 9.1 : la duplication de paquets et l’absence d’acquittement fiable. Duplication de paquets Afin d’illustrer ce problème, considérons à nouveau la Figure 9.2 et l’usage d’un protocole de routage opportuniste. Supposons que S émette une trame de données et qu’elle soit reçue par A et B. Si aucun mécanisme n’est mis en place, A et B retransmettent tous les deux la trame de données, annulant ainsi le gain en puissance dissipée et augmentant les chances de collision sur le médium radio. Fiabilité des acquittements Supposons maintenant que la trame émise par S est reçue par D et qu’un acquittement soit demandé. Supposons par ailleurs, et ce uniquement par soucis de simplicité de l’explication, que le lien entre S et D soit symétrique et que chaque réalisation soit indépendante. La probabilité qu’un acquittement soit reçu par A suite à son envoi par D est de 10%. La probabilité que A soit notifié du succès de la transmission est donc de 1%, impliquant de nombreuses retransmissions. 190CHAPITRE 9. PROTOCOLE DE ROUTAGE OPPORTUNISTE POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL MULTI-SAUTS : QOR 9.3 Description de QOR Nous venons d’illustrer l’intérêt d’un protocole opportuniste et avons identifié les défis auxquels doit répondre QOR afin de traduire le potentiel de l’approche opportuniste en gains concrets. Nous décrivons maintenant le fonctionnement de QOR et illustrons comment QOR répond à ces défis. QOR se décompose en deux tâches : un plan de contrôle, responsable de la construction et du maintien des tables de routage, et un plan de données, chargé de la transmission opportuniste des trames applicatives. 9.3.1 Plan de contrôle : topologie de routage et adressage 9.3.1.1 Construction de la topologie de routage À l’instar du protocole IETF RPL [3], QOR construit un graphe acyclique dirigé orienté destination (DODAG). La construction de cette topologie répond à l’objectif suivant : identifier les chemins les plus fiables reliant les sources de trames de données et la passerelle. Figure 9.3 – Construction de la topologie de routage La Figure 9.3 illustre le mécanisme de construction de la topologie de routage mis en place par QOR. À gauche est représenté un exemple de topologie physique : la passerelle est située en haut de la figure et les liens entre nœuds sont représentés par un trait ; un trait épais correspond à un lien fiable et, à l’inverse, un lien en pointillé correspond à une probabilité de réalisation faible. La topologie construite par QOR est représentée à droite : les nœuds construisent des chemins permettant d’acheminer les trames vers la passerelle, les liens en trait épais représentant le chemin principal et les liens en pointillé les éventuels chemins de secours. La construction de la topologie de routage se fait de manière décentralisée par diffusion de messages de contrôle appelés DIOs broadcast (DODAG Information Objects). Ces messages, émis par chaque nœud relai de la structure, contiennent l’information nécessaire pour permettre à un nœud de choisir un parent dans la structure. Dans QOR, cette information est constituée d’un rang et d’une métrique par nœud relai de la structure, le rang représentant la profondeur du nœud dans le DODAG et la métrique quantifiant la fiabilité du chemin offert pour joindre la passerelle. 191CHAPITRE 9. PROTOCOLE DE ROUTAGE OPPORTUNISTE POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL MULTI-SAUTS : QOR Calcul du rang annoncé Dans QOR, le rang représente le nombre de sauts logiques dans la structure entre le nœud et la passerelle. Par convention, la passerelle possède le rang 0, un nœud rattaché à la passerelle est de rang 1 et ainsi de suite. Calcul de la métrique annoncée Selon les informations mises à disposition par les couches physiques et MAC, la métrique peut alternativement être exprimée en fonction du taux d’erreur paquet (Packet Delivery Ratio), du rapport signal à bruit (Signal over Noise Ratio) ou de la puissance du signal reçu (Received Signal Strength Indicator ). Nous proposons ici une métrique basée sur le RSSI et notée (mn, sn) où mn représente le RSSI minimum observé sur le chemin annoncé jusqu’à la passerelle et où sn représente l’écarttype sur les valeurs successives de mn. Cette métrique a pour but de caractériser le chemin jusqu’à la passerelle par son lien le plus faible, et donc probablement le moins fiable, et par ses fluctuations, i.e. stabilité temporelle ici représentée par l’écart type. Choix du parent préféré et des parents de secours Un nœud souhaitant se rattacher au DODAG écoute les DIOs brodcast émis dans son voisinage radio et stocke les triplets (adresse, rang, métrique) dans sa table de voisinage. À chaque triplet est associé une valeur scalaire appelée QSC (Quality Score) qui reflète la fiabilité du chemin annoncé par le voisin et calculée d’après la formule QSC = mn ! sn. Ce QSC est utilisé pour ordonner les entrées de la table et pour choisir l’un des parents potentiel comme parent préféré, i.e. parent correspondant au chemin utilisé de manière privilégiée pour la transmission de la trame. À la fin de la période d’écoute, un nœud émet une demande de rattachement au nœud relai voisin présentant le QSC le plus élévé. Pour cela, il lui envoie un message de contrôle appelé DIS unicast (DODAG Information Sollicitation). À la réception d’un tel message, le nœud relai en question renvoit un DIO unicast. Ce DIO contient soit un code d’erreur indiquant la raison du refus de rattachement, e.g. plus d’adresse disponible dans le sousréseau, soit le rang, l’adresse de rattachement et le sous-réseau qui sera utilisé par le nœud attaché 2. Une fois attaché au DODAG, un nœud peut choisir un ou plusieurs parents de secours. Ces parents, choisis en raison de leur QSC proche de celui du parent préféré (QSC & mn ! 2sn avec (mn, sn) métrique du parent préféré), sont utilisés lorsque le chemin fourni par le parent préféré est indisponible, e.g. absence d’acquittement de trames ou lorsqu’un changement de topologie invalide le chemin principal. La procédure de rattachement est similaire à celle du parent préféré. Le nœud souhaitant le rattachement émet un DIS unicast auquel le parent répond par un DIO unicast. La différence réside dans l’usage qui est fait de l’adresse donnée par le parent : le nœud rattaché se contente de mémoriser l’adresse mais ne l’annonce pas dans ses DIOs. 9.3.1.2 Construction du plan d’adressage Lors de son attachement à la topologie logique, un nœud obtient de son parent pré- féré, i.e. le nœud auquel il se rattache, une adresse et un sous-réseau. Ces derniers sont choisis par le parent dans le sous-réseau qu’il a lui-même obtenu. La Figure 9.4 illustre un exemple d’adressage sur la topologie logique de la Figure 9.3. Dans cet exemple, la passerelle possède l’adresse IPv6 2001:db8:1:1a0::0 et le sous-réseau 2001:db8:1:1a0::/64. Les nœuds a, b et c obtiennent de la passerelles les adresses et sous réseaux respectifs : 2001:db8:1:1a0::1/80, 2001:db8:1:1a0::2/80 et 2001:db8:1:1a0::3/80. Chaque 2. la construction des adresses et leur usage sont expliqués dans les Sections suivantes. 192CHAPITRE 9. PROTOCOLE DE ROUTAGE OPPORTUNISTE POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL MULTI-SAUTS : QOR Figure 9.4 – Adressage hiérarchique des nœuds nœud rattaché à la passerelle se voit ainsi délégué un sous-réseau /80 distinct dans lequel il peut attribuer des adresses et sous-réseaux aux nœuds souhaitant s’y rattacher. Une fois la topologie construite, chaque nœud relai possède une adresse et un sousréseau et ces adresses et sous-réseaux vérifient par construction la propriété suivante : pour tout nœud de la structure, son adresse et son sous-réseau sont inclus dans le sous-réseau de son parent et son adresse est unique dans le DODAG. On peut montrer par récurrence que l’ensemble des nœuds incluant l’adresse d’un nœud sont ceux situés sur la branche reliant la passerelle au nœud. C’est sur cette propriété que sont bâties les règles de relayage assurant l’absence de paquets dupliqués et les acquittements fiables. 9.3.2 Plan de données : règles de relayage et mécanisme d’acquittement Le plan de données de QOR est constitué des règles régissant le relayage des trames et répond aux questions précédemment évoquées : (i) quel est l’ensemble des nœuds, noté N, susceptibles de retransmettre une trame en provenance d’une source donnée ? et (ii) Qui parmi les nœuds de cet ensemble ayant reçu la trame doit retransmettre ? Nous détaillons ici le cas d’un trafic convergent, i.e. depuis un nœud vers la passerelle, d’un trafic descendant, i.e. depuis la passerelle vers un nœud, et d’un trafic point à point, i.e. capteur à capteur. 9.3.2.1 Trafic convergent d’un nœud vers la passerelle Dans cas d’un trafic de données depuis les nœuds capteurs vers la passerelle, les règles s’expriment de la façon suivante : (a) un nœud participe au relayage d’une trame si et seulement si l’émetteur est un descendant d’après l’adressage hiérarchique, (b) un nœud relaie une trame si et seulement s’il est l’ancêtre le plus éloigné de l’émetteur parmi l’ensemble des participants au relayage. La figure 9.5 illustre l’application de ces règles pour la transmission d’une trame de données sur la topologie précédemment présentée. Dans ce scénario, le nœud labelisé (1) émet une trame de données à destination de la passerelle. La règle de relayage (a) permet de discriminer les nœuds (2), (3) et (4) comme seuls relayeurs potentiels de la trame. Le 193CHAPITRE 9. PROTOCOLE DE ROUTAGE OPPORTUNISTE POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL MULTI-SAUTS : QOR Figure 9.5 – Règle du choix des relayeurs nœud (5), par exemple, ne vérifie la condition d’inclusion de l’adresse de (1) dans son sousréseau. On constate que cette règle garantit la propriété suivante : l’ensemble des nœuds relais potentiels sont strictement ordonnés par leurs rangs dans le DODAG et qu’à chaque rang compris entre celui de l’émetteur de la trame et la passerelle correspond un relayeur potentiel. On remarque également que la construction de la topologie garantit un lien fiable entre nœuds de rangs adjacents. La règle (b) est assurée par le mécanisme d’acquittement en cascade présenté en Figure 9.6. Ce mécanisme est régit ainsi : soit une fenêtre de temps composées de K = rang emetteur intervalles, chacun des nœuds ayant reçu la trame de données et vérifiant la règle (a) émet un acquittement dans le i-ème intervalle où est i est son rang dans le DODAG et écoute les intervalles précédants. Si aucun acquittement n’est reçu avant le i-ème intervalle, le nœud de rang i prend en charge le relayage de la trame de données, autrement il se contente d’acquitter la trame. De cette façon, QOR apporte un remède efficace à la duplication de paquets et une solution pour fiabiliser les acquittements. Dans le scénario décrit, les nœuds (2), (3) et (5) reçoivent la trame émise par (1). On rappelle que (5) décide de ne pas pas participer au relayage de la trame en vertu de la règle de relayage (a) et on note que (4) ne reçoit pas la trame de données. Le nœud (4) n’ayant pas reçu la trame de données, le premier intervalle est inoccupé. De fait, le nœud (3) transmet son acquittement et prend en charge l’acheminement de la trame jusqu’à la passerelle. Cet acquittement est entendu par le nœud (2) mais pas par le nœud (1). (2) se contente de répéter l’acquittement entendu dans son intervalle, il ne prend pas en charge la trame de données. L’acquittement de (2) est reçu par (1) qui est donc averti de la prise en charge de la trame, et ce malgré l’échec de la réception de l’acquittement émis par (3). 9.3.2.2 Trafic descendant de la passerelle vers un nœud Nous considérons maintenant le scénario d’une trame émise par la passerelle à destination d’un nœud capteur, par exemple le nœud (1) du scénario précédent. Dans ce scénario, les règles de relayage sont les suivantes : (a) un nœud participe au 194CHAPITRE 9. PROTOCOLE DE ROUTAGE OPPORTUNISTE POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL MULTI-SAUTS : QOR Figure 9.6 – Mécanisme d’acquittements en cascade relayage d’une trame si et seulement si le destinataire est un descendant d’après l’adressage hiérarchique, (b) un nœud relaie une trame si et seulement s’il est l’ancêtre le plus proche de la destination parmi l’ensemble des participants au relayage. On note de suite la similarité des règles entre trafic descendant et trafic montant. On constate en particulier que la règle (a) amène au même ensemble de relayeurs que pour le trafic de (1) à la passerelle. La différence entre les deux scénarios intervient au niveau de l’ordre dans lequel les relayeurs envoient leurs acquittements : chacun des nœuds ayant reçu la trame de données et vérifiant la règle (a) émet un acquittement dans le i-ème intervalle, où est i est la différence entre le rang de la destination et son propre rang dans le DODAG. 9.3.2.3 Trafic point à point Le dernier type de trafic que nous considérons est le trafic point à point, i.e. d’un nœud capteur à un autre. Un tel scénario est illustré par la Figure 9.7 : le nœud (1) souhaite transmettre une trame au nœud (3). Pour cela, QOR décompose l’acheminement en 2 étapes : la trame est d’abord acheminée jusqu’à l’ancêtre commun entre la source et la destination selon les règles de relayage pour un trafic convergent puis de l’ancêtre commun à la destination selon les règles de relayage pour un trafic descendant. L’ensemble des relayeurs participant à l’acheminement obtenu pour le scénario considéré est représenté sur la Figure 9.8. 9.4 Analyse de performance Dans cette Section, nous étudions les performances de QOR et les comparons à celle du protocole RPL. RPL est un protocole de routage IPv6 défini par le groupe de travail IETF ROLL et une description est disponible dans l’état de l’art (Chap.3). Plus précisément, notre comparaison porte entre QOR et une instance de RPL dont l’objectif est de maximiser le taux de livraison. 195CHAPITRE 9. PROTOCOLE DE ROUTAGE OPPORTUNISTE POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL MULTI-SAUTS : QOR Figure 9.7 – Scénario de trafic point à point Figure 9.8 – Scénario de trafic point à point 9.4.1 Environnement de simulation, scénarios et critères d’évaluation 9.4.1.1 Simulateur de réseau, topologies et scénarios 9.4.1.2 WSNet À l’instar des travaux décrits dans les Chapitres 7 et 8, cette étude est réalisée sur le simulateur de réseau WSNet [14]. 9.4.1.3 Topologies physiques Les protocoles sont exécutés et analysés d’après les résultats de simulation sur deux topologies : une topologie en grille régulière, telle qu’utilisée dans les chapitres 7 et 8 et une topologie générée aléatoirement dont les propriétés statistiques des positions sont similaires 196CHAPITRE 9. PROTOCOLE DE ROUTAGE OPPORTUNISTE POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL MULTI-SAUTS : QOR (a) Grille régulière de 169 nœuds (b) Topologie aléatoire de 200 nœuds Figure 9.9 – Topologies utilisées dans l’étude à celle du démonstrateur ARESA 2 3. Ces topologies sont représentées sur la Figure 9.9. Sur ces Figures, la passerelle est désignée par un rond gris et la source considérée pour l’étude de la distribution de délai ainsi que dans le scénario de source unique est représentée par un rond blanc. 9.4.1.4 Modèle radio À l’instar du Chapitre 7, cette étude considère des circuits radio émettant dans la bande ISM 868MHz à un débit de 19,2Kbit/s. Les puissances dissipées considérées sont identiques au paramétrage choisi dans le Chapitre 6, nous rappelons les principales informations dans le tableau 9.1 : Paramètre valeur Ptx 62.5 mW Prx 53.7 mW Ereveil 0.16 mJ Erx!tx 53.7 µJ Etx!rx 53.7 µJ Table 9.1 – Puissances et énergies dissipées dans le circuit radio 9.4.1.5 Modèle de trafic Dans cette étude, nous adoptons un scénario similaire à celui proposé dans le Chapitre 7, à savoir un trafic caractéristique d’une application de télé-relève de compteurs urbains : tous les nœuds de la topologie émettent ainsi des trames de données de 600bits à destination de la passerelle. Nous incluons également les résultats obtenus pour une source unique afin d’évaluer l’impact d’une approche opportuniste sur les différents nœuds acteurs d’un relayage d’une trame à la passerelle. Nous rappelons que cette source unique est identifiée par un rond blanc sur la Figure 9.9. 3. la distribution des distances entre les nœuds est tirée d’après la distribution de la topologie du démonstrateur ARESA 2 197CHAPITRE 9. PROTOCOLE DE ROUTAGE OPPORTUNISTE POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL MULTI-SAUTS : QOR Les trames sont générées de manière strictement périodique, la période de génération de ces trames étant définie à ±20ppm. Nous faisons varier la période d’émission entre une trame par jour et une trame par heure. D’après le Chapitre 6, cette plage de fréquences correspond en effet au domaine où un réseaux multi-sauts synchrone consomme moins qu’un réseau radio longue portée ou qu’un réseau multi-sauts asynchrone. 9.4.1.6 Critères d’évaluation Cette analyse comparée est réalisée selon les critères suivants : Taux de livraison Par l’étude du taux de livraison, nous tenons à montrer le gain apporté par le schéma de routage opportuniste par rapport au schéma de routage conventionnel. Nous cherchons également à déterminer s’il est nécessaire d’acquitter et retransmettre les trames de données afin de respecter l’exigence d’un taux de livraison de 99%, tel que requis par les applications cibles des réseaux de capteurs urbains (Chap.1). Délai Le Chapitre 6 montre que le délai de bout en bout observé dans un réseau multisauts dépend principalement de la période d’activité et du nombre de sauts entre les nœuds sources et la passerelle. Le Chapitre 7 propose quant à lui de diminuer la puissance dissipée par les nœuds capteurs en regroupant plusieurs transmissions par période d’activité. De cette façon, pour un trafic donné, les nœuds activent leur circuit moins souvent et consomment donc moins d’énergie qu’un protocole traditionnel. Le compromis de cette méthode est une augmentation du délai de bout-en-bout et sa limite d’exploitation est donc dictée par le délai de livraison cible des applications supportées. Nous voulons montrer ici que le schéma de routage opportuniste permet une diminution sensible du délai de bout en bout et permet donc d’exploiter davantage le mécanisme d’allocation multiple d’instants de transmission proposé par le Chapitre 7. Puissance dissipée Afin de valider pleinement l’intérêt de l’approche opportuniste du routage, nous étudions l’impact du routage opportuniste sur la consommation des nœuds. 9.4.2 Résultats sur topologie en grille régulière 9.4.2.1 Taux de livraison La Figure 9.10 présente les taux de livraison obtenus pour QOR et RPL avec et sans acquittement ni retransmission. On note en premier lieu que les résultats obtenus sans retransmission confirment notre intuition, à savoir qu’un usage opportuniste des liens longue distance permet d’améliorer le taux de livraison. On constate en effet que le nombre de trames non livrées par QOR est à inférieur à 2% du volume total contre 5% avec avec RPL. On remarque également qu’il est nécessaire de mettre en place un mécanisme d’acquittement et de retransmission afin de garantir l’objectif de 99% de trames livrées à la passerelle. 9.4.2.2 Délai La Figure 9.11 représente le délai moyen des trames générées par les nœuds en périphérie de la topologie lorsque les retransmissions et acquittements sont utilisés. On constate, conformément à nos attentes, que QOR présente un délai de livraison inférieur à celui de RPL : nous observons en effet une diminution de 50% du délai de livraison des trames. 198CHAPITRE 9. PROTOCOLE DE ROUTAGE OPPORTUNISTE POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL MULTI-SAUTS : QOR Figure 9.10 – Taux de livraison comparé Figure 9.11 – Délai moyen de bout-en-bout, nœud en périphérie La Figure 9.12 représente la distribution du délai pour un trafic fixé à 3 trames par jour et par nœud. La distribution observée est celle du nœud identifié par un rond blanc sur la Figure 9.9. Nous constatons en premier lieu que les délais de livraison observés pour QOR sont strictement inférieurs à ceux de RPL. On remarque également que les délais obtenus avec le routage opportuniste présentent une plus grande variabilité qu’avec le routage traditionnel : entre 4500s et 7800s pour QOR contre 10900 à 12500s avec RPL soit 199CHAPITRE 9. PROTOCOLE DE ROUTAGE OPPORTUNISTE POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL MULTI-SAUTS : QOR 3300s d’écart contre 1650s. Ce comportement est le fruit de l’usage opportuniste des liens. En effet, comme indiqué en Section 9.2, QOR fait usage des liens longue distance lorsqu’ils sont disponibles : la loi de distribution du délai est donc fonction de la distribution des réalisations de liens. Figure 9.12 – Distribution du délai de bout-en-bout, nœud en périphérie 9.4.2.3 Puissance dissipée Nous étudions à présent la puissance dissipée par chacun des protocoles. La distribution des puissances dissipées par l’ensemble des nœuds de la topologie est représentée sur les Figures 9.13 et 9.14. La Figure 9.13 représente les résultats obtenus pour une source unique. Les distributions obtenues pour QOR et RPL présentent 3 domaines d’intérêt, repérés sur le graphe. Le premier domaine d’intérêt, en haut à gauche sur le graphe, correspond aux nœuds qui ont pour seule activité radio l’écoute périodique du médium : ces nœuds détectent peu ou pas d’émissions et ne participent donc pas au relayage des trames. Cette catégorie de la population de nœuds est plus peuplée avec QOR qu’avec RPL. Cela signifie que l’acheminement opportuniste d’une trame de données affecte un nombre moins important de nœuds qu’avec une approche traditionnelle. Parmi les nœuds affectés par l’acheminement d’une trame, on distingue deux populations : ceux qui subissent une sur-écoute des messages d’annonce de trames de données et/ou qui participent peu fréquemment au relayage dans le cas de QOR, i.e. domaine en bas à gauche, et ceux qui participent fréquemment à l’acheminement des trames, i.e. en bas à droite. Par ces résultats, nous observons que la consommation maximale dans le réseau est plus faible avec QOR qu’avec RPL : 0.0311 mW pour QOR contre 0.0327 mW pour RPL soit un écart de 5% de la puissance maximale dissipée en faveur de l’approche opportuniste. On observe également que les nœuds participent moins fréquemment à l’acheminement des données (moins de nœuds dans le domaine en bas à droite) avec QOR qu’avec RPL. Ce résultat trouve son explication dans l’approche opportuniste qui implique moins de transmissions pour acheminer les trames et qui répartit la prise en charge de celles-ci en fonction des réalisations de liens, i.e. les prises en charge sont réparties entre les nœuds relayeurs en fonction des réalisation de liens. 200CHAPITRE 9. PROTOCOLE DE ROUTAGE OPPORTUNISTE POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL MULTI-SAUTS : QOR Figure 9.13 – Distribution de la puissance dissipée, émetteur unique Figure 9.14 – Distribution de la puissance dissipée La Figure 9.14 recense les résultats concernant la puissance dissipée lorsque tous les nœuds émettent des trames de données. Ces résultats confortent l’analyse réalisée d’après les résultats de la figure 9.13. On observe en particulier une puissance maximale dissipée dans le réseau avec l’approche opportuniste inférieure de 25%. 201CHAPITRE 9. PROTOCOLE DE ROUTAGE OPPORTUNISTE POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL MULTI-SAUTS : QOR 9.4.3 Résultats sur topologie "aléatoire" Nous étudions maintenant les résultats obtenus sur la topologie aléatoire générée selon les statistiques de la topologie du démonstrateur ARESA. 9.4.3.1 Taux de livraison La Figure 9.15 représente les taux de livraison atteints avec QOR et RPL selon que les acquittements et retransmissions sont utilisés ou non. Ces résultats amènent à des observations similaires à celles obtenues sur la topologie en grille. On note en premier lieu qu’il est nécessaire d’utiliser un mécanisme d’acquittement et de retransmission afin de respecter une exigence de taux de livraison de 99%. En l’absence de tels mécanismes, le taux de livraison obtenu avec QOR est d’environ 57% contre 45% avec RPL, soit une amélioration de 27% en utilisant l’approche opportuniste. Ce gain se traduit par significativement moins de retransmissions lorsque les acquittements et retransmissions sont utilisés et donc par une diminution de la puissance dissipée. Ce résultat est confirmé dans la Section 9.4.3.3. Figure 9.15 – Taux de livraison sans acquittement ni retransmission 9.4.3.2 Délai Les résultats en terme de délai de bout-en-bout pour un nœud de la périphérie sont disponibles sur les Figures 9.16 et 9.17. D’après la Figure 9.16, on constate que le délai moyen est réduit de 38% lorsque l’approche opportuniste, i.e. QOR, est utilisée. Ce résultat montre que l’approche opportuniste proposée permet de réduire sensiblement le délai de livraison des trames de données sur une topologie réaliste de réseaux de capteurs urbains. La Figure 9.17 présente quant à elle la distribution de ces délais. On observe ici un comportement similaire à celui obtenu sur la topologie en grille : les délais de bout-en-bout avec QOR présentent une variabilité plus grande qu’avec RPL, i.e. 5300s contre 3500s. 202CHAPITRE 9. PROTOCOLE DE ROUTAGE OPPORTUNISTE POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL MULTI-SAUTS : QOR Figure 9.16 – Délai moyen de bout-en-bout, nœud en périphérie Figure 9.17 – Distribution du délai de bout-en-bout, nœud en périphérie 9.4.3.3 Puissance dissipée Compte-tenu des exigences de livraison, nous présentons ici les résultats avec retransmissions et acquittements activés (Fig. 9.18). Ces résultats confortent les observations faites sur la topologie en grille, à savoir une sollicitation moins importante des nœuds capteurs du réseau. 203CHAPITRE 9. PROTOCOLE DE ROUTAGE OPPORTUNISTE POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL MULTI-SAUTS : QOR Figure 9.18 – Distribution de la puissance dissipée, topologie "aléatoire" 9.4.4 Synthèse des résultats Nous avons exécuté QOR et RPL sur deux topologies de réseaux multi-sauts, dont l’une possède les propriétés statistiques d’un déploiement de réseaux de capteurs urbains existant. Par cette étude nous montrons qu’un routage opportuniste tel que proposé permet d’améliorer significativement le taux de livraison par rapport à un protocole traditionnel optimisé pour cet objectif, tout en diminuant le délai de bout-en-bout et la puissance dissipée. 9.5 Synthèse sur QOR Dans ce Chapitre, nous proposons le protocole QOR, The QoS oriented Opportunistic Routing Protocol. QOR est un protocole de routage opportuniste exploitant les liens longue distance, fluctuants et peu fiables afin d’améliorer conjointement le taux de livraison, le délai et la puissance dissipée. Dans cette étude, QOR est comparé à un protocole visant à maximiser le taux de livraison, à savoir une implémentation du protocole RPL [3]. Cette étude est réalisée par simulation sur deux topologies de réseaux dont l’une d’elles possèdent des propriétés statistiques proches d’une topologie d’un déploiement de réseaux de capteurs existant, i.e. celle du démonstrateur du projet ARESA [81]. Les résultats obtenus avec QOR confirment l’amélioration simultanée du taux de livraison, du délai et de la puissance dissipée par rapport à RPL. Plus généralement, ce résultat valide l’approche opportuniste du routage et montre qu’il est possible d’utiliser les liens non fiables, longue distance, fluctuants dans un réseau contraint par des exigences de Qualité de Service. Par ailleurs, dans le Chapitre 7, nous avons montré que l’allocation multiple d’instants de transmission par période d’activité, i.e. le principe fondateur de CT-MAC, a pour contrepartie une augmentation du délai de bout-en-bout. Cet accroissement du délai de bout-en-bout, du à un allongement de la période de sommeil des nœuds, limite le nombre d’instants de transmission qui peuvent 204CHAPITRE 9. PROTOCOLE DE ROUTAGE OPPORTUNISTE POUR RÉSEAU URBAIN DE CAPTEURS SANS-FIL MULTI-SAUTS : QOR être alloués simultanément. Lors de l’analyse comparée de QOR et RPL, on a constaté une diminution d’environ 40% du délai sur une topologie réaliste, en faveur de l’approche opportuniste. Pour une exigence donnée sur le délai, l’approche opportuniste permet donc d’allouer significativement plus d’instants de transmissions par période d’activité et donc de diminuer encore davantage la puissance dissipée par les nœuds capteurs, résultant ainsi en une durée de vie plus grande du réseau. Enfin, compte-tenu de la similitude entre QOR et RPL, i.e. topologie logique identique, mêmes messages de contrôle, etc., nous envisageons d’implémenter QOR sur la base du code source RPL actuellement en cours de développement dans le cadre du démonstrateur ARESA 2 [16]. 205CHAPITRE 10 Conclusion et travaux futurs 10.1 Résumé des contributions Ces travaux de thèse s’intéressent aux architectures et protocoles pour réseaux de capteurs sans-fil sous exigences de Qualité de Service. Nous considérons plus particulièrement l’usage de tels réseaux dans le contexte applicatif de la Ville Intelligente, plus connu sous l’appellation Smart Cities. Cette catégorie regroupe les applications liées à la gestion du trafic et de la signalisation, des parcs de stationnement, des déchets, de la relève des compteurs d’eau, d’électricité, de gaz, etc. Ces réseaux sont constitués de dispositifs, i.e. les capteurs, capables d’effectuer une mesure physique et de la transmettre par voix hertzienne jusqu’à une passerelle connectant le réseau au système d’information de l’opérateur.Cet acheminement peut être réalisé de deux manières selon la technologie radio employée. On parle de télé-relève à radio longue portée portée lorsque l’ensemble des compteurs sont en mesure de transmettre directement leurs mesures à la passerelle et de télé-relève multi-sauts lorsque l’acheminement des données nécessitent la coopération de plusieurs compteurs. Dans ce travail, nous avons tout d’abord recensé les caractéristiques de trafic et les exigences de Qualité de Service associées à chacune des applications de la Ville Intelligente (Chap. 2). Nous avons ainsi constaté que le trafic dominant de ces réseaux provient des applications de télé-relève de compteurs d’eau et de gaz (jusqu’à 10 000 compteurs par passerelle, une remontée par heure et 1Ko par remontée). Ces applications se caractérisent par un taux de livraison cible de 99%, des contraintes en délai de l’ordre de la période de génération des trames de données et un trafic de type convergecast. Compte tenu de cette description, nous avons recensé les protocoles de la littérature et proposé une taxonomie fonctionnelle des protocoles de contrôle d’accès au médium et de routage afin d’identifier les familles de protocoles pertinentes à chaque architecture radio (Chap. 3). Nous montrons ainsi que l’architecture radio longue portée s’associe de manière privilégiée avec un protocole de contrôle d’accès direct au médium, tel qu’ALOHA ou ses dérivés. En revanche, nous montrons qu’une pile protocolaire constituée d’un protocole de routage pro-actif à vecteur de distances sur un protocole de contrôle d’accès par contention est mieux indiquée pour un réseau de capteurs multi-sauts en homogène milieu urbain. Nous avons ensuite étudié les différents mécanismes constitutifs d’un protocole de contrôle d’accès par contention, i.e. l’établissement de la communication (Chap. 4), la né- gociation de l’accès et l’annonce de la transmission (Chap. 5). Nous montrons ainsi qu’un protocole de contrôle d’accès à synchronisation pro-active a un coût énergétique équivalent à la dépense énergétique de l’oscillateur à cristal de quartz utilisé. Nous montrons en particulier qu’au delà d’une trame par jour et par voisinage radio, un protocole de contrôle d’accès synchrone présente un coût énergétique inférieur à celui d’un protocole asynchrone idéal. Nous exhibons également les différents mécanismes de contention présents dans la littérature. Nous évaluons la consommation d’énergie associée à chacun d’entre eux en fonction du taux de livraison souhaité. Nous montrons ainsi que les mécanismes de contention à décompte binaire sont les plus efficaces en énergie. À partir de ces constats, nous construisons deux piles protocolaires de référence, l’une 206CHAPITRE 10. CONCLUSION ET TRAVAUX FUTURS pour une architecture de télé-relève à radio longue portée et l’autre pour un réseau radio multi-sauts et nous comparons ces deux architectures en termes de dépense énergétique pour un scénario de télé-relève de compteurs et en fonction du volume de trafic supporté (Chap. 6). Nous observons en particulier que pour un trafic faible (inférieur ou égal à 1 trame par jour), sur des topologies de petite taille et jusqu’à un déploiement dans une agglomération de taille moyenne, l’architecture longue portée s’avère plus efficace qu’une architecture multi-sauts du point de vue énergétique. Pour un trafic excédant 4 à 5 trames par jours et par nœud et pour des déploiements denses, nous recommandons l’usage d’une topologie multi-sauts, d’un protocole d’accès au médium radio synchrone tel que proposé au Chapitre 7 et d’un protocole de routage opportuniste tel que proposé au Chapitre 9. Cette étude a également permis de révéler les limitations des protocoles existants et des pistes d’amélioration de leurs performances : factorisation du coût énergétique de l’arbitrage au médium de communication, utilisation opportuniste des liens fluctuants et non fiables pour améliorer conjointement le taux de livraison et le délai et relayage adaptatif pour améliorer la couverture et le taux de livraison des architectures longue portée (Chap. 6). Nous avons ensuite exploré chacune de ces pistes. Nous proposons ainsi un protocole d’allocation mutualisée et distribuée d’instants de transmission : The Cascading Tournament Protocol (CT-MAC) (Chap. 7). Les résultats de l’étude montrent entre autres que CT-MAC consomme jusqu’à 12% de moins qu’un protocole de référence (SCP-MAC) dimensionné selon les résultats des Chapitres 4, 5 et 6, i.e. dimensionné pour respecter les contraintes de qualité de service au moindre coût énergétique. Cette diminution de la consommation d’énergie est réalisée dans le respect des exigences de qualité de service typique d’un réseau de collecte. Nous proposons également The Self-Adapting Receiver-Initiated MAC protocol (SARIMAC) (Chap. 8). SARI-MAC est un protocole MAC initié récepteur conçu pour opérer une fonction de relayage dans une architecture de réseaux de capteurs longue portée. SARIMAC évalue le trafic à supporter par les nœuds relais de façon à adapter son paramétrage aux exigences de Qualité de Service et de manière à minimiser la consommation énergétique. Dans cette étude, nous avons comparé SARI-MAC à RI-MAC, le protocole initié récepteur efficace en énergie de référence. L’analyse de performance montre que SARI-MAC surpasse RI-MAC sur l’ensemble des critères retenus : taux de livraison (& 99, 9%), consommation d’énergie (réduction de 50% de la consommation des nœuds relais par rapport à RI-MAC) et cohabitation avec les protocoles privilégiés sur les architectures longue portée , i.e. ALOHA et dérivées, par son occupation moindre du médium par les nœuds relais. Enfin nous proposons The QoS-oriented Opportunistic Routing protocol (QOR) (Chap. 9). QOR est un protocole de routage opportuniste exploitant les liens longue distance, fluctuants et peu fiables afin d’améliorer conjointement le taux de livraison, le délai et la puissance dissipée. Les résultats obtenus dans cette étude confirment l’amélioration simultanée du taux de livraison, du délai et de la puissance dissipée par rapport au protocole IETF RPL [3]. Plus généralement, ce résultat valide l’approche opportuniste du routage et montre qu’il est possible d’utiliser les liens non fiables, longue distance, fluctuants dans un réseau contraint par des exigences de Qualité de Service. 207CHAPITRE 10. CONCLUSION ET TRAVAUX FUTURS 10.2 Perspectives et travaux futurs Les travaux menés dans cette thèse ont été focalisés sur le choix et le dimensionnement d’une architecture de réseau urbain de capteurs sans-fil pour une application de télé-relève de compteurs. Nous avons par ailleurs montré qu’un tel dimensionnement permet non seulement de répondre aux exigences de Qualité de Service d’une application de télé-relève de compteurs mais également à la majorité des exigences de Qualité de Service des applications identifiées, e.g. gestion des déchets, éclairage public, etc. Certaines applications, e.g. la gestion des parcs de stationnement, nécessitent cependant l’introduction de mécanismes spécifiques afin de répondre à leurs exigences de Qualité de Service plus contraignantes. Certains de ces mécanismes, dont des études préliminaires ont été réalisées lors de cette thèse, e.g. priorisation de l’accès au médium selon la classe de service (Annexe A), mériteraient d’être étudiés plus en détail. Il est également nécessaire de développer des mécanismes de supervision et de management de SLAs afin d’opérer et d’adapter le paramétrage de tels réseaux en présence d’applications et de besoins de Qualité de Services dynamiques. De tels travaux sont actuellement entrepris par les laboratoires OLPS/MIS d’Orange Labs et INRIA CITI de l’INSA de Lyon, en particulier dans le cadre de la thèse de Guillaume Gaillard, débutée en décembre 2012. Enfin, l’implémentation des différentes propositions réalisées dans cette thèse nécessitent une validation sur un déploiement réaliste de réseau urbain. Le démonstrateur du projet ARESA 2, qui compte une centaine de nœuds déployés sur le site Orange Labs de Meylan serait un candidat idéal pour une telle démarche. 208Annexes 209CHAPITRE A Étude préliminaire sur la priorisation de l’accès au médium selon la classe de service A.1 Scenario Figure A.1 – Fenêtre de contention : notations A.2 Définitions Ci Support de la fonction de distribution de la classe de service i. Ni Nombre de nœuds appartenant à la classe de service i. K nombre d’intervalles dans la fenêtre de contention. s s ième intervalle de la fenêtre de contention. c nombre de classes de services distinctes, c’est à dire de support différent. {Ci}i21..c Ensemble des support des classes de service. pi(access) Probabilité d’accéder, de façon unique au medium pour un nœud de classe de service i. Tmac Période de réveil du capteur. pi(t = x ⇤ Tmac) Probabilité d’accès au terme de de x tentatives exactement. ti(access) Temps moyen pour accéder avec succès au canal radio. A.3 Calcul de la Probabilité d’accéder, de façon unique, au medium pour un nœud de classe de service i Un nœud accède au medium s’il choisit un slot s et qu’aucun autre nœud ne choisissent un slot s0 précédant s. pi(access) = 1 Ci [ min({ X C`}`21..c) j=1 ( Yc `=1 `6=i [(C` ! j C` ) N` ].( Ci ! j Ci ) Ni#1)] (A.1) 211ANNEXE A. ÉTUDE PRÉLIMINAIRE SUR LA PRIORISATION DE L’ACCÈS AU MÉDIUM SELON LA CLASSE DE SERVICE Calcul du temps d’attente à l’accès avec succès pi(t = x.Tmac) = (1 ! pi(access))x.pi(access) (A.2) ti(access) = X1 x=1 [pi(t = x.Tmac).x.Tmac] = X1 x=1 [(1 ! pi(access))x.pi(access).x.Tmac] ti(access) = 1 ! pi(access) pi(access) .Tmac (A.3) A.4 Calcul de la Probabilité de collision Une collision apparaît lorsque deux ou plus nœuds choisissent le même slot, ce slot ayant été le premier à être choisi. La probabilité associée, P(col) est égale à la probabilité de l’évènement : "aucun nœud n’accède de façon unique au canal radio". P(col) = Yc i=1 [(1 ! pi(access))Ni ] = Yc i=1 [(1 ! 1 Ci [ min({ X C`}`21..c) j=1 ( Yc `=1 `6=i [(C` ! j C` ) N` ].( Ci ! j Ci ) Ni#1)])Ni ] P(col) = Yc i=1 [( Ci ! [ Pmin({C`}`21..c) j=1 ( Qc `=1 `6=i [(C`#j C` )N` ].(Ci#j Ci )Ni#1)] Ci ) Ni ] (A.4) A.5 Études de cas A.5.1 2 classes de service, un trafic majoritaire non prioritaire et un trafic d’alarme sporadique On considère un voisinage de 40 nœuds. 2 nœuds parmi les 40 doivent retransmettre un paquet d’alarme, les 38 autres écoulent un trafic non prioritaire. La taille de la fenêtre de contention, K, varie entre 20 et 128. Les nœuds "non prioritaires” utilise K slots, soit la totalité de la fenêtre de contention. Les nœuds prioritaires utilisent entre 5 et K ! 1 slots. 212ANNEXE A. ÉTUDE PRÉLIMINAIRE SUR LA PRIORISATION DE L’ACCÈS AU MÉDIUM SELON LA CLASSE DE SERVICE Figure A.2 – Probabilité d’accès unique au canal radio Le graphe A.2 réprésente la probabilité d’accès unique au canal radio en fonction des classes de services. La surface rouge représente la probabilité d’accès des nœuds ”alarmes” alors que la courbe noire représente le traffic de base. A.5.2 3 classes de service, un trafic majoritaire non prioritaire, un trafic priorisé et un trafic d’alarme sporadique On considère un voisinage de 40 nœuds. 2 nœuds parmi les 40 doivent retransmettre un paquet d’alarme. 5 nœuds doivent transmettre des paquets classés importants alors que les 33 autres écoulent un trafic non prioritaire. La taile de la fenêtre de contention, K, est fixe : 128. Les nœuds "non prioritaires” utilisent les K slots. Les nœuds "importants" utilisent entre 3 et K ! 1 slots : Kimp alors que les nœuds "alarmes” utilisent entre 2 et Kimp ! 1 slots. 213ANNEXE A. ÉTUDE PRÉLIMINAIRE SUR LA PRIORISATION DE L’ACCÈS AU MÉDIUM SELON LA CLASSE DE SERVICE Figure A.3 – Probabilité d’accès unique au canal radio Le graphe A.3 réprésente la probabilité d’accès unique au canal radio en fonction des classes de services. La surface rouge représente la probabilité d’accès des nœuds ”alarmes”. La courbe bleue représente la probabilité d’accès des nœuds "importants" alors que la courbe noire représente le traffic de base. 214Table des figures 2.1 Exemple de nœud capteur sans-fil. Ici, un nœud de la société Coronis [8], groupe Elster. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.2 Déploiements de capteurs urbains : topologie en étoile (gauche) et topologie multi-sauts (droite) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.3 Bandes de fréquences non licenciées utilisées pour le déploiement de réseaux de capteurs sans-fil urbains . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.4 Bande 868 MHz, sous-bandes G1, G2, G3 et G4 : contraintes d’exploitation 12 2.5 Évolution de la puissance reçue en fonction de la distance à la source [12]. . 13 2.6 Modèle de propagation à deux rayons [13]. . . . . . . . . . . . . . . . . . . . 13 2.7 Expérimentation sur la variabilité du RSSI et taux d’erreur binaire . . . . . 14 2.8 Utilisation de la mémoire RAM pour un nœud capteur possédant 4 Kilooctets de RAM et fonctionnant sous Contiki [18]. Les entrées de la table de voisinage sont de 64bits. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.9 Durée de vie des nœuds capteurs en fonction de la puissance moyenne dissipée. Exemple sur une pile Lithium-thionyl chloride (Li-SOCl2) de capacité 5800 mAh sous 3.6 V. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 3.1 Taxonomie proposé pour l’état de l’art sur les protocoles de contrôle d’accès au médium . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.2 Protocole PEDAMACS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.3 Protocole SMAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.4 Protocole SCP-MAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.5 Protocole DMAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.6 Protocole NP-CSMA-PS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 3.7 Protocole MFP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 3.8 Protocole XMAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.9 Protocole SpeckMAC-D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.10 Protocole MX-MAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.11 Protocole RIMAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.12 Protocole ALOHA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 3.13 Protocole Slotted ALOHA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 3.14 Protocole WiseMAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 3.15 Taxonomie proposée pour l’état de l’art sur les protocoles de routage . . . . 52 3.16 Protocole LEACH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 3.17 Topologie du démonstrateur ANR ARESA . . . . . . . . . . . . . . . . . . . 55 3.18 Topologie du démonstrateur ANR ARESA . . . . . . . . . . . . . . . . . . . 56 215TABLE DES FIGURES 3.19 Graphe acyclique Dirigé : les liens en gras représentent les liens qui ont été ajouté à l’arbre de recouvrement pour constituer le DAG. Ces liens ajoutent de la redondance à la structure et offrent ainsi des chemins alternatifs dans l’éventualité d’une indisponibilité du lien primaire. . . . . . . . . . . . . . . 59 3.20 Protocole Géographique Glouton . . . . . . . . . . . . . . . . . . . . . . . . 62 3.21 Le routage géographique glouton : échec de l’acheminement en présence de zones non couvertes par des capteurs . . . . . . . . . . . . . . . . . . . . . . 63 4.1 Exemple de fonctionnement erratique d’un protocole de communication en présence d’un décalage de la base de temps des nœuds. . . . . . . . . . . . . 72 4.2 Solutions palliatives au décalage d’horloges. . . . . . . . . . . . . . . . . . . 73 4.3 Modèle de synchronisation distribuée : les nœuds capteurs échangent la date de leur horloge et exécute un algorithme de consensus leur permettant de s’accorder sur une date commune. . . . . . . . . . . . . . . . . . . . . . . . . 74 4.4 Modèle de synchronisation hiérarchique, exemple : (1) un serveur NTP fournit une horloge de référence aux passerelles du réseau. (2) Les passerelles diffusent la date de référence aux nœuds du réseau. (3) Les nœuds capteurs synchronisent leur horloge sur la date annoncée par la passerelle à laquelle ils sont rattachés. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 4.5 Le schéma de synchronisation Maître-Esclave . . . . . . . . . . . . . . . . . 77 4.6 Envoi périodique de la trame de synchronisation . . . . . . . . . . . . . . . 77 4.7 Format de la trame de synchronisation . . . . . . . . . . . . . . . . . . . . . 78 4.8 Mécanisme de synchronisation trivial . . . . . . . . . . . . . . . . . . . . . . 78 4.9 Taux de succès de la synchronisation en présence d’erreurs sur le fragment reçu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 4.10 Ordonnancement des trames de synchronisation . . . . . . . . . . . . . . . . 84 4.11 Modèle de consommation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 4.12 Protocoles asynchrone idéal et synchrone optimal . . . . . . . . . . . . . . . 87 4.13 Optimisation des protocoles . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 4.14 Consommation d’énergie comparée des protocoles . . . . . . . . . . . . . . . 89 5.1 Accès par contention . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 5.2 Exemple de séquence d’action à priori . . . . . . . . . . . . . . . . . . . . . 93 5.3 Compétition entre deux nœuds capteurs . . . . . . . . . . . . . . . . . . . . 93 5.4 Exemple de scénario pouvant mener à une collision . . . . . . . . . . . . . . 94 5.5 Exemple de séquence à priori pour un algorithme à tonalité simple . . . . . 96 5.6 Compétition entre deux nœuds pour un algorithme à tonalité simple . . . . 96 5.7 Exemple de séquence à priori pour un algorithme à longue tonalité . . . . . 97 5.8 Compétition entre deux nœuds pour un algorithme à longue tonalité . . . . 97 5.9 Exemple de séquence à priori pour un algorithme à décompte binaire . . . . 98 5.10 Compétition entre deux nœuds pour un algorithme à décompte binaire . . . 98 5.11 Probabilité de collision : loi uniforme (vert) et loi géométrique croissante tronquée (rouge) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 5.12 Contrainte de synchronisation . . . . . . . . . . . . . . . . . . . . . . . . . . 103 5.13 Modele de consommation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 6.1 Modèle de la population en compétition . . . . . . . . . . . . . . . . . . . . 108 6.2 Trafic admissible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 6.3 Consommation d’énergie et taux de livraison . . . . . . . . . . . . . . . . . 111 6.3 Délai moyen de livraison pour une architecture multi-sauts . . . . . . . . . . 113 216TABLE DES FIGURES 6.4 Calcul de la composition du voisinage radio d’un nœud à une distance x de la passerelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 6.5 Éléments de démonstration des calculs des aires A(x), B(x) et C(x) . . . . . 116 6.5 Architecture de réseau de capteurs urbains sans-fil multi-sauts : Puissance dissipée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 6.6 Principales contributions à la dépense d’énergie . . . . . . . . . . . . . . . . 120 6.7 Calcul du taux de collision . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 6.8 ALOHA : Probabilité de collision . . . . . . . . . . . . . . . . . . . . . . . . 124 6.9 ALOHA avec répétitions : Probabilité de non délivrance, débit 100bits/s . . 125 6.10 ALOHA avec répétitions et acquittements : Probabilité de non délivrance, débit 100bits/s .................................. 126 6.11 Impact de la taille de l’intervalle sur la probabilité de collision . . . . . . . . 127 6.12 ALOHA temps discret : probabilité de collision . . . . . . . . . . . . . . . . 128 6.13 ALOHA temps discret avec répétitions : probabilité de non délivrance . . . 129 6.14 ALOHA temps discret avec répétitions et acquittement : probabilité de non délivrance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 6.14 Protocoles pour réseaux de capteurs urbains longue portée : puissance dissipée et domaines d’intérêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 6.13 Comparaison des architectures longue portée et multi-saut . . . . . . . . . . 136 7.1 Étapes de l’algorithme de contention de CT-MAC . . . . . . . . . . . . . . . 141 7.2 Étape 1 de l’algorithme de contention de CT-MAC, comportement d’un nœud isolé souhaitant émettre . . . . . . . . . . . . . . . . . . . . . . . . . . 142 7.3 Étape 1 de l’algorithme de contention de CT-MAC, comptage des détections et classement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 7.4 Deux noeuds obtiennent un classement identique suite au tirage du même intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 7.5 Étape 2 de l’algorithme de contention de CT-MAC, comportement d’un nœud isolé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 7.6 Étape 2 de l’algorithme de contention de CT-MAC, suppression d’un doublon144 7.7 Étape 3 : annonce des émissions et planification des émissions/écoute . . . . 145 7.8 Étape 3 : Écoute adaptative des annonces . . . . . . . . . . . . . . . . . . . 146 7.9 Étape 4 : Transmission des données . . . . . . . . . . . . . . . . . . . . . . . 146 7.10 Fiabilisation de la détection par voix d’écho . . . . . . . . . . . . . . . . . . 147 7.11 Fonction de répartition des statistiques d’ordre pour une loi uniforme, exemple avec |S| = 16 et n = 4 .............................. 149 7.12 Paramètrage de la loi géométrique, choix du paramètre ↵ pour |S| = 128 et n = 32 ....................................... 152 7.13 Application à l’étape de classement de CT-MAC, choix du paramètre ↵ . . 153 7.14 Optimisation de l’usage des instants de transmission . . . . . . . . . . . . . 154 7.15 Grille régulière à maille carrée . . . . . . . . . . . . . . . . . . . . . . . . . . 156 7.16 Protocole SCP-MAC : structure du protocole . . . . . . . . . . . . . . . . . 157 7.17 Routage sur topologie multi-sauts . . . . . . . . . . . . . . . . . . . . . . . . 158 7.18 Puissance dissipée comparée, clique de 80 nœuds . . . . . . . . . . . . . . . 159 7.19 Puissance dissipée comparée (hors synchronisation), clique de 80 nœuds . . 160 7.20 Taux de livraison comparé, clique de 80 nœuds . . . . . . . . . . . . . . . . 161 7.21 délai comparé, clique de 80 nœuds . . . . . . . . . . . . . . . . . . . . . . . 162 7.22 Puissance dissipée comparée, grille de 169 nœuds . . . . . . . . . . . . . . . 163 7.23 Taux de livraison comparé, grille de 169 nœuds . . . . . . . . . . . . . . . . 164 7.24 Délai de bout en bout comparé, grille de 169 nœuds . . . . . . . . . . . . . 164 217TABLE DES FIGURES 7.25 Taux de livraison comparé, période d’activité fixe, Clique de 80 nœuds . . . 165 7.26 Puissance dissipée comparée, période d’activité fixe, Clique de 80 nœuds . . 166 7.27 Délai comparé, période d’activité fixe, Clique de 80 nœuds . . . . . . . . . . 167 8.1 Vue générale de SARI-MAC . . . . . . . . . . . . . . . . . . . . . . . . . . . 170 8.2 Étape 1 : annonce de la fenêtre de réception . . . . . . . . . . . . . . . . . . 171 8.3 Étape 2 : annonce des intentions de transmission . . . . . . . . . . . . . . . 172 8.4 Phénomène de capture et intérêt du champ code . . . . . . . . . . . . . . . 172 8.5 Étape 3 : publication de l’échéancier des transmissions . . . . . . . . . . . . 173 8.6 Étape 4 : transmission des trames de données . . . . . . . . . . . . . . . . . 173 8.7 Auto-adaptation des paramètres . . . . . . . . . . . . . . . . . . . . . . . . . 174 8.8 Exemple de retard de transmission de la trame d’annonce . . . . . . . . . . 177 8.9 Aperçu du protocole RI-MAC . . . . . . . . . . . . . . . . . . . . . . . . . . 181 8.10 Estimation du trafic par SARI-MAC . . . . . . . . . . . . . . . . . . . . . . 182 8.11 Taux de livraison comparé . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 8.12 Délai comparé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 8.13 Puissance dissipée comparée (nœuds capteurs) . . . . . . . . . . . . . . . . . 184 8.14 Puissance dissipée comparée (nœuds relais) . . . . . . . . . . . . . . . . . . 185 8.15 Occupation du médium par les nœuds relais . . . . . . . . . . . . . . . . . . 185 8.16 Influence de l’occupation du médium par les nœuds relais sur le taux de collision des trames des nœuds capteurs non relayés à la passerelle . . . . . 186 9.1 Traces de connectivité du démonstrateur ARESA . . . . . . . . . . . . . . . 189 9.2 Intérêt de l’approche opportuniste . . . . . . . . . . . . . . . . . . . . . . . 190 9.3 Construction de la topologie de routage . . . . . . . . . . . . . . . . . . . . 191 9.4 Adressage hiérarchique des nœuds . . . . . . . . . . . . . . . . . . . . . . . . 193 9.5 Règle du choix des relayeurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 194 9.6 Mécanisme d’acquittements en cascade . . . . . . . . . . . . . . . . . . . . . 195 9.7 Scénario de trafic point à point . . . . . . . . . . . . . . . . . . . . . . . . . 196 9.8 Scénario de trafic point à point . . . . . . . . . . . . . . . . . . . . . . . . . 196 9.9 Topologies utilisées dans l’étude . . . . . . . . . . . . . . . . . . . . . . . . . 197 9.10 Taux de livraison comparé . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 9.11 Délai moyen de bout-en-bout, nœud en périphérie . . . . . . . . . . . . . . . 199 9.12 Distribution du délai de bout-en-bout, nœud en périphérie . . . . . . . . . . 200 9.13 Distribution de la puissance dissipée, émetteur unique . . . . . . . . . . . . 201 9.14 Distribution de la puissance dissipée . . . . . . . . . . . . . . . . . . . . . . 201 9.15 Taux de livraison sans acquittement ni retransmission . . . . . . . . . . . . 202 9.16 Délai moyen de bout-en-bout, nœud en périphérie . . . . . . . . . . . . . . . 203 9.17 Distribution du délai de bout-en-bout, nœud en périphérie . . . . . . . . . . 203 9.18 Distribution de la puissance dissipée, topologie "aléatoire" . . . . . . . . . . 204 A.1 Fenêtre de contention : notations . . . . . . . . . . . . . . . . . . . . . . . . 211 A.2 Probabilité d’accès unique au canal radio . . . . . . . . . . . . . . . . . . . . 213 A.3 Probabilité d’accès unique au canal radio . . . . . . . . . . . . . . . . . . . . 214 218Bibliographie [1] “21 ideas for the 21st century, Business Week, Bloomberg,” pp. 78–167, sept. 1999. [2] Internet Engineering Task Force, “MANET workgroup charter.” [Online]. Available : http://datatracker.ietf.org/wg/manet/charter/ [3] T. Winter and P. Thubert, “RPL : IPv6 Routing Protocol for Low Power and Lossy Networks,” RFC 6550, 2012. [4] European Telecommunications Standards Institute (ETSI), “Electromagnetic compatibility and Radio spectrum Matters (ERM) ; System Reference document (SRdoc) : Spectrum Requirements for Short Range Device, Metropolitan Mesh Machine Networks (M3N) and Smart Metering (SM) applications,TR 103 055 V1.1.1 (2011-09),” European Telecommunications Standards Institute, Tech. Rep., 2011. [5] United Nations, Department of Economic and Social Affairs. (2011) World urbanization prospects, the 2011 revision. [Online]. Available : http://esa.un.org/ unpd/wup/index.html [6] European Commission. M/441 en : Standardisation mandate to CEN, CENELEC and ETSI in the field of measuring instruments for the development of an open architecture for utility meters involving communication protocols enabling interoperability. [Online]. Available : http://www.cen.eu/cen/Sectors/ Sectors/Measurement/Documents/M441.pdf [7] Texas Instruments. (2011, june) CC1011 chip specifications. [Online]. Available : {http://focus.ti.com/docs/prod/folders/print/cc1101.html} [8] Coronis Systems. Wavenis wireless technology presentation. [Online]. Available : http://coronis.com/landing.php?id=WAVEMAIN&lang=EN [9] European Regulation Commission, “Recommendation 70–03 Relating to the Use of Short Range Devices (SRD), Annex 1 : Non–specific Short Range Devices,” 2009. [10] European Commission, “Commission decision of 20 december 2005 on the harmonisation of the 169,4-169,8125 mhz frequency band in the community.” [11] ——, “Commission Decision of 13 August 2008 amending Decision 2005/928/EC on the harmonisation of the 169,4-169,8125 MHz frequency band in the Community.” [Online]. Available : http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L: 2008:220:0029:0029:EN:PDF [12] T. Watteyne, “Energy-efficient self-organization for wireless sensor networks,” Ph.D. dissertation, Institut National des Sciences Appliquées de Lyon, 2008. [13] A. Goldsmith, Wireless communications. Cambridge university press, 2005. [14] E. B. Hamida, G. Chelius, and J. M. Gorce, “Impact of the physical layer modeling on the accuracy and scalability of wireless network simulation,” Simulation, vol. 85, no. 9, pp. 574–588, 2009. 219BIBLIOGRAPHIE [15] T. K. Sarkar, Z. Ji, K. Kim, A. Medouri, and M. Salazar-Palma, “A survey of various propagation models for mobile communication,” Antennas and Propagation Magazine, vol. 45, no. 3, pp. 51–82, 2003. [16] D. Barthel. (2013, october) Projet aresa 2. [Online]. Available : http: //aresa2.orange-labs.fr/ [17] Ville de Paris. (2012, june) Eclairage public à paris. [Online]. Available : http://www.paris.fr/pratique/chantiers-de-voirie/eclairage-public/ eclairage-public-a-paris/rub\_21\_stand\_78248\_port\_659 [18] Contiki-OS. (2012, june) The contiki operating system. [Online]. Available : http://www.sics.se/contiki/ [19] H. Zimmermann, “OSI reference model–The ISO model of architecture for open systems interconnection,” Communications, IEEE Transactions on, vol. 28, no. 4, pp. 425–432, 1980. [20] J. Postel, “Transmission control protocol (tcp),” RFC 6550, 1981. [21] A. Bachir, M. Dohler, T. Watteyne, and K. K. Leung, “Mac essentials for wireless sensor networks,” Communications Surveys & Tutorials, IEEE, vol. 12, no. 2, pp. 222–248, 2010. [22] G. Corbellini, “Adaptive medium access control for heterogeneous wireless sensor networks,” Ph.D. dissertation, Institut National Polytechnique de Grenoble-INPG, 2012. [23] W. Ye, J. Heidemann, and D. Estrin, “Medium access control with coordinated adaptive sleeping for wireless sensor networks,” IEEE/ACM Transactions on Networking (TON), vol. 12, no. 3, pp. 493–506, 2004. [24] D. L. Mills, “Internet time synchronization : the network time protocol,” IEEE Transactions on Communications, vol. 39, no. 10, pp. 1482–1493, 1991. [25] J. Polastre, J. Hill, and D. Culler, “Versatile low power media access for wireless sensor networks,” in Proceedings of the 2nd international conference on Embedded networked sensor systems. ACM, 2004, pp. 95–107. [26] M. Buettner, G. V. Yee, E. Anderson, and R. Han, “X-MAC : a short preamble mac protocol for duty-cycled wireless sensor networks,” in Proceedings of the 4th international conference on Embedded networked sensor systems. ACM, 2006, pp. 307–320. [27] G.-S. Ahn, S. G. Hong, E. Miluzzo, A. T. Campbell, and F. Cuomo, “Funneling-mac : a localized, sink-oriented mac for boosting fidelity in sensor networks,” in Proceedings of the 4th international conference on Embedded networked sensor systems. ACM, 2006, pp. 293–306. [28] S. C. Ergen and P. Varaiya, “Pedamacs : Power efficient and delay aware medium access protocol for sensor networks,” Transactions on Mobile Computing (TMC), vol. 5, no. 7, pp. 920–930, 2006. [29] K. Pister and L. Doherty, “TSMP : Time synchronized mesh protocol,” IASTED Distributed Sensor Networks, pp. 391–398, 2008. [30] K. Arisha, M. Youssef, and M. Younis, “Energy-aware TDMA-based MAC for sensor networks,” IEEE IMPACCT, pp. 21–40, 2002. [31] M. Brownfield, K. Mehrjoo, A. Fayez, and N. Davis IV, “Wireless sensor network energy-adaptive mac protocol,” in Consumer Communications and Networking Conference (CCNC), vol. 2. IEEE, 2006, pp. 778–782. 220BIBLIOGRAPHIE [32] N. Abramson, “The aloha system : another alternative for computer communications,” in Proceedings of the Fall Joint Computer Conference. ACM, 1970, pp. 281–285. [33] V. Rajendran, K. Obraczka, and J. J. Garcia-Luna-Aceves, “Energy-efficient, collision-free medium access control for wireless sensor networks,” Wireless Networks, vol. 12, no. 1, pp. 63–78, 2006. [34] K. Jamieson, H. Balakrishnan, and Y. Tay, “Sift : A mac protocol for event-driven wireless sensor networks,” in Wireless Sensor Networks. Springer, 2006, pp. 260–275. [35] W. Ye, F. Silva, and J. Heidemann, “Ultra-low duty cycle mac with scheduled channel polling,” in Proceedings of the 4th international conference on Embedded networked sensor systems. ACM, 2006, pp. 321–334. [36] I. Rhee, A. Warrier, M. Aia, J. Min, and M. L. Sichitiu, “Z-MAC : a hybrid mac for wireless sensor networks,” IEEE/ACM Transactions on Networking (TON), vol. 16, no. 3, pp. 511–524, 2008. [37] G. Lu, B. Krishnamachari, and C. S. Raghavendra, “An adaptive energy-efficient and low-latency mac for data gathering in wireless sensor networks,” in Proceedings of the 18th International Parallel and Distributed Processing Symposium (IPDPS). IEEE, 2004, p. 224. [38] Y. Sun, O. Gurewitz, and D. B. Johnson, “RI-MAC : a receiver-initiated asynchronous duty cycle mac protocol for dynamic traffic loads in wireless sensor networks,” in Proceedings of the 6th ACM conference on Embedded network sensor systems. ACM, 2008, pp. 1–14. [39] M. Ringwald and K. Romer, “Bitmac : A deterministic, collision-free, and robust mac protocol for sensor networks,” in Proceeedings of the Second European Workshop on Wireless Sensor Networks. IEEE, 2005, pp. 57–69. [40] E. Ziouva and T. Antonakopoulos, “CSMA/CA performance under high traffic conditions : throughput and delay analysis,” Computer Communications, vol. 25, no. 3, pp. 313–321, 2002. [41] V. Rajendran, J. J. Garcia-Luna-Aveces, and K. Obraczka, “Energy-efficient, application-aware medium access for sensor networks,” in International Conference on Mobile Adhoc and Sensor Systems Conference. IEEE, 2005, pp. 8–pp. [42] L. F. van Hoesel and P. Havinga, “A lightweight medium access protocol (lmac) for wireless sensor networks : Reducing preamble transmissions and transceiver state switches,” Society of Instrument and Control Engineers (SICE), Tech. Rep., 2004. [43] T. Van Dam and K. Langendoen, “An adaptive energy-efficient mac protocol for wireless sensor networks,” in Proceedings of the 1st international conference on Embedded networked sensor systems. ACM, 2003, pp. 171–180. [44] A. Bachir, D. Barthel, M. Heusse, and A. Duda, “Micro-frame preamble mac for multihop wireless sensor networks,” in IEEE International Conference on Communications (ICC), vol. 7. IEEE, 2006, pp. 3365–3370. [45] J.-H. Kim, H.-N. Kim, S.-G. Kim, S.-J. Choi, and J.-Y. Lee, “Advanced mac protocol with energy-efficiency for wireless sensor networks,” in Information Networking. Convergence in Broadband and Mobile Networking. Springer, 2005, pp. 283–292. [46] G. P. Halkes and K. Langendoen, “Crankshaft : An energy-efficient mac-protocol for dense wireless sensor networks,” in Wireless Sensor Networks. Springer, 2007, pp. 228–244. 221BIBLIOGRAPHIE [47] J. Pak, J. Son, and K. Han, “A mac protocol using separate wakeup slots for sensor network,” in Computational Science and Its Applications (ICCSA). Springer, 2006, pp. 1159–1168. [48] A. El-Hoiydi, “Aloha with preamble sampling for sporadic traffic in ad hoc wireless sensor networks,” in Communications, 2002. ICC 2002. IEEE International Conference on, vol. 5. IEEE, 2002, pp. 3418–3423. [49] E.-Y. Lin, J. M. Rabaey, and A. Wolisz, “Power-efficient rendez-vous schemes for dense wireless sensor networks,” in IEEE International Conference on Communications, vol. 7. IEEE, 2004, pp. 3769–3776. [50] R. Kuntz, A. Gallais, and T. Noël, “Auto-adaptive mac for energy-efficient burst transmissions in wireless sensor networks,” in Wireless Communications and Networking Conference (WCNC). IEEE, 2011, pp. 233–238. [51] K.-J. Wong and D. Arvind, “SpeckMAC : low-power decentralised mac protocols for low data rate transmissions in specknets,” in Proceedings of the 2nd international workshop on Multi-hop ad hoc networks : from theory to reality. ACM, 2006, pp. 71–78. [52] S. Liu, K.-W. Fan, and P. Sinha, “Cmac : An energy-efficient mac layer protocol using convergent packet forwarding for wireless sensor networks,” ACM Transactions on Sensor Networks (TOSN), vol. 5, no. 4, p. 29, 2009. [53] T. Walteyne, A. Bachir, M. Dohler, D. Barthe, and I. Augé-Blum, “1-hopmac : An energy-efficient mac protocol for avoiding 1-hop neighborhood knowledge,” in 3rd Annual IEEE Communications Society on Sensor and Ad Hoc Communications and Networks (SECON), vol. 2. IEEE, 2006, pp. 639–644. [54] L. Bernardo, R. Oliveira, M. Pereira, M. Macedo, and P. Pinto, “A wireless sensor mac protocol for bursty data traffic,” in 18th International Symposium on Personal, Indoor and Mobile Radio Communications (PIMRC). IEEE, 2007, pp. 1–5. [55] C. J. Merlin and W. B. Heinzelman, “Schedule adaptation of low-power-listening protocols for wireless sensor networks,” IEEE Transactions on Mobile Computing (TMC), vol. 9, no. 5, pp. 672–685, 2010. [56] Standard, “{IEEE} Standard for Information Technology- Telecommunications and Information Exchange Between Systems- Local and Metropolitan Area NetworksSpecific Requirements Part 15.4 : Wireless Medium Access Control (MAC) and Physical Layer (PHY) Specifications for LoWPAN Networks,” IEEE Std 802.15.4-2006 (Revision of IEEE Std 802.15.4-2003), 2006. [57] N. Abramson, “Packet switching with satellites,” in Proceedings of the June 4-8, 1973, National Computer Conference and Exposition, ser. AFIPS ’73. ACM, 1973, pp. 695–702. [58] A. El-Hoiydi and J. D. Decotignie, “WiseMAC : an ultra low power MAC protocol for the downlink of infrastructure wireless sensor networks,” International Symposium on Computers And Communications (ISCC), vol. 1, 2004. [59] O. Gnawali, R. Fonseca, K. Jamieson, D. Moss, and P. Levis, “Collection tree protocol,” in Proceedings of the 7th ACM Conference on Embedded Networked Sensor Systems. ACM, 2009, pp. 1–14. [60] T. Clausen, J. Yi, and A. C. de Verdiere, “Loadng : Towards aodv version 2,” in Vehicular Technology Conference (VTC Fall). IEEE, 2012, pp. 1–5. 222BIBLIOGRAPHIE [61] I. Amadou and F. Valois, “Pizza forwarding : A beaconless routing protocol designed for realistic radio assumptions,” in Proceedings of the fourth International Conference on Sensor Technologies and Applications (SENSORCOMM). IEEE, 2010, pp. 495– 500. [62] S. Dawson-Haggerty, A. Tavakoli, and D. Culler, “Hydro : A hybrid routing protocol for low-power and lossy networks,” in First International Conference on Smart Grid Communications (SmartGridComm). IEEE, 2010, pp. 268–273. [63] P. Bose, P. Morin, I. Stojmenović, and J. Urrutia, “Routing with guaranteed delivery in ad hoc wireless networks,” Wireless networks, vol. 7, no. 6, pp. 609–616, 2001. [64] R. Fonseca, S. Ratnasamy, J. Zhao, C. T. Ee, D. Culler, S. Shenker, and I. Stoica, “Beacon vector routing : Scalable point-to-point routing in wireless sensornets,” in Proceedings of the 2nd conference on Symposium on Networked Systems Design & Implementation, vol. 2. USENIX Association, 2005, pp. 329–342. [65] E. H. Elhafsi, N. Mitton, and D. Simplot-Ryl, “Cost over progress based energy ef- ficient routing over virtual coordinates in wireless sensor networks,” in International Symposium on a World of Wireless, Mobile and Multimedia Networks, 2007. (WoWMoM). IEEE, 2007, pp. 1–6. [66] I. Stojmenovic, Handbook of sensor networks : algorithms and architectures. Wiley, 2005, vol. 49. [67] S. Biswas and R. Morris, “Exor : opportunistic multi-hop routing for wireless networks,” in ACM SIGCOMM Computer Communication Review, vol. 35, no. 4. ACM, 2005, pp. 133–144. [68] J. Carnley, B. Sun, and S. K. Makki, “Torp : Tinyos opportunistic routing protocol for wireless sensor networks,” in Consumer Communications and Networking Conference (CCNC). IEEE, 2011, pp. 111–115. [69] W. R. Heinzelman, A. Chandrakasan, and H. Balakrishnan, “Energy-efficient communication protocol for wireless microsensor networks,” in SProceedings of the 33rd Annual Hawaii International Conference on System Sciences. IEEE, 2000, pp. 10– pp. [70] W. B. Heinzelman, A. P. Chandrakasan, and H. Balakrishnan, “An applicationspecific protocol architecture for wireless microsensor networks,” IEEE Transactions on Wireless Communications, vol. 1, no. 4, pp. 660–670, 2002. [71] V. Mhatre and C. Rosenberg, “Homogeneous vs heterogeneous clustered sensor networks : a comparative study,” in International Conference on Communications (ICC), vol. 6. IEEE, 2004, pp. 3646–3651. [72] A. Manjeshwar and D. P. Agrawal, “Teen : Arouting protocol for enhanced efficiency in wireless sensor networks.” in IPDPS, vol. 1, 2001, p. 189. [73] ——, “APTEEN : A hybrid protocol for efficient routing and comprehensive information retrieval in wireless sensor networks.” in ipdps, vol. 2, 2002, p. 48. [74] S. Lindsey and C. S. Raghavendra, “PEGASIS : Power-efficient gathering in sensor information systems,” in Aerospace conference proceedings, vol. 3. IEEE, 2002, pp. 3–1125. [75] O. Younis and S. Fahmy, “HEED : a hybrid, energy-efficient, distributed clustering approach for ad hoc sensor networks,” IEEE Transactions on Mobile Computing (TMC), vol. 3, no. 4, pp. 366–379, 2004. 223BIBLIOGRAPHIE [76] H. Luo, F. Ye, J. Cheng, S. Lu, and L. Zhang, “Ttdd : two-tier data dissemination in large-scale wireless sensor networks,” Wireless Networks, vol. 11, no. 1-2, pp. 161–175, 2005. [77] T. Watteyne, I. Augé-Blum, M. Dohler, and D. Barthel, “Anybody : a selforganization protocol for body area networks,” in Proceedings of the ICST 2nd international conference on Body area networks. ICST (Institute for Computer Sciences, Social-Informatics and Telecommunications Engineering), 2007, p. 6. [78] J. Carle and D. Simplot-Ryl, “Energy-efficient area monitoring for sensor networks,” Computer, vol. 37, no. 2, pp. 40–46, 2004. [79] P. Jacquet, A. Laouiti, P. Minet, L. Viennot et al., “Performance analysis of olsr multipoint relay flooding in two ad hoc wireless network models,” in The second IFIP-TC6 NETWORKING Conference, 2002. [80] F. Xiangning and S. Yulin, “Improvement on leach protocol of wireless sensor network,” in International Conference on Sensor Technologies and Applications (SensorComm). IEEE, 2007, pp. 260–264. [81] Q. Lampin, D. Barthel, and F. Valois, “Efficient route redundancy in dag-based wireless sensor networks,” in Wireless Communications and Networking Conference (WCNC). IEEE, 2010, pp. 1–6. [82] C. E. Perkins and E. M. Royer, “Ad-hoc on-demand distance vector routing,” in Proceedings of the Second IEEE Workshop on Mobile Computing Systems and Applications (WMCSA). IEEE, 1999, pp. 90–100. [83] R. W. Group. (2012, june) Roll working group homepage. [Online]. Available : http://tools.ietf.org/wg/roll/ [84] J. Vasseur, M. Kim, K. Pister, N. Dejean, and D. Barthel, “Routing metrics used for path calculation in low power and lossy networks,” draft-ietf-roll-routing-metrics-19 (work in progress), 2011. [85] P. Levis, T. Clausen, J. Hui, O. Gnawali, and J. Ko, “The trickle algorithm,” Internet Engineering Task Force, RFC6206, 2011. [86] T. Clausen, P. Jacquet, C. Adjih, A. Laouiti, P. Minet, P. Muhlethaler, A. Qayyum, L. Viennot et al., “Optimized link state routing protocol (olsr),” RFC 3626, 2003. [87] J. Faruque and A. Helmy, “Gradient-based routing in sensor networks,” ACM SIGMOBILE Mobile Computing and Communications Review, vol. 7, no. 4, pp. 50–52, 2003. [88] F. Ye, G. Zhong, S. Lu, and L. Zhang, “Gradient broadcast : A robust data delivery protocol for large scale sensor networks,” Wireless Networks, vol. 11, no. 3, pp. 285– 298, 2005. [89] J. Newsome and D. Song, “GEM : Graph embedding for routing and data-centric storage in sensor networks without geographic information,” in Proceedings of the 1st international conference on Embedded networked sensor systems. ACM, 2003, pp. 76–88. [90] T. Watteyne, K. Pister, D. Barthel, M. Dohler, and I. Auge-Blum, “Implementation of gradient routing in wireless sensor networks,” in Global Telecommunications Conference, 2009. GLOBECOM 2009. IEEE. IEEE, 2009, pp. 1–6. [91] D. S. De Couto, D. Aguayo, J. Bicket, and R. Morris, “A high-throughput path metric for multi-hop wireless routing,” Wireless Networks, vol. 11, no. 4, pp. 419–434, 2005. 224BIBLIOGRAPHIE [92] T. Watteyne, I. Augé-Blum, M. Dohler, and D. Barthel, “Geographic forwarding in wireless sensor networks with loose position-awareness,” in Proceedings of the 18th International Symposium on Personal, Indoor and Mobile Radio Communications (PIMRC). IEEE, 2007, pp. 1–5. [93] K. R. Gabriel and R. R. Sokal, “A new statistical approach to geographic variation analysis,” Systematic Biology, vol. 18, no. 3, pp. 259–278, 1969. [94] A. Caruso, S. Chessa, S. De, and A. Urpi, “GPS free coordinate assignment and routing in wireless sensor networks,” in Proceedings of the 24th Annual Joint Conference of the IEEE Computer and Communications Societies (INFOCOM), vol. 1. IEEE, 2005, pp. 150–160. [95] J. Bruck, J. Gao, and A. Jiang, “Map : Medial axis based geometric routing in sensor networks,” Wireless Networks, vol. 13, no. 6, pp. 835–853, 2007. [96] B. Leong, B. Liskov, and R. Morris, “Greedy virtual coordinates for geographic routing,” in International Conference on Network Protocols (ICNP). IEEE, 2007, pp. 71–80. [97] A. Rao, S. Ratnasamy, C. Papadimitriou, S. Shenker, and I. Stoica, “Geographic routing without location information,” in Proceedings of the 9th annual international conference on Mobile computing and networking. ACM, 2003, pp. 96–108. [98] T. Watteyne, I. Augé-Blum, M. Dohler, S. Ubéda, and D. Barthel, “Centroid virtual coordinates–a novel near-shortest path routing paradigm,” Computer Networks, vol. 53, no. 10, pp. 1697–1711, 2009. [99] T. Watteyne, D. Simplot-Ryl, I. Augé-Blum, and M. Dohler, “On using virtual coordinates for routing in the context of wireless sensor networks,” in Personal, Indoor and Mobile Radio Communications, 2007. PIMRC 2007. IEEE 18th International Symposium on. IEEE, 2007, pp. 1–5. [100] S. Ganeriwal, R. Kumar, and M. B. Srivastava, “Timing-sync protocol for sensor networks,” in Proceedings of the 1st international conference on Embedded networked sensor systems. ACM, 2003, pp. 138–149. [101] S. Yoon, C. Veerarittiphan, and M. L. Sichitiu, “Tiny-sync : Tight time synchronization for wireless sensor networks,” ACM Transactions on Sensor Networks (TOSN), vol. 3, no. 2, p. 8, 2007. [102] M. L. Sichitiu and C. Veerarittiphan, “Simple, accurate time synchronization for wireless sensor networks,” in Wireless Communications and Networking, vol. 2. IEEE, 2003, pp. 1266–1273. [103] J. Elson, L. Girod, and D. Estrin, “Fine-grained network time synchronization using reference broadcasts,” SIGOPS Operating Systems Review, vol. 36, no. SI, pp. 147– 163, 2002. [104] M. Maróti, B. Kusy, G. Simon, and Á. Lédeczi, “The flooding time synchronization protocol,” in Proceedings of the 2nd international conference on Embedded networked sensor systems. ACM, 2004, pp. 39–49. [105] J. Van Greunen and J. Rabaey, “Lightweight time synchronization for sensor networks,” in Proceedings of the 2nd ACM international conference on Wireless sensor networks and applications. ACM, 2003, pp. 11–19. [106] K.-L. Noh and E. Serpedin, “Pairwise broadcast clock synchronization for wireless sensor networks,” in International Symposium on a World of Wireless, Mobile and Multimedia Networks (WoWMoM). IEEE, 2007, pp. 1–6. 225BIBLIOGRAPHIE [107] W. Su and I. F. Akyildiz, “Time-diffusion synchronization protocol for wireless sensor networks,” IEEE/ACM Transactions on Networking (TON), vol. 13, no. 2, pp. 384– 397, 2005. [108] I. Bell Telephone Laboratories. (1979, january) Unix programmer’s manual. [Online]. Available : http://cm.bell-labs.com/7thEdMan/v7vol1.pdf [109] ETSI, “HIgh PErformance Radio Local Area Network(HIPERLAN) Type 1 ; Functional Specification,” ETSI Publications, 1996. [110] Z. G. Abichar and J. M. Chang, “Conti : constant-time contention resolution for wlan access,” in Networking Technologies, Services, and Protocols ; Performance of Computer and Communication Networks ; Mobile and Wireless Communications Systems. Springer, 2005, pp. 358–369. [111] J. Galtier, Graphs and Algorithms in Communication Networks : Studies in Broadband, Optical, Wireless, and Ad Hoc Networks. Springer, 2009, ch. Tournament Methods for WLAN : Analysis and Efficiency. [112] T. Instruments. (2012, june) CC2420 chip specifications. [Online]. Available : http://focus.ti.com.cn/cn/lit/ds/symlink/cc2420.pdf [113] P. Gupta and P. R. Kumar, “The capacity of wireless networks,” Information Theory, IEEE Transactions on, vol. 46, no. 2, pp. 388–404, 2000. [114] K. Srinivasan and P. Levis, “RSSI is Under-Appreciated,” in Proceedings of the Third Workshop on Embedded Networked Sensors (EmNets), 2006. [115] Z. Zhao, B. Rouvio, R. Ojeda, J. Galtier, and P. Brown, “Enhanced qos 802.11 n prototype including a tournament contention function,” in Proceedings of the Wireless Communications and Networking Conference (WCNC). IEEE, 2012, pp. 1502–1507. [116] M. Güngör, Y. Bulut, and S. Çalık, “Distributions of order statistics,” Applied Mathematical Sciences, vol. 3, no. 16, pp. 795–802, 2009. [117] Q. Lampin, D. Barthel, I. Augé-Blum, and F. Valois, “Cascading tournament mac : Low power, high capacity medium sharing for wireless sensor networks,” in Wireless Communications and Networking Conference (WCNC). IEEE, 2012, pp. 1544–1549. [118] M. Dohler, D. Barthel, R. Maraninchi, L. Mounier, S. Aubert, C. Dugas, A. Buhrig, R. Paugnat, M. Renaudin, A. Duda et al., “The aresa project : Facilitating research, development and commercialization of wsns,” in Sensor, Mesh and Ad Hoc Communications and Networks, 2007. SECON’07. 4th Annual IEEE Communications Society Conference on. IEEE, 2007, pp. 590–599. 226 Caract´erisation automatique d’organisations cellulaires dans des mosa¨ıques d’images microscopiques de bois. Application `a l’identification des files cellulaires Guilhem Brunel To cite this version: Guilhem Brunel. Caract´erisation automatique d’organisations cellulaires dans des mosa¨ıques d’images microscopiques de bois. Application `a l’identification des files cellulaires. Bioinformatics. UNIVERSITE MONTPELLIER II SCIENCES ET TECHNIQUES DU LANGUEDOC, 2014. French. HAL Id: tel-01079815 https://tel.archives-ouvertes.fr/tel-01079815 Submitted on 3 Nov 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.Distributed under a Creative Commons Attribution - NonCommercial - NoDerivatives 4.0 International LicenseDélivré par UNIVERSITE MONTPELLIER 2 Préparée au sein de l’école doctorale SIBAGHE Et de l’unité de recherche mixte AMAP Spécialité : BIO INFORMATIQUE Présentée par GUILHEM BRUNEL Soutenue le 1 er octobre 2014 devant le jury composé de M. Francis COLIN, chargé de recherche, INRA, Nancy Rapporteur M. Marc JAEGER, directeur de recherche, CIRAD, Montpellier Examinateur M. Jean-Michel LEBAN, directeur de recherche, INRA, Nancy Examinateur M. Grégoire MALANDAIN, directeur de recherche, INRIA, Sophia-Antipolis Rapporteur M. Gérard SUBSOL, chargé de recherche, CNRS, Montpellier Examinateur M. Jean-Frédéric TERRAL, professeur, UM2, Montpellier (SIBAGHE) Examinateur M. Philippe BORIANNE, ingénieur de recherche, CIRAD, Montpellier Invité M. Yves CARAGLIO, ingénieur de recherche, UM2, Montpellier Invité CARACTERISATION AUTOMATIQUE D’ORGANISATIONS CELLULAIRES DANS DES MOSAÏQUES D'IMAGES MICROSCOPIQUES DE BOIS. Application à l'identification des files cellulaires. [Tapez une citation prise dans le document ou la synthèse d'un passage intéressant. Vous pouvez placer la zone de texte n'importe où dans le document. Utilisez l'onglet Outils de zone de texte pour modifier la mise en forme de la zone de texte de la citation.]12 UNIVERSITE MONTPELLIER 2 ECOLE DOCTORALE SIBAGHE Doctorat Bio-informatique GUILHEM BRUNEL CARACTERISATION AUTOMATIQUE D’ORGANISATIONS CELLULAIRES DANS DES MOSAÏQUES D'IMAGES MICROSCOPIQUES DE BOIS. Application à l'identification des files cellulaires. Thèse codirigée par Marc JAEGER et Gérard SUBSOL Soutenue publiquement le 1 er octobre 2014 Jury : Francis COLIN Chargé de recherche, INRA, Nancy Rapporteur Marc JAEGER Directeur de recherche, CIRAD, Montpellier Examinateur Jean-Michel LEBAN Directeur de recherche, INRA, Nancy Président Grégoire MALANDAIN Directeur de recherche, INRIA, Sophia-Antipolis Rapporteur Gérard SUBSOL Chargé de recherche, CNRS, Montpellier Examinateur Jean-Frédéric TERRAL Professeur, UM2, Montpellier (SIBAGHE) Examinateur Philippe BORIANNE Ingénieur de recherche, CIRAD, Montpellier Invité Yves CARAGLIO Ingénieur de recherche, UM2, Montpellier Invité34 RESUME Résumé Ce travail se concentre sur l'analyse d'images numériques biologiques. Il vise à définir et mettre en œuvre des processus de mesures automatiques de données biologiques à partir d’images numériques dans un cadre de traitement de masse, et aborde notamment : l’incidence des choix méthodologiques sur la stabilité des résultats, l’étude de la validation des mesures produites et les limites de la généricité des méthodes et modèles appliquées à la biologie végétale. La réflexion est menée dans le cadre de l’étude de certaines organisations cellulaires, et plus particulièrement de l’identification et l’analyse automatique de files cellulaires dans des mosaïques d'images microscopiques de bois. En effet, l'étude des tendances biologiques le long de ces structures est nécessaire pour comprendre la mise en place des différentes organisations et maturations de cellule. Elle ne peut être conduite qu'à partir d'une grande zone d'observation du plan ligneux. Pour cela,  nous avons mis en place un nouveau protocole de préparation (rondelles de bois poncées) et de numérisation des échantillons permettant d'acquérir entièrement la zone d'observation sans biais  nous avons développé une chaîne de traitement permettant l'extraction automatique des files cellulaires dans des mosaïques images numériques.  nous avons proposé des indices de fiabilité pour chaque mesure effectuée afin de mieux cibler les études statistiques à venir. Les méthodes développées dans la thèse permettent l’acquisition et le traitement rapide d’un volume important de données. Ces données devraient servir de base à de nombreuses investigations : des analyses architecturales des arbres avec le suivi de file cellulaire et/ou la détection de perturbations biologiques, des analyses de variabilité intra et inter arbres permettant de mieux comprendre la croissance endogène des arbres. Mots-clés : Traitement d'image, file cellulaire, image microscopique de bois, fusion de données, mosaïque, reconnaissance d'organisations.5 Abstract This study focuses on biological numeric image processes. It aims to define and implement new automated measurements at large scale analysis. Moreover, this thesis addresses : the incidence of the proposed methodology on the results reliability measurements accuracy definition and analysis proposed approaches reproducibility limits when applied to plant biology. This work is part of cells organization study, and aims to automatically identify and analyze the cell lines in microscopic mosaic wood slice pictures. Indeed, the study of biological tendencies among the cells lines is necessary to understand the cell migration and organization. Such a study can only be realized from a huge zone of observation of wood plane. To this end, this work proposes :  a new protocol of preparation (slices of sanded wood) and of digitizing of samples, in order to acquire the entire zone of observation without bias,  a novel processing chain that permit the automated cell lines extraction in numeric mosaic images,  the definition of reliability indexes for each measurement allowing further efficient statistical analysis. The methods developed during this thesis enable to acquire and treat rapidly an important volume of information. Those data define the basis of numerous investigations, such as tree architectural analysis cell lines following and/or detection of biological perturbations. And it finally helps the analysis of the variability intra- or inter- trees, in order to better understand the tree endogenous growth. Keywords: image processing, cell files, wood microscopic images, reliability indexes, pattern recognition, data fusion.67 REMERCIEMENTS Je tiens à remercier mes directeurs de thèse, Marc Jaeger et Gérard Subsol, pour la confiance qu'ils m'ont accordée en acceptant d'encadrer ce travail doctoral, pour la rigueur qu’ils m’ont imposée et les conseils avisés qui m’ont permis de progresser dans cette phase délicate de « l'apprenti-chercheur ». Je tiens tout particulièrement à remercier Philippe Borianne pour son encadrement, ses conseils avisés, sa disponibilité et son coaching efficace tout au long de ces trois années. Et Yves Caraglio pour son aide et ses conseils précieux en biologie. Une thèse ne pouvant se faire seul, je remercie les techniciens toujours disponibles et efficaces (Merlin Ramel, François Pailler et Michael Guéroult), ainsi que Nora Bakker et Marie-Laure De Guillen pour avoir géré les tracasseries administratives, les autres scientifiques de l’équipe (Christine Heinz, Frédéric Borne et Sébastien Griffon) et enfin les autres thésards, stagiaires ou post-doctorants que j’ai pu côtoyer pendant cette période (Pol, Jimmy, Dimitri, Annes, Diane, Vincent, entre autres…). Plus généralement, je remercie les membres de l'UMR AMAP au sein de laquelle j’ai réalisé ce travail pour leur agréable présence au quotidien. Un grand merci à tous les extérieurs qui m’ont aidé dans la réalisation de ce travail : Jean Frédéric Terral (UM2), Philippe Montésinos (LG2IP), Bruno Clair (LMGC), Christophe Godin (INRIA), Cyrille Rathgeber (LERFoB) et Vincent Bonhomme (University of Sheffield, UK). Je tiens à remercier également le Labex NUMEV et l'Ecole doctorale SIBAGHE qui ont cru en mon sujet de thèse et qui l'ont financé. Je n'oublie pas mes parents, ma sœur et ma famille pour leur contribution, leur soutien et leur patience. Je tiens à exprimer ma reconnaissance envers Emmanuelle Coque qui a eu la gentillesse de me supporter pendant ces 3 ans de thèse. Enfin, j'adresse mes plus sincères remerciements à tous mes proches et amis (Anthony, Cyril, Guilhem, Quentin, Nicolas, Paul, et bien d'autres), qui m'ont toujours soutenu et encouragé au cours de la thèse et de la réalisation de ce mémoire.8 PREFACE Le manuscrit de thèse écrit sous la forme de compilation d’articles s’adresse à un large public d’anatomistes du bois et de bio-informaticiens. Pour une lecture aisée et agréable pour les deux communautés, chaque chapitre comporte des informations importantes pour la compréhension des thèmes abordés et ce, sans rentrer dans les détails techniques tels que le paramétrage des protocoles, filtres, etc. Pour connaître les détails, une notification des publications avec le chapitre concerné est donnée afin de pouvoir s’y référer. Dans un souci de clarté, la structure de chaque chapitre, bâti sur le même plan, contient trois parties. D’abord, nous présentons un rappel du contexte avec ou non un complément bibliographique afin de préciser l’objet, le cadre ou la portée de la partie. Ensuite, nous donnons la description des contributions et des méthodes développées ou utilisées. Enfin, nous discutons des résultats marquants déjà publiés, et, lorsque nécessaire, nous ajoutons des compléments d’informations commentés.9 LISTE DES PRODUCTIONS SCIENTIFIQUES REALISEES DANS LE CADRE DE LA THESE Ce travail prend la forme d’une thèse sur articles et est basé sur quatre publications respectivement numérotées de I à IV (cf. liste ci-dessous), acceptés dans des revues à comité de lecture ou des conférences internationales à comité de lecture avec acte. Publications acceptées dans des revues ou conférences internationales à comité de lecture I. PMA'12. Brunel G, Borianne P, Subsol G, Jaeger M, Caraglio Y. 2012. Automatic characterization of the cell organization in light microscopic images of wood: Application to the identification of the cell file. In Guo, Y., Kang, M. Z., Dumont, Y. Eds, Plant growth modeling, simulation, visualization and applications. The Fourth International Symposium on Plant Growth Modeling, Simulation, Visualization and Applications, IEEE, Shanghai, China, 31 October-3 November, pp. 58–65. II. AOB'14. Brunel G, Borianne P, Subsol G, Jaeger M, Caraglio Y. 2014. Automatic Identification and Characterization of Radial File in Light Microscopic Images of Wood. In: Annals of Botany. doi: 10.1093/aob/mcu119. III. FSPM'13. Brunel G, Borianne P, Subsol G, Jaeger M, Caraglio, Y. 2013. Defining reliability coefficients in an automated method of identification and characterization of radial files in microscopic images of gymnosperms. In Nygren, P., Lintunen, A., Godin, C., Nikinmaa, E., Sievänen, R. Eds, Proceedings of the 7th International Conference on Functional Structural Plant Models, Saariselka, Finland, 14 June 2013, pp. 82–84. IV. SCIA'13. Brunel G, Borianne P, Subsol G, Jaeger M. 2013. Simple-Graphs Fusion in Image Mosaic: Application to Automated Cell Files Identification in Wood Slices. In Kämäräinen, J. K., Koskela, M. Eds, Image analysis: 18th Scandinavian Conference, SCIA 2013, Espoo, Finland, June 17- 20, 2013. Proceedings, 2013, pp. 34–43. Autres productions Publication Borianne P, Brunel G. 2012. Automated valuation of leaves area for large-scale analysis needing data coupling or petioles deletion. In Guo, Y., Kang, M. Z., Dumont, Y. Eds, Plant growth modeling, simulation, visualization and applications. The Fourth International Symposium on Plant Growth Modeling, Simulation, Visualization and Applications, IEEE, Shanghai, China, 31 October-3 November, pp. 50–57.10 Posters 1 ère Journée Scientifique du Labex NUMEV 2012 – Montpellier, France. → http://gbrunel.fr/posters/GBrunel_NUMEV_2012.pdf 7th International Conference on Functional-Structural Plant Models – Saariselka, Finland. → http://gbrunel.fr/posters/GBrunel_FSPM_2013.pdf 18th International Conference of Scandinavian Conferences on Image Analysis – Espoo, Finland. → http://gbrunel.fr/posters/GBrunel_SCIA_2013.pdf 2 nde Journée Scientifique du Labex LABEX NUMEV 2013 – Montpellier, France. → http://gbrunel.fr/posters/GBrunel_NUMEV_2013.pdf 3 ème Journée Scientifique du Labex NUMEV 2014 – Montpellier, France. → http://gbrunel.fr/posters/GBrunel_NUMEV_2014.pdf11 TABLE DES MATIERES 0 ETAT DE L'ART 15 1 MATERIEL 22 1.1 LE MATERIEL VEGETAL 22 1.1.1 LES CLADES ET ESPECES : ESSENCES DE TRAVAIL 22 1.1.2 LA CROISSANCE ET L'ANATOMIE DES VEGETAUX 23 1.2 PROTOCOLES DE PREPARATION ET D'ACQUISITION DES ECHANTILLONS 25 1.2.1 LES PREPARATIONS DU PLAN LIGNEUX 26 1.2.2 PROTOCOLE 1. LES COUPES HISTOLOGIQUES COLOREES 26 1.2.3 PROTOCOLE 2. PONÇAGE DE RONDELLES DE BOIS 27 1.2.4 LA NUMERISATION DES ECHANTILLONS 27 1.3 RESULTATS DES ACQUISITIONS & DISCUSSIONS 28 2 METHODES 32 2.1 SEGMENTATION DES IMAGES 32 2.1.1 GENERALITES SUR LES METHODES DE SEGMENTATION 32 2.1.2 CHAINE DE TRAITEMENT : DE L'IMAGE A L'ELEMENT STRUCTURANT 34 2.1.3 APPLICATION DE LA SEGMENTATION AUX CELLULES 37 2.1.4 BILAN DE MISE EN ŒUVRE DE LA SEGMENTATION 38 2.2 MODELISATION DES ARRANGEMENTS 40 2.2.1 DEFINITION DE LA MODELISATION DANS LE CADRE DES FILES CELLULAIRES 40 2.2.2 PROCESSUS D'IDENTIFICATION DES ARRANGEMENTS 41 2.2.3 MISE EN ŒUVRE DE L'IDENTIFICATION DES FILES CELLULAIRES 45 2.2.4 CONCLUSION SUR LA MISE EN ŒUVRE DE LA MODELISATION 47 2.3 FUSION DES DONNEES 48 2.3.1 MOSAÏQUES DES RESULTATS 48 2.3.2 PRESENTATION D'UNE METHODE GENERIQUE DE FUSION DE GRAPHE 49 2.3.3 AGREGATION DES RESULTATS DE FILES CELLULAIRES 49 2.3.4 CONCLUSION 52 2.4 MESURES ET FIABILITES 55 2.4.1 RESULTATS NUMERIQUES 55 2.4.1.1 Mesure des paramètres 55 2.4.1.1.1 La circularité 55 2.4.1.1.2 La surface 56 2.4.1.1.3 Le périmètre 56 2.4.1.2 Séparations des composants 59 2.4.2 FIABILITE 59 2.4.2.1 Niveau global 60 2.4.2.2 Niveau des composants 61 2.4.2.3 Niveau de l'élément 62 2.4.2.3.1 Le périmètre 6312 2.4.2.3.2 La surface 64 2.4.2.3.3 La circularité 65 2.4.3 CONCLUSION SUR LA MISE EN ŒUVRE DE LA FIABILITE DES MESURES 65 2.5 TYPAGE CELLULAIRE 66 2.5.1 DESCRIPTION DE LA METHODE 66 2.5.2 ETUDES PROSPECTIVES 67 2.5.3 CONCLUSION SUR LA MISE EN ŒUVRE DU TYPAGE CELLULAIRE 69 3 APPLICATION ET RESULTATS 71 3.1 IMPLEMENTATION 71 3.2 APPLICATION AUX FILES CELLULAIRES 72 3.2.1 JEU D'ESSAI 72 3.2.2 MISE EN ŒUVRE DE LA DETECTION AUTOMATIQUE DES FILES CELLULAIRES 74 3.2.3 LIMITES 77 3.2.4 PERFORMANCES 78 3.3 AUTRES APPLICATIONS 79 3.3.1 LA ROBUSTESSE DE LA METHODE DE SEGMENTATION 79 3.3.2 EVALUATION QUANTITATIVE DE LA SEGMENTATION 83 3.3.3 INTERET DES APPROCHES MULTI-ECHELLES POUR MAITRISER LA SUR-SEGMENTATION DU WATERSHED 85 3.3.4 GENERICITE DE LA METHODE POUR LA DETECTION DE CELLULES 87 3.4 UTILISATION DANS UN QUESTIONNEMENT BIOLOGIQUE 89 3.4.1 CONTEXTE D'ETUDE 89 3.4.2 METHODOLOGIE 90 3.4.3 AUTOMATISATION DES PROCESSUS 90 3.4.4 CONCLUSION SUR L'AUTOMATISATION DANS LE CADRE D'UN QUESTIONNEMENT BIOLOGIQUE 92 4 CONTRIBUTIONS ET PERSPECTIVES 94 5 REFERENCES BIBLIOGRAPHIQUES 100 6 ANNEXES 107 7 INDEX 117 8 PUBLICATIONS 118131415 0 ETAT DE L'ART Les plantes sont-elles des ordinateurs ? Les objets illustrés à la figure 1 ne sont pas la création d’un génie de l’informatique doué d’une intuition artistique. Il s’agit d’une tête de chou romanesco (Brassica oleracea), un proche parent comestible du brocoli et d'une inflorescence de lobélie géante (Lobelia telekii). Chacun des fleurons du chou romanesco est une reproduction en miniature du chou romanesco entier, ce qui lui confère sa beauté fascinante. Les mathématiciens appellent ces formes répétitives des fractales (Mandelbrot 1983). Par son schéma de croissance suivant une séquence d’instructions répétitives, le chou romanesco semble avoir été généré par un ordinateur. Comme dans la plupart des végétaux, l’apex (extrémité) des tiges en croissance élabore de façon répétée un motif de feuille, de bourgeon, de tige… Ces schémas de développement répétitif sont à la fois génétiquement déterminés et soumis à la sélection naturelle. Cette prédétermination peut donner toutes sortes de formes en fonction du type de croissance, de l'échelle considérée et de la maturation des objets considérés. Ces structures peuvent être représentatives de la croissance des plantes. Figure 1. Plante ou art informatique ? A droite, un chou romanesco (Brassica oleracea) ; à gauche, une lobélie géante (Lobelia telekii). Les végétaux ont des schémas de développement répétitif pouvant former des structures telles que des spirales, fractales, lignes, etc. Comment poussent les arbres ? Contrairement à la plupart des animaux, les végétaux ont une croissance qui ne se limite pas aux périodes embryonnaires et juvéniles, mais, au contraire, qui perdure toute la vie : c’est la croissance indéfinie (ou indéterminée). Ainsi, à tout moment de leur vie, les plantes possèdent des organes embryonnaires, des organes en croissance et des organes matures. Si les végétaux croissent de façon indéfinie, c’est qu’ils produisent constamment des tissus indifférenciés appelés méristèmes, qui se divisent quand les conditions le permettent pour produire de nouvelles cellules. Le développement de l’arbre résulte de la croissance primaire (en 16 rose sur la schéma ci-dessous) concernant l’allongement et la ramification des axes, et de la croissance secondaire (en bleu sur la schéma ci-dessous) portant sur leur épaississement au cours du temps (Wilson 1984). Illustration issue de Campbell Biologie 4ème édition Figure 2. Les croissances primaire et secondaire d'une tige ligneuse. On peut suivre la progression de la croissance secondaire en examinant les sections dans lesquelles apparaissent en succession ses parties les plus vieilles, i.e. les cernes visibles sur une coupe de tronc d'arbre. La réduction de notre empreinte environnementale et l'utilisation efficace des ressources naturelles sont des enjeux sociétaux et scientifiques du 21ème siècle. De plus en plus d’approches ont tendance à considérer la plante sous des aspects structuraux et fonctionnels pour les problématiques de séquestration du carbone et de bois-énergie (Guo et al. 2011). Mais ces approches, qu’il s’agisse de la croissance secondaire et de ses variations inter ou intra spécifiques ou des relations entre croissances secondaire et primaire, s’appuient très souvent sur des études fragmentaires du fait des coûts d’obtention des données (Rossi et al. 2009). La disposition des tissus, la forme et la taille des cellules, est appelée plan ligneux. Celui-ci est caractéristique de chaque essence. La description de la croissance primaire peut être plus ou 17 moins étendue grâce à des approches rétrospectives (Barthélémy and Caraglio 2007 ; Krause et al. 2010) alors que les études dendrochronologiques sont généralement limités à sur des parties du plan ligneux (carottage). Mais, plus le niveau d’observation est fin, plus les données existantes concernent une partie réduite du plan ligneux. La croissance secondaire résulte de l’activité cambiale qui est entre autre à l’origine du bois (xylème) et donc des différents éléments cellulaires qui le constituent (plan ligneux). Pour mettre en rapport les observations internes avec les interprétations réalisées dans le cadre de l’observation de la morphologie externe, il est nécessaire d’étudier simultanément différents éléments de l’architecture végétale (Barthélémy and Caraglio 2007) en particulier de distinguer les caractéristiques anatomiques des éléments constitutifs de la plante (i.e. axes principaux, secondaires et réitérations) au fil du temps et de constituer un échantillon suffisamment significatif pour utiliser les outils statistiques. La maturation et le typage biologique (Lachaud et al. 1999) des cellules peuvent être approchés par l’étude de leur forme, de leur taille, de leur contenu, et de leur distribution spatiale indépendamment de leur organisation spatiale. Ces notions permettent d’aborder les changements anatomiques qui caractérisent les phases de production et de différenciation du xylème (Thibeault-Martel et al. 2008), sans pour autant réellement expliquer les mécanismes de production ou de croissance du bois. En effet, la compréhension des mécanismes de la croissance de l’assise cambiale passe par l’étude de la rythmicité des motifs cellulaires, de leur perturbation ou de leur modification dans l’espace et dans le temps. Les fluctuations et les influences de l’environnement sur la différenciation des éléments du bois (issus des divisions des cellules cambiales) demandent de suivre la production au sein d’organisations cellulaires spécifiques. L’introduction d’une trajectoire spatio-évolutionnelle est nécessaire pour aborder ces problèmes. Pour simplifier, deux organisations sont considérées : d’une part le cerne de croissance qui représente la production cellulaire à un temps donné (Heinrich 2007), et d’autre part la file cellulaire qui représente l’activité d’une initiale au cours du temps (Rozenberg et al. 2004). Par exemple, (Nicolini et al. 2003) soulignent l’importance de l’organisation de la croissance secondaire en étudiant le long de cernes de croissance successifs les motifs cellulaires, leur rythmicité spatiale, leur variabilité pour caractériser les stratégies d’occupation de l’espace mises en place par la plante. Pour autant cette approche ne permet pas d’aborder les mécanismes de différenciation des cellules et de mise en place des motifs et structures cellulaires, c’est-à-dire les mécanismes dépendant du temps. De son côté, le suivi dynamique très précis de la production cambiale au niveau des initiales (Rossi et al. 2006 ; Rathgeber et al. 2011) est techniquement limité à une petite portion du plan ligneux. Ainsi, l’étude des files cellulaires, résultat a posteriori de la production cambiale et des fluctuations locales et globales, se présente comme 18 une piste prometteuse pour permettre d’appréhender la mise en place, la différenciation et la rythmicité temporelle des cellules (Gindl 2001). Les questions biologiques portant sur les interactions entre le développement et la croissance des arbres sous contrainte de l’environnement (Moëll and Donaldson 2001) demandent de pouvoir :  faire la part de la contribution aux fonctions de conduction et de stockage des différents types cellulaires dans le plan ligneux ;  appréhender la gamme de variabilité des caractéristiques des éléments cellulaires (éléments de vascularisation, fibres, cellules de rayons, parenchymes verticaux) ;  décomposer la variabilité en identifiant et différenciant celle due à l’ontogénèse de celle due à la réponse environnementale. Mais ces questions biologiques et les caractérisations associées se trouvent extrêmement contraintes du fait de la lourdeur des protocoles et de la difficulté de l’acquisition des informations de masse. En effet, la compréhension fine des mécanismes de croissance et leur modélisation passent par la recherche des invariants au sein d’échantillons d’observation importants restituant la variabilité intra et inter espèces. L’évolution technologique permet de limiter significativement les temps de préparation des sections transversales complètes d’axes et d’élargir ainsi les champs d’observation. Par exemple, l’utilisation d’une polisseuse (voir §1.2.3) automatique programmée peut nous éviter de recourir à des coupes histologiques trop fastidieuses à préparer. Combinée à une acquisition d’image pilotée par une platine à déplacements programmés, ce type de support nous donne rapidement accès à une information de qualité sur des zones élargies du plan ligneux. Mais cette technologie se heurte à la capacité de cumul des données et de son traitement. L'acquisition d'une rondelle de 10 cm de diamètre à un grossissement de x200, nécessite une mosaïque d'environ 1000 images. Il y a en moyenne 500 cellules par image. Evaluer manuellement les surfaces des cellules nécessite environ 40 mn par image à l’aide d’un éditeur d’image (ImageJ, Photoshop). L’identification d'organisations cellulaires impose d’étudier plusieurs cernes successifs dans plusieurs unités de croissance, ce qui représente une quantité d’images trop importante pour un traitement manuel. Habituellement, le comptage ne s’effectue donc que sur 3 files par coupe (Rossi et al. 2006), du fait des coûts prohibitifs en temps des traitements. L’automatisation de l’étude des files cellulaires permettrait d’aborder des liens plus étroits avec les aspects fonctionnels et l’écologie des espèces en pouvant considérer une meilleure appréciation de la gamme de variabilité des phénomènes : le bois représente un enregistrement en continu des modifications du développement de l’arbre (partie ontogénique, la moins connue) et de son environnement (le plus travaillé notamment en dendrochronologie et dendroclimatologie). Cependant, il est fondamental de s'assurer de la fiabilité des résultats 19 produits et des solutions proposées. Dans l’idéal, il serait souhaitable de pouvoir introduire des éléments quantitatifs caractérisant la qualité dans les traitements automatisés et leur production. L'automatisation de l'observation des structures cellulaires est l’un des nouveaux enjeux de la botanique structurale (Quelhas et al. 2011) qui fait appel à des compétences pluridisciplinaires. En (bio)-imagerie, la segmentation des cellules est un problème largement traité dans la littérature (Baggett et al. 2005 ; Fourcaud et al. 2008). Par exemple, (Park and Keller 2001) combinent quatre approches classiques d’analyse d’image : l’algorithme du watershed (Vincent and Soille 1991), les snakes (Mcinerney and Terzopoulos 1999), l’analyse multi-résolution (Jeacocke and Lovell 1994), et la programmation dynamique pour segmenter les cellules dans les images. Dans le contexte spécifique de l'imagerie du bois, la segmentation des cellules est généralement combinée au typage cellulaire, c'est-à-dire à la caractérisation biologique de la cellule. Par exemple, (Marcuzzo et al. 2009) et (Wang et al. 2008) typent les cellules à l’aide de classifieurs Support Vector Machine (Scholkopf and Smola 2001), méthode supervisée développée à partir des considérations théoriques de Vladimir Vapnick (Vapnik 1963) sur les statistiques de l’apprentissage. La difficulté majeure porte ici sur la constitution de jeux d’apprentissages suffisamment représentatifs pour rendre compte de la variabilité intrinsèque des individus. Pour l’étude des organisations cellulaires, certains auteurs introduisent des modèles géométriques à base topologique permettant de décrire le voisinage des cellules. Par exemple, (Jones and Bischof 1996) ou (Kennel et al. 2010) s’appuient sur un graphe d’adjacence orienté de cellules décrivant leur relation topologique locale pour extraire les files cellulaires d'images de Gymnospermes. Plus précisément les cellules sont extraites par application de l’algorithme de ligne de partage des eaux sur l’image convertie en niveau de gris ; le graphe d’adjacence des cellules est alors construit à partir du diagramme des bassins versants. Un typage des cellules obtenu par un arbre de décision construit à la volée à partir d’un jeu de données annotées (CART) (Breiman et al. 1984) permet alors d’extraire de ce graphe les alignements de trachéides. Cette méthode est sensible au jeu d'apprentissage utilisé lors de la construction de l’arbre de décision et son paramétrage. Du point de vue technique, nous n’avons pas trouvé de solution logicielle permettant une détection automatique des files cellulaires. Des outils commerciaux spécialisés, comme WinCell (Hitz et al. 2008), existent pour l'analyse des cellules du bois sans toutefois permettre de reconnaître et caractériser sans aide de l'opérateur les organisations cellulaires. Les possibilités d’enrichissement de fonction sont restreintes voire impossibles. Des plateformes commerciales telles que Visilog (Travis et al. 1996), proposent un environnent riche mais pas suffisamment spécialisé : il est possible de réaliser des macros fonctions (assemblage et paramétrage de fonctionnalités de base) mais sans possibilité d’ajouter des fonctionnalités de bases qui se révèlent incontournables dans notre cas pour modéliser les files cellulaires.20 Les plateformes open source de type ImageJ (Clair et al. 2007), Fiji (Schindelin et al. 2012), Orfeo (Inglada and Christophe 2009) restent donc une option intéressante car elles permettent d’enrichir les codes sources de fonctionnalités particulières et de définir des macros spécialisées tout en facilitant le partage et la diffusion des méthodes. Il est donc possible de développer de nouvelles fonctionnalités qui permettent l'automatisation des traitements. Nous privilégierons donc cette solution de développement technique. Notre objectif est donc de définir et construire une chaine de traitement comprenant la préparation ainsi que l'acquisition des échantillons et la définition d'une méthode générique d'identification automatique de composants et de leurs arrangements à partir d'images numériques microscopiques. Pour suivre les arrangements sur de larges zones d'observation, nous avons mis au point une méthode d'agrégation des résultats en mosaïque pavant tout l'espace d'étude. Cette méthode est appliquée et testée au cas particulier des files cellulaires pour l'étude des tendances biologiques le long des files, nécessaire à la compréhension de la mise place des différentes organisations et maturations cellulaires, c'est-à-dire à la compréhension de la croissance endogène des plantes. Pour réaliser ce travail, nous avons décidé d’adopter une approche hybride consistant à plaquer sur une approche relativement classique un regard ou un questionnement plus large. En particulier nous nous sommes intéressés à :  l’incidence de choix méthodologique sur la stabilité des résultats, i.e. comment les étapes du traitement vont interagir et compenser les faiblesses des opérations en amont et en aval ;  la validation des mesures produites, i.e. comment « garantir » l’exactitude des mesures réalisées : quels approches ou outils peuvent être développés pour les qualifier ;  la généricité des méthodes et modèles appliquées à la biologie végétale, i.e. à partir de quand une méthode doit être spécialisée pour produire des résultats utilisables. Le chapitre 1 est consacré au matériel biologique, aux méthodes de préparation et d’acquisition de ce matériel. Le lecteur intéressé pourra se reporter à une première partie (§ 1.1) traitant des spécificités des végétaux et des essences échantillonnées. La seconde partie (§ 1.2) porte sur un état de l’art des méthodes de préparation des coupes histologiques, ainsi que sur la mise en place d’un nouveau protocole consistant à préparer des rondelles de bois poncées pour la numérisation. Enfin la dernière partie est consacrée au protocole d'acquisition et au jeu de données “images” à traiter. La méthode d’analyse d’image est décrite dans le chapitre 2. Nous argumentons cette présentation sous forme de “blocs”, puis décrivons le détail de chaque bloc. Le paragraphe 2.1 explicite les procédés conduisant à la segmentation. Ensuite le (§ 2.2) détaille la méthode d'identification des files cellulaires grâce à un parcours sous double contrainte d’un graphe. Une 21 fois les files créées par image nous montrons comment créer une mosaïque de files (§ 2.3) tout en évitant les problèmes de stitching qui apparaissent quand on fusionne des images pour en faire une mosaïque. Les deux dernières parties portent respectivement sur le calcul des paramètres et sur leur fiabilité. Enfin, les résultats obtenus au cours de la thèse sont présentés et discutés dans le chapitre 3. Ils sont principalement produits par l’application de la méthode dans le cadre de la recherche automatique de files cellulaires. D’autres applications seront présentées dans le paragraphe (§ 3.3). Les 4 grandes parties de l’étude ont fait l’objet chacune d’une publication dans une revue internationale ou dans les actes d’une conférence internationale à comité de lecture. Les articles sont regroupés en annexe et respectivement numérotés I à IV. Pour faciliter la lecture de ce manuscrit, chaque partie reprendra les grandes lignes de l’article lui correspondant et précisera les aménagements réalisés ou les résultats produits depuis la parution de l’article. En complément, la figure 3 illustre les connexions entre les différents articles ainsi que les analyses additionnelles réalisées. Les flèches verticales épaisses représentent la trame principale, basée sur la mise au point des algorithmes de segmentation et d'identification. Les flèches horizontales concernent les applications de la méthode aux files cellulaires. Les résultats qui découlent de ce travail peuvent servir de base aussi bien à des investigations scientifiques d'analyse de la distribution de caractéristiques internes (cellules) en fonction de facteurs divers tels que les conditions de croissance ; une meilleure compréhension des mécanismes de croissance des arbres et une amélioration des connaissances physiologiques (zone de conductivité du tronc, pattern de croissance), qu’à des applications industrielles vérifiant la qualité du bois à partir de méthodes non destructives de coupe de rameaux secondaire ou de micro-carottage. Figure 3. Liens entre les différentes parties (articles et analyses complémentaires) constituant le corps de la thèse.22 1 MATERIEL 1.1 Le matériel végétal 1.1.1 Les clades et espèces : essences de travail Depuis que les végétaux ont commencé à coloniser la terre ferme, il y a environ 500 millions d’années (cf. figure 4), ils se sont fortement diversifiés, de sorte qu’on compte aujourd’hui plus de 260 000 espèces, dont certaines occupent les milieux les plus hostiles, tels les pics montagneux, les régions désertiques et polaires. Illustration issue de Campbell Biologie 4ème édition Figure 4. Arbre phylogénétique simplifié représentant quelques grands épisodes de l'évolution des végétaux. Cette phylogenèse représente une hypothèse sur les liens de parenté entre les groupes de végétaux. Les lignes pointillées indiquent que la phylogénie fait toujours l’objet de débats. Pendant la thèse nous nous intéressons aux plantes vasculaires à graines. Notre étude portera plus particulièrement sur les clades des plantes vasculaires à graines modernes, les Gymnospermes et les Angiospermes, car elles représentent 90% des plantes terrestres. Les Gymnospermes sont des plantes faisant partie d'un sous-embranchement paraphylétique des spermaphytes. Gymnospermes vient du grec “gymnos” qui veut dire “nue” et “sperma” qui veut dire graine. Ils ne possèdent pas d’ovaire. Mais les Gymnospermes constituent un groupe en voie de disparition. En effet, ce groupe n’a fait que régresser et compte aujourd’hui moins de 1 000 23 espèces. La plupart des Gymnospermes sont des conifères, et nous avons choisi des représentants présents dans le sud de la France en raison de leur accessibilité qui sont le pin (Pinus nigra, Pinus caribensis et Pinus brutia) et le sapin (Abies alba). La division des Angiospermes regroupe les plantes à fleurs, et donc les végétaux qui portent des fruits. Angiosperme vient du grec “angios” qui veut dire récipient. Ils regroupent la majeure partie des espèces végétales terrestres, avec environ 250 000 espèces. Les Angiospermes comprennent les dicotylédones et les monocotylédones. Ce groupe est particulièrement important pour les humains et leur survie. En foresterie et en agriculture, il constitue les sources essentielles de nourriture, de combustible, de produits du bois et de médicaments… En raison de cette dépendance, il est indispensable de préserver la diversité de ces plantes (Angiospermes et Gymnospermes compris). Nous avons choisi de travailler sur les essences de chêne vert (Quercus ilex) et d'acajou (Pycnanthus sp.) comme représentant des Angiospermes dicotylédones. Nous expliciterons dans la partie ci-dessous pourquoi les monocotylédones ne sont pas étudiées. 1.1.2 La croissance et l'anatomie des végétaux Les croissances primaire et secondaire se produisent simultanément dans les plantes présentant un double développement. La croissance primaire ajoute des feuilles, des nouveaux axes et allonge les tiges et les racines (la plante grandit), alors que la croissance secondaire augmente le diamètre des tiges et des racines (la plante grossit) là où (généralement) la croissance primaire est terminée. La figure 5 schématise la croissance d’un axe (tronc, branche, racine). Illustration issue de Campbell Biologie 4ème édition Figure 5. Vue d'ensemble des croissances primaire et secondaire.24 Chez les Angiospermes monocotylédones, peu d’espèces ont une croissance secondaire. Ce groupe comporte notamment les orchidées, les palmiers, les bananiers et les graminées. Or le but de la détection des files cellulaires est de suivre l’évolution de la croissance secondaire. C’est pour cette raison que nous n’avons pas choisi de faire les expériences sur les monocotylédones. La croissance secondaire s’effectue grâce aux méristèmes latéraux, plus précisément par le cambium (du latin cambiare, «changer») et par le phellogène (du grec phellos, «liège»). Le cambium produit vers l’intérieur des couches de tissus conducteurs supplémentaires appelées xylème secondaire (bois) et vers l’extérieur du phloème secondaire (le liber) (cf. figure 6). Ce sont les couches internes qui vont constituer les files, objet de notre étude (cf. figure 7). Illustration issue de Campbell Biologie 4ème édition Figure 6. Coupe transversale d'une tige de tilleul (Tillia sp.) de trois ans. Vers l'intérieur, les nouvelles cellules créées se différencient en grandes cellules lignifiées de xylème secondaire ou bois. Vers l'extérieur, les nouvelles cellules se différencient en petites cellules formant le liber, certaines cellules contribuent à former l'écorce. Le xylème secondaire mène à la formation de vaisseaux, de fibres, de parenchymes verticaux et horizontaux. 25 Illustration issue de Campbell Biologie 4ème édition Figure 7. Schéma de l'accumulation de cellules filles de xylème à partir d'une cellule mère cambiale formant une file cellulaire. Les deux types de cellules conductrices de sève brute, les trachéides et les éléments de vaisseaux, sont des cellules allongées tubulaires qui meurent à maturité. Les vaisseaux sont de plus grosse taille que les trachéides, et sont généralement absents chez les Gymnospermes qui possèdent, eux, des canaux résinifères. Dans notre étude nous considérons 3 types cellulaires : - Les fibres : faisceaux de cellules résistantes, disposées dans le sens axial (de la tige), assurant la rigidité et la résistance mécanique du bois. - Les vaisseaux : cellules creuses, disposées dans le sens axial (de la tige), servant à conduire la sève. - Les rayons : cellules à orientation transversale et rayonnante par rapport à l’axe longitudinal de l'axe (primaire ou secondaire), participant à la fonction de soutien. Les autres types cellulaires sont considérés comme des fibres car avec un seul plan de coupe, il est difficile de pouvoir identifier correctement tous les types cellulaires, notamment les tissus de soutien (collenchyme et sclérenchyme) et le tissu assimilateur (parenchyme). 1.2 Protocoles de préparation et d'acquisition des échantillons Le protocole complet d'acquisition des images comporte deux étapes : la première (préparation) vise à nettoyer et contraster au mieux les structures cellulaires, la seconde (numérisation) consiste à prendre un cliché de l'échantillon à l’aide d’un appareil photo numérique monté sur l'optique du microscope.26 1.2.1 Les préparations du plan ligneux Deux méthodes de préparation des échantillons pour obtenir des plans ligneux transversaux sont utilisées avant la numérisation qui consiste en une prise de photographie de l’échantillon sous microscope. Le premier protocole (standard) consiste à effectuer des coupes histologiques fines des échantillons avec un microtome. De par son temps de préparation long et minutieux, ce protocole est mal adapté à de grandes zones d’études. De plus il induit des biais lors du pavage des images pour reconstruire une mosaïque du plan. Le second protocole étudié consiste à poncer des rondelles de bois. Il est particulièrement bien adapté à l’étude de grandes zones et présente l’avantage d’être économe en temps. Pour l’instant le protocole n’introduit pas de coloration de l’échantillon, ce qui entraine une différence entre les parois et les lumens moins marquée que sur les coupes histologiques. Des tests sont actuellement menés pour introduire une phase de coloration pendant ce protocole. Clichés de l'auteur Figure 8. A gauche, la polisseuse semi-automatique avec un plateau magnétique d’un diamètre de 300 mm (Tegramin 30 - Struers). A droite, le microtome automatique à lame vibrante (vibratome VT1200SLeica). 1.2.2 Protocole 1. Les coupes histologiques colorées L’obtention d’une coupe transversale de 20-25 µm d’épaisseur produite à l’aide d’un vibratome ou microtome (cf. figure 8) nécessite entre 5 à 15 minutes. Les coupes sont ensuite nettoyées et colorées pour augmenter le contraste paroi-lumen, en utilisant des colorants se fixant spécifiquement sur les parois pectocellulosiques tel que le carmin aluné. Cette phase de nettoyage et de coloration dure environ 30 minutes. Par conséquent il est judicieux de prévoir une heure pour un protocole complet par coupe. Cette méthode permet de réaliser des mosaïques de coupes histologiques, aux imprécisions des tissus de juxtaposition près (problème de calage et destructions ou déformations partielles lors de la coupe), sur quelques cernes selon les dimensions de la carotte.27 N.B. : L’utilisation de colorant permet de faire ressortir des éléments désirés, par exemple le vert d'iode fixateur de la lignine fait ressortir les parois des cellules. Nombreux sont les colorants et les protocoles de coloration, mais nous ne nous étendrons pas sur les différentes préparations (Bancroft and Gamble 2002). 1.2.3 Protocole 2. Ponçage de rondelles de bois La préparation de rondelles de bois adaptées pour la numérisation est d’un grand intérêt pour l’étude de grandes zones du plan ligneux. Avec un tel procédé, il n’y a pas de problème de raccord. La taille d'acquisition est limitée par la taille du plateau de la polisseuse et par le déplacement maximal de la platine de 10x10 cm². Pour notre étude nous avons mis en place un protocole dont les grandes lignes sont résumées ci-dessous (pour plus d’information se référer à l'article II.AOB'14 §Method). Les rondelles de bois prélevées au centre des unités de croissance présentent une hauteur maximum de 2,5 cm afin de passer sous le microscope. Séchées pendant 3 mois à l'abri du soleil et de l’humidité elles sont ensuite poncées et polies à l’aide d’une polisseuse semi-automatique (cf. figure 8) afin d’obtenir deux faces parfaitement parallèles et une face parfaitement polie sans destruction des structures pour la numérisation. La fragilité de la surface, notamment sa forte sensibilité à la poussière, nécessite des précautions particulières lors de la manipulation et de la conservation des rondelles. Dès le polissage effectué, il est nécessaire de réaliser la numérisation de la rondelle, car, sans contrôle très précis de l’hygrométrie et de la température de la zone de stockage, la rondelle se dessèche et sa surface se déforme. Ces micros déformations compromettent la netteté des images produites lors de la phase de numérisation. 1.2.4 La numérisation des échantillons La numérisation consiste à produire une série ou succession d’images, communément appelée mosaïque d’images couvrant la zone d’observation. Les plans transversaux sont numérisés par une caméra LCD Olympus DP71 montée sur un Microscope Olympus BX51 et équipée d'une platine mobile permettant par déplacement progressif de la lame de créer une mosaïque d’images. Un grossissement x200 est utilisé pour avoir des surfaces de cellules significatives sur des zones d’observations suffisamment grandes pour permettre le recalage des images avoisinantes. La position de l’image dans la mosaïque est donnée par le déplacement en X et Y de la platine. Ici, la zone maximale d’observation est de 10x10 cm², soit une mosaïque d’environ 1500 images pour une zone d’environ 10x10 cm². Chaque image est codée dans un système RGB (24 bits) et a une définition de 1600x1200 pixels. Les images peuvent présenter un flou local ou périphérique lié à la déformation optique de la lentille du microscope ou à des variations sensibles d’épaisseur 28 de l’échantillon et ce malgré la précision du protocole de préparation. Ces variations peuvent provenir de l’utilisation du ruban double-face utilisé pour solidariser la rondelle à la platine lors du polissage ou d'un effet de contrepoids qui fait que la platine ne tourne pas parfaitement sur un plan orbital mais oscille légèrement. 1.3 Résultats des acquisitions & discussions Toutes les images sont produites en couleur (24 bits) avec une résolution de 1600x1200 pixels. Ci-dessous un exemple de quatre images acquises avec les différents protocoles de préparation et de numérisation. Cliché de l'UMR AMAP, 2010 Figure 9. Coupe histologique transversale de sapin (Abies alba) colorée au bleue de toluidine au grossissement x200. Le colorant se fixe sur les tissus cellulosiques, donnant la couleur aux parois des cellules. Les lumens sont vides est apparaissent donc en blanc (lumière du microscope).29 Cliché de l'UMR AMAP, 2010 Figure 10. Coupe histologique sans coloration de sapin (Abies alba) au grossissement x400. Le fond des lumens est dans des tons roses, car la balance des blancs n'a pas été effectuée avant l'acquisition de l'image. Les liserés noirs sur les contours de l'image sont dues à des effets optiques. Cliché de l'auteur, 2013 Figure 11. Mosaïque de 4 coupes histologiques transversales de pin (Pinus nigra) colorées à la safranine au grossissement x200. Les images ont étés raboutées à l'aide du logiciel libre Hugin. 30 Cliché de l'auteur, 2014 Figure 12. Acquisition d'une image d'une rondelle poncée non colorée de pin (Pinus nigra) au grossissement x200 avec un éclairage épiscopique. Les lumens présentent une texture car on voit à travers le reste de matériel biologique et des résidus du ponçage. En périphérie des images, il peut y avoir un flou important provenant de la non planéité d'une des faces de la rondelle. Le contraste entre le lumen et la paroi est moins marqué que sur les coupes histologiques. Les images présentent une très grande variabilité due à différents facteurs :  La préparation : selon ce que veut observer le biologiste et selon le protocole d’étude, la coloration des tissus biologiques sera différente.  Le grossissement : il dépend du champ d’étude que veut obtenir le biologiste. Pour observer un petit élément structurant, le champ pourra être faible pour pouvoir le comparer avec d’autres éléments, ou très fort pour le voir en détail.  L’essence : selon les différentes essences, l’organisation cellulaire est différente. On peut ainsi différencier les résineux qui ont une organisation cellulaire simple, des feuillus qui ont une organisation plus complexe. Il existe aussi une forte variabilité au sein d’un même grand ensemble d’essences. Par exemple chez l’acajou (Picnanthus sp.) (figure 13, à gauche), les vaisseaux apparaissent comme une déformation continue des cellules au sein d’une file, alors que pour le frêne (Fraxinus angustifolia) (figure 13, à droite), ces derniers semblent apparaitre anarchiquement entre les files.31 Cliché de l'UMR AMAP, 2010 Figure 13. A droite, coupe histologique d'acajou (Picnanthus sp.). L'apparition des éléments de vaisseaux semble se faire graduellement, on arrive à voir à quelle file ils appartiennent. A droite, coupe histologique de frêne (Fraxinus angustifolia). Les vaisseaux semblent apparaitre au milieu des files, on ne peut pas distinguer leur file d'appartenance. L’hétérogénéité des protocoles, des essences et des éléments structurants au sein même des essences doit pouvoir être traitée par la méthode de détection des files cellulaires. Le protocole de ponçage doit être repris et complété. Un échantillon de bois poncé a été produit par le constructeur de la polisseuse comme étalon. Actuellement, les images produites au laboratoire ne sont pas de qualité égale à celle du constructeur, rendant la détection des files moins fiable. La difficulté majeure du protocole est de fournir un échantillon où les deux faces sont parfaitement parallèles et planes. Les micro-déformations de la rondelle vont produire un flou pouvant être très important pendant la numérisation. La surface polie est très fragile, elle demande une précaution importante et ne doit pas être touchée sous peine d'être altérée. Les rondelles polies doivent être conservées dans un milieu contrôlé pour atténuer les déformations. Ainsi, nous avons opté pour une numérisation complète du plan directement après le polissage sans conservation des échantillons. Le protocole est théoriquement reproductible, mais les interventions opérateurs et les conditions de préparations (humidité, température…) ne permettent pas d'assurer une reproductibilité parfaite des acquisitions. Le chapitre suivant va décrire la méthode mise en œuvre pour traiter automatiquement les images et d'en extraire les cellules et leur organisation. La méthode fut pensée pour autoriser les traitements sur les images des Gymnospermes et des Angiospermes. L'étude principe a été menée sur des images issues de coupes histologiques, car le protocole de ponçage a fini d'être mis au point en début de 3ème année de thèse. Néanmoins des tests ont toujours étés menés en parallèle pour s'assurer que la méthode soit transposable aux images issues du protocole de ponçage.32 2 METHODES 2.1 Segmentation des images La segmentation a pour but l'extraction d’objets structurants, ici des objets biologiques élémentaires de l’image, comme par exemple les cellules. La segmentation d'image définit un bloc de traitement, c’est un processus de rassemblement de pixels entre eux suivant des critères prédéfinis, qui va former un partitionnement de l'image. Ces caractéristiques peuvent être naturelles comme la colorimétrie ou plus complexe comme des critères géométriques (Shapiro 2001 ; Barghout and Lawrence 2003). Le but de la segmentation est de simplifier et/ou modifier la représentation d'une image pour la rendre plus lisible et facile à analyser. Les pixels ayant des critères semblables sont ainsi regroupés en régions, qui constituent un pavage ou une partition de l'image. Il peut s'agir par exemple de séparer les objets du fond ou des objets entre eux. N.B. Les différentes étapes du processus sont illustrées, ici, à partir d'une portion d'une image de Sapin (Abies alba) colorée au bleu de toluidine et numérisée avec un grossissement de x200. 2.1.1 Généralités sur les méthodes de segmentation À ce jour, il existe de nombreuses méthodes de segmentation, que l'on peut regrouper en trois catégories (Davies 2005) : 1. La segmentation par régions (en anglais : region-based segmentation) correspond aux algorithmes d'accroissement de régions. Ce type de segmentation consiste à prendre un ensemble de petites régions uniformes dans l'image et à regrouper les régions adjacentes de même critère (couleur, intensité, critères géométriques…) jusqu'à ce qu'aucun regroupement ne soit plus possible. On y trouve par exemple les algorithmes de regiongrowing (Verma et al. 2011) ou split and merge (Damiand and Resch 2003). 2. La segmentation par contours (en anglais : edge-based segmentation) s'intéresse aux contours des objets dans l'image c’est-à-dire une transition détectable entre deux régions connexes. La transition est souvent un ajustement brutal de l'intensité au niveau des frontières des régions. On y trouve par exemple les algorithmes tels que le filtre de Canny (Canny 1986), le watershed ou encore les snakes qui produisent un modèle déformable local attiré ou repoussé par des points particulier de l'image (maximum ou minimum locaux, ligne de crête…). 3. La segmentation par classification : la plus connue (et la plus simple) est sans doute le seuillage qui consiste à binariser l'image en la réduisant à deux régions à partir d'un seuil donné : la première est constituée des points de l'image dont la valeur est inférieure au seuil donné, la seconde des points dont la valeur est supérieure ou égale au seuil donné. Ce mécanisme peut être compliqué à souhait en utilisant simultanément plusieurs seuils (multi-seuillage). Mais dans les faits, le seuillage n'est qu'un cas particulier de 33 classification : ces méthodes, largement développées pour la fouille de données, sont utilisé autant par les banques pour repérer les « bons » clients sans facteur de risque ("scoring"), que pour l'analyse du génome pour repérer de nouveaux gènes ou qu'en image pour classer les pixels. Elles présentent l'avantage de regrouper les points en régions homogènes (selon un ou plusieurs critères donnés et un estimateur statistique ou mathématique prédéfini). Par exemple, la méthode des k-moyennes (Duda 2001) (ou ses adaptations à la binarisation d'images connues sous les noms de seuillage d'Otsu, Huang...) (Otsu 1979) minimise la variance intra-classe et maximise la variance interclasse en utilisant le plus souvent un estimateur de distance (euclidienne, de Manhattan, de Mahalanobis…). La différence majeure : la classification est réalisée soit en fonction d'un nombre de classes donné a priori, soit le nombre optimal de classes évalué à partir d'analyses bayésiennes (C-means) (Dunn 1973) ou en fonction de limites préfixées d'étalement des classes (Paiva's classification) (Paiva and Tasdizen 2010). La segmentation de l'image est de facto obtenue par la classification des valeurs de ses points. N.B. : Il existe d’autres types de segmentation, comme par exemple des algorithmes mobilisant les 3 catégories décrites. La profusion des méthodes illustre la difficulté à segmenter des images : il n’y a pas de consensus sur une méthode, car une bonne segmentation dépend du contenu, de la dynamique, du système de description (i.e. le système de couleurs) de l'image et de la nature des zones à segmenter et de ce que l’on cherche à obtenir (Busin et al. 2009). Dans les cellules végétales, la lamelle moyenne est l’espace intercellulaire, c'est-à-dire une séparation physique entre deux cellules adjacentes. Elle contient essentiellement des composés pectiques, ce qui lui donne une intensité différente de coloration par rapport à la paroi cellulaire. La segmentation de ces cellules doit être continue, c'est-à-dire produire des contours fermés et correspondre à la lamelle moyenne. L'algorithme du watershed (Najman and Schmitt 1994) possède toute les caractéristiques pour produire une bonne segmentation des cellules végétales. Il existe 3 méthodes différentes pour faire un watershed : les algorithmes par inondation simulent une montée progressive du niveau d'eau à partir des minima du relief. Les algorithmes par ruissellement suivent, à partir de chaque pixel de l'image, la ligne de plus grande pente jusqu'à atteindre un minimum. Et finalement, les algorithmes topologiques proposent une déformation progressive du relief, préservant certaines caractéristiques topologiques, jusqu'à ce que le relief soit réduit à une structure fine correspondant à la ligne de partage des eaux. Ces trois méthodes donnent des résultats sensiblement différents, mais toujours avec les mêmes caractéristiques. La définition des images ne permet pas de dire expérimentalement quelle méthode est la meilleure car les différences sont de l'ordre du pixel et on ne peut pas déterminer quels sont le(s) pixel(s) de la lamelle moyenne. Aussi, nous avons choisi l'algorithme par inondation, car son initialisation par minima locaux permet d'envisager de les filtrer (voir plus bas).34 Dans les chaînes de traitement d’images, la segmentation est une étape primordiale car elle permet d’extraire les zones d'intérêt dont la qualité influence directement les résultats finaux tels que les mesures des objets. Elle est souvent précédée d’une phase de prétraitement visant à nettoyer l’image (par exemple en supprimant le bruit ou en normalisant la dynamique du signal induit par les capteurs optiques), à rehausser les contrastes en ré-étalant ou compressant la dynamique du signal (par exemple en utilisant des combinaisons de différents lissages de l’image pour accentuer des traits caractéristiques), etc. En raison de la multitude de sources de bruits, et surtout de la multitude d’effets de ces bruits sur une image, il n’existe pas de technique générique, adaptée à toutes les situations. La segmentation est généralement suivie d’une phase de calcul ou de modélisation des objets. Par exemple en imagerie médicale, les neurones sont segmentés avant d’être mesurés. 2.1.2 Chaîne de traitement : de l'image à l'élément structurant Dans Plant Modeling and Applications (papier I, PMA’12), nous décrivons la méthode de traitement d’image que nous avons mise en place, qui, à partir de l’image native produit une image binaire où les cellules sont détourées par un contour d’épaisseur d’un pixel. Les valeurs des paramètres sont automatiquement évaluées pour s’adapter au mieux à chaque image. La méthode est constituée de 4 étapes. La première étape consiste à atténuer le bruit impulsionnel (vraisemblablement induit par un effet thermique de la lampe du microscope) à l’aide d’une combinaison d’un filtrage médian (cf. figure 14) et d’un lissage gaussien. 35 Figure 14. En (a) droite image native. En (b) application d'un filtrage médian avec un rayon de 3, le bruit impulsionnel est supprimé sans influencer la morphologie des bassins. Respectivement (c) et (d) application d'un médian avec un rayon de 10 et de 20. Avec des rayons élevés, le médian va "lisser" la morphologie des bassins entrainant une modification brutale des structures. La seconde étape consiste à rehausser le contraste entre les différentes zones de l’image notamment entre parois et lumina des cellules. Nous utilisons la méthode de Différence de Gaussiennes (Einevoll and Plesser 2005) qui consiste à soustraire à l’image faiblement floutée une image fortement floutée. Avec un ratio de variance des Gaussiennes largement supérieur à 1.6 le filtre a un effet passe-bande après soustraction dont les intensités supérieures à 0 sont celles des lumens et les intensités négatives ou nulles celles des parois (cf. figure 15). Figure 15. Rehaussement du contraste de l’image par la méthode de Différence de Gaussiennes (DoG). A gauche l'image résultante d'un faible DoG (σ = 3 pixels). Au centre, l'image résultante d'un fort DoG (σ = (largeur image)/10). A droite, la soustraction des images A et B qui augmente le contraste lumen/paroi. La valeur de l'intensité des pixels de la paroi est nulle. La troisième étape consiste à convertir l’image en niveaux de gris par moyenne des canaux car à partir de cette étape la couleur n’est plus significative. Le choix du système couleurs est un aspect important du traitement de l'image. Plusieurs études ont montré que le "meilleur système" dépend du contenu de l'image. Pour notre étude, nous avons choisi de conserver le système RGB (Red Green Blue) qui correspond aux longueurs d'onde qui stimulent les trois cônes de l'œil humain. Pour ne pas favoriser un canal, le passage en niveaux de gris est réalisé par moyennage de canaux (cf. figure ci-dessous) et non par la luminance comme généralement utilisée dans la littérature.36 Figure 16. Passage en niveau de gris. A droite, l'image est convertie par moyenne de canaux. A gauche, l'image est convertie à l'aide d'une fonction de la luminance. Les différences ne sont pas perceptibles à l'œil et sont de l'ordre de 1% sur les intensités. L'impact sur la suite du traitement est de l'ordre du pixel, ne permettant pas de définir si une méthode est meilleure que l'autre. Nous avons choisi la moyenne de canaux pour rester cohérent avec le système de couleurs choisi. La quatrième étape consiste à segmenter et individualiser les cellules à l’aide de l’algorithme du watershed. Avant son application, l'image est inversée (négatif de l'image) pour que les germes du watershed correspondent aux bassins de l'image. Les lignes de crêtes obtenues définissent les régions dont les limites correspondent aux contours des cellules. L’algorithme du watershed est connu pour produire une sur-segmentation qui se traduit par des lignes qui coupent anormalement des cellules. Ce phénomène est dû au fait que chaque minimum local (germe) dans l'image produit un bassin versant. Nous avons implémenté une solution qui consiste à étudier le profil d’intensité de chaque ligne de partage des eaux et à supprimer celles qui présentent une dynamique d’intensité importante, caractéristique des passages paroi-lumen (illustration ci-dessous). Figure 17. Individualisation des cellules à l'aide de l'algorithme du watershed. Les lignes de bassin versant correspondent à la lamelle moyenne de cellule. Dans la segmentation obtenue (image de gauche), certaines lignes de partage des eaux ne correspondent manifestement pas à l’espace intercellulaire. Des lignes fragmentent l’intérieur de certaines cellules. C’est un cas de sur-segmentation due à la présence de plusieurs minima locaux au sein d’une même cellule. Il s’agit vraisemblablement de bruit atypique qui n’a 37 pu être supprimé par le lissage appliqué globalement à l’image. Suite à l'étude du profil d'intensité de chaque ligne permet de supprimer la sur-segmentation comme illustré sur l'image de droite. A noter que les lignes sont artificiellement grossies pour accroitre la visibilité. 2.1.3 Application de la segmentation aux cellules Comme nous venons de le voir, le nettoyage du watershed permet d’éliminer les arêtes surnuméraires. La méthode proposée consiste à analyser le profil d’intensité de chaque ligne du watershed pour vérifier son homogénéité. Cette méthode convient bien aux images de files cellulaires car elles présentent un contraste marqué entre le lumen et la paroi. Mais pour d’autres images, cette méthode ne sera pas suffisante. Il existe des variantes du watershed permettant à la construction des lignes d’atténuer voire de supprimer la sur-segmentation. On peut citer la méthode du waterfall (Beucher 2012) qui va fusionner les bassins adjacents reversants. La difficulté de cette méthode est de déterminer d'une part les critères de fusion idéale et d'autre part les conditions d'arrêt, car si les critères permettent une fusion à chaque étape, il n'y aura à la fin qu'un bassin résultant comprenant toute l'image. Les études que nous avons effectuées sur le waterfall et sur le filtrage des minima locaux (germes) du watershed n’ont pas permis d'obtenir de meilleurs résultats que la méthode actuelle. Cela est dû à la complexité des critères et au nombre de niveaux de fusion. Nous pensons cependant que l’utilisation de variantes de watershed telles que le waterfall ou le P-algorithme (Beucher and Marcotegui 2009) serait une alternative satisfaisante pour la suppression de la sur-segmentation. Une étude a été menée sur l’effet du flou optique souvent présent dans les images du fait des déformations périphériques dues à la lentille du microscope ou au défaut de planéité de l’échantillon. Des acquisitions d’une même zone de l’image avec des mises au point différentes ont été réalisées pour évaluer la stabilité algorithmique de notre méthode. Nous avons conduit une étude statistique sur la variabilité du détourage des cellules. Nous avons mis en évidence que les lignes intercellulaires obtenues par l’algorithme de partage des eaux sont globalement invariantes au floutage de l’image. En effet, elles correspondent aux courbes d’inversion des pentes d’intensité : le lissage de l’image produit par le flou optique réduit la dynamique d’intensités de l’image sans toutefois supprimer les changements de variation d’intensité et les lignes de crête restent globalement inchangées (cf. figure 18). 38 Figure 18. Résultat du watershed sur des coupes transversales de pin colorées à la safranine. A gauche, les lignes de crêtes sur une image nette. A droite, les lignes de crêtes sur une image floutée optiquement. Le contour des bassins est quasiment identique entre une image nette et une image floue. Sur l’image nette, on peut apercevoir un bassin surnuméraire dû à un décollement de la paroi lors de la coupe. Ce bassin sera enlevé lors de la phase de suppression de la sur-segmentation au profit de la cellule du haut. La figure 19 montre la comparaison d'une soixantaine d'aires de bassins normalisés obtenues à partir d'une image faiblement et fortement floutée. Le coefficient de détermination tend vers 1 montrant que les bassins sont bien corrélés. La pente de la droite est légèrement inférieure à 1 indiquant une faible sous-évaluation sur les images floues. Le procédé donne des résultats quasiment identiques quelle que soit la netteté de l'image. Figure 19. A gauche, étude de la limite des bassins par la superposition des lignes de crêtes produite par un watershed appliqué à une image progressivement floutée (avec un rayon de gaussienne allant de 1 à 15). Les lignes de crête sont affichées en différentes couleurs et en cas de stricte superposition ces couleurs sont additionnées ; les points communs à toutes les lignes de crêtes sont affichés en blanc ; les différences majeures sont dues à la sur-segmentation de l'algorithme du watershed. A droite, étude de la surface des bassins. En abscisse, l'aire des bassins obtenus à partir d'une image nette. En ordonnée, l'estimation de l'aire des bassins à partir d'une image artificiellement floutée. Le coefficient de détermination tend vers 1 montrant que les bassins sont bien corrélés. La pente de la droite de régression est faiblement inférieure à 1 indiquant probablement une faible sous-évaluation des zones de bassins dans les images floues. 2.1.4 Bilan de mise en œuvre de la segmentation La segmentation permet l'extraction des éléments structurants de l'image. La méthode proposée est composée de deux étapes : une phase de préparation de l'image et une phase de segmentation de l'image. y = 0,9958x + 32,978 R² = 0,9946 0 2500 5000 7500 10000 0 2000 4000 6000 8000 10000 cell areas - blurred image cell areas - sharp image Cell areas in pixel Cell areas39 La première étape consiste à nettoyer l'image de ces défauts (réduire le bruit impulsionnel, etc.) et à augmenter le contraste entre les zones à extraire. Il existe une multitude de filtres et de combinaisons de filtres pour réaliser cette étape. Nous proposons une chaîne de (pré)traitement avec des filtres standard peu coûteux en temps de calcul et donnant des résultats satisfaisants. Selon le contenu et la nature des images, chaque étape du (pré)traitement peut être revue et complétée par des opérateurs plus adaptés : ainsi dans certains cas le filtre médian peut avantageusement être remplacé par un filtre MeanShift ; ce dernier remplace l’intensité de chaque point de l’image par celle du - du maximum local le plus proche (et non pas par celle de la valeur médiane de l'ensemble des pixels de son voisinage). Pour notre étude nous n'avons pas retenu ce filtre car il est très coûteux en temps de calcul et n'apporte pas un gain suffisant par rapport au filtre médian. La seconde étape consiste à individualiser les éléments à l'aide d'un opérateur de segmentation. Dans le cas des files cellulaires en microscopie optique, la segmentation de ces cellules doit être continue, c'est-à-dire produire des contours fermés, elle doit correspondre à la lamelle moyenne (structure biologique séparant deux cellules) et doit être insensible au flou (présent en périphérie des images). Pour ces raisons, nous avons choisi d'utiliser l'algorithme du watershed implémenté par inondation, il réalise une segmentation des cellules satisfaisante : seules les cellules comportant des inclusions, des décollements de paroi ou étant partiellement obstruées posent problème. A cette étape chaque cellule est individualisée mais il n'y a aucune relation entre elles. La prochaine étape du traitement va permettre d’introduire les relations entre les cellules et d'identifier automatiquement les organisations.40 2.2 Modélisation des arrangements 2.2.1 Définition de la modélisation dans le cadre des files cellulaires Cette section décrit la conception d’un modèle visant à définir les objets d’étude et les règles permettant d’identifier et de caractériser l’organisation des éléments structuraux précédemment segmentés à un niveau d’observation donné. En général, la modélisation consiste le plus souvent à définir des mécanismes complexes, qu’ils soient géométriques, physiques ou mathématiques dont le but est de reproduire au mieux un comportement naturel expérimentalement observé et foncièrement admis (ou assimilé). Le modèle ainsi conçu permettra de générer des instances représentant potentiellement des expressions de la réalité (i.e. des réalisations « virtuelles » présentant l’ensemble des caractéristiques des échantillons observés). Ces instances seront utilisées par confrontation avec les observations annotées par les experts pour valider ou invalider la cohérence et l’exactitude du modèle. Une fois validé, le modèle permet de proposer des outils de mesure et de caractérisation des productions du modèle. L'étude porte sur la caractérisation de l’organisation cellulaire dans le plan ligneux. Ces organisations peuvent être de différents types : alignement pour les files cellulaires dans le plan ligneux, circulaire pour les anneaux de croissance, en fuseau dans le plan tangentiel vertical pour les rayons ligneux, en spirale pour les cellules de méristème racinaires… Cela revient donc à chercher des arrangements particuliers de cellules qui suivent un comportement connu a priori : la droite pour les files cellulaires, le cercle pour les anneaux de croissance, la spirale pour les méristèmes racinaires de riz… Ces différents arrangements peuvent être modélisés par des fonctions. La construction et l'identification demandent de définir des règles permettant de trouver dans le plan ligneux les arrangements locaux qui se rapprochent le plus des formes recherchées, et plus généralement des propriétés (géométriques ou biologiques) attendues sachant que les distributions spatiales des cellules présentent par essence même de nombreuses perturbations rendant cette tâche plus ou moins complexe. Ces perturbations ont plusieurs origines, elles peuvent venir de défauts de préparation (présence d'intrusions ou de déchirures), ou de réactions internes de la plante (e.g. compression des cellules au pourtour des vaisseaux) ou correspondre à un stress ponctuel ou permanent. Classiquement, un modèle (d'identification des organisations cellulaires) comprend deux niveaux : (i) un niveau d'exploitation exclusive des informations inhérentes à l'image (basée sur l'étude des arrangements des pixels ou des structures élémentaires homogènes de l'image) et (ii) un niveau d'apport d'une connaissance "a priori" caractérisant les organisations recherchées. Le modèle doit de plus reposer sur des mécanismes devant être réversibles et robustes.41 La robustesse signifie que les organisations doivent être reconnues même en présence de perturbations et la réversibilité signifie que les organisations doivent être reconnues quel que soit le point de départ. A titre d’exemples, pour la spirale, on doit pouvoir partir du centre et arriver à l'extrémité, ou l'inverse ; pour les alignements cela signifie pouvoir partir indifféremment d'un bord de l'image ou de l'autre et avoir le même résultat. L'exploitation de règles de voisinages dans un graphe d'adjacence va permettre de bâtir les arrangements. Ces règles sont modélisées par des fonctions géométriques génériques. La spécialisation de la méthode se fait par le biais de ces fonctions, dans lesquelles on va injecter des connaissances a priori. Ainsi, une fonction de droite sera utilisée pour les alignements, une fonction de cercle pour les anneaux de croissance, etc. L’analyse du graphe permet d’une part d’extraire, si elle existe, l’orientation des arrangements et d’autre part de parcourir de proche en proche les nœuds pour créer les arrangements. 2.2.2 Processus d'identification des arrangements Dans notre étude nous nous intéressons aux files cellulaires distribuées selon des alignements rectilignes. La première étape consiste à extraire les objets structurants à savoir les cellules et ensuite décrire leur topologie. Un graphe d’adjacence des bassins est alors introduit pour décrire les relations de voisinage entre les différents bassins. C’est un graphe simple classiquement défini par un ensemble de sommets et un ensemble d’arêtes. Plus précisément, chaque arête du graphe relie les centres géométriques de deux bassins voisins, i.e. incidents à une même ligne de crête (cf. figure ci-dessous). Figure 20. A gauche : les lignes de crête, représentées en vert, produites par le watershed correspondent globalement à la lamelle moyenne, l’espace entre les parois cellulaires ; les bassins sont une bonne approximation des cellules. A droite : le graphe d’adjacence des cellules est construit à partir des lignes de crête ; les chemins correspondant aux files cellulaires sont affichés en rouge. La seconde étape consiste à trouver l’orientation des lignes. Un histogramme des arêtes du graphe est construit à partir de l’angulation formée par chaque arête avec l’axe des abscisses. Le maximum du profil sera assimilé à l’orientation principale de l’image (Jones and Bischof 1996). Le profil peut aussi permettre de déterminer les orientations secondaires. Du fait de l’agencement 42 en quinconce des cellules, les arêtes de ce graphe sont orientées selon trois directions : la plus représentée correspondant aux alignements cellulaires. On parlera de direction principale. Le mode de plus grande amplitude indique l’orientation la plus représentée dans le graphe d’adjacence, c’est-à-dire l’orientation principale des files (figure 21). Clichés de l'UMR AMAP Figure 21. Histogrammes représentant la distribution de l'angle entre les arêtes du graphe d’adjacence et l’axe des abscisses. A gauche, le mode principal centré sur 0° correspond à des files horizontales. A droite, l’histogramme semble montrer deux modes, un centré sur -90° et l’autre sur 90° ; ces valeurs sont données sur l’intervalle [-90°, +90°], les deux modes ne forment par conséquent qu’un seul mode centré sur 90° (ou -90°), qui correspond à des files verticales. La troisième étape consiste à bâtir les arrangements, le processus comprend les règles de voisinage sous la forme d'une fonction à minimiser. Pour les files cellulaires, nous proposons une règle géométrique (fonction de droite) et une règle morphologique (fonction de similarité). La fonction de similarité permet de lever les ambiguïtés quand il y a plusieurs bassins candidats (cf. figure 23). Le processus d’identification des files cellulaires dans une image est progressif et repose sur les principes suivants : les files sont des alignements de cellules deux à deux similaires, i.e. proches 0 20 40 60 80 100 120 140 160 180 -90 -45 0 45 90 0 20 40 60 80 100 120 140 160 -90 -45 0 45 9043 en termes de taille, de forme et les alignements cellulaires sont indépendants de l’orientation de l’image. La construction des files est progressive et repose sur les 3 étapes suivantes : (i) la recherche d’alignements sous une double contrainte spatio-géométrique, (ii) la gestion des recouvrements et (iii) le chaînage des tronçons isolés. i. La recherche d’alignements sous double contrainte spatio-géométrique Elle permet d’extraire du graphe les plus longs chemins rectilignes de sommets « géométriquement similaires », i.e. une succession de sommets dont la surface des bassins sousjacents varie de manière graduelle. Ces alignements sont construits l’un après l’autre, par agrégations successives de sommets. Plus précisément, il s’agit de trouver quel sommet w du graphe doit être rajouté à l’extrémité v de la file en construction pour la compléter. On définit l'ensemble Nk(v) des voisins de rang k du sommet v, ce qui correspond à tous les sommets du graphe situés à une distance topologique k de v. Le sommet solution w, s’il existe, est choisi parmi les sommets wk de l'ensemble Nk(v) et est le sommet géométriquement le plus similaire et le moins éloigné de l'axe de la file. Dans les faits, on ne garde que 2 candidats, les deux plus proches sommets situés de part et d’autre de l’axe formé par le sommet v et le sommet précédent dans la file en construction (illustration figure 22). Schéma de l'auteur Figure 22. Schéma de la recherche des sommets candidats pour l'agrégation au sommet v courant. L'exploration se fait en premier lieu au voisinage k=1 (en bleu). Si un bassin est choisi, il devient le sommet courant et le processus réitère. Sinon la méthode cherche d'autres sommets sur un voisinage étendu k=2 (en orange). Le processus de voisinage étendu itère jusqu'à k=5. Si aucun sommet n'est choisi le processus s'arrête et la file (ou tronçon de) est créée. L’indice de similarité géométrique (formule au §2.3.2) permet de choisir le candidat géométrique le plus similaire du sommet v, i.e. dont le bassin sous-jacent est géométriquement le plus proche du bassin sous-jacent au sommet v. Cet indice est bien adapté aux résineux dont la forme et la 44 surface des trachéides varie peu. Pour les Angiospermes, l’indice est un très bon indicateur de ruptures brutales de taille tout en autorisant des variations continuelles et progressives de surface. Figure 23. Comment choisir les sommets à rajouter à la file ? A gauche : choix trivial avec une angulation et une similarité identique. Au centre : choix indéterminé, les bassins ayant une angulation et une similarité de surface très proches. A droite : le choix du chemin dépend des critères que l'on veut privilégier. Si l’indice de similarité géométrique des sommets est supérieur à 0.5, alors aucun candidat du rang considéré n'est retenu ; le processus est répété au rang suivant. La recherche des candidats est ainsi progressivement élargie jusqu'au 5ème rang. Au-delà de cette distance la construction de la file est arrêtée si aucun candidat n'est retenu. La largeur du voisinage étudié est une limite expérimentale, arbitrairement fixée par les anatomistes du bois impliqués sur le projet. Quand un sommet w est retenu, on vérifie si la réciprocité est vraie, i.e. si, à partir du sommet w, on retombe sur le sommet v courant en utilisant comme direction de référence l'orientation principale des files. S'il ne vérifie pas la condition de réciprocité, la construction de la file s'arrête. Dans le cas contraire, les sommets situés sur le plus court chemin reliant v à w sont rajoutés à la file par l’algorithme de Dijsktra (Cormen et al. 2001) ; dans le cas où w appartient au voisinage de rang 1, aucun sommet intermédiaire n'est rajouté à la file. Enfin le sommet w devient la nouvelle extrémité de la file et le processus de recherche est réitéré. De manière pratique l'angulation maximale entre le sommet v et les sommets candidats vk est une fonction décroissante qui dépend du rang du voisinage. Elle est de 45° au rang 1 et de 10° à l'ordre 5. Ces seuils ont été fixés expérimentalement d'après les observations faites par les anatomistes du bois. Dans la première étape de construction, l'axe de la file est donné par l’orientation principale des files de l'image. ii. La gestion des recouvrements Pendant le processus de construction, la présence de déformations peut donner lieu à des sommets appartenant à plusieurs arrangements. On choisit l'arrangement qui va minimiser la dérive de la file, grâce au résultat de l’algorithme de Dijsktra. Les autres arrangements se verront destitués des sommets en commun. 45 iii. Le chainage des tronçons isolés Du fait de la présence d’intrusions, de déformations ou des limites algorithmiques du watershed, le processus peut faire apparaitre des tronçons isolés (cf. figure 24). Un tronçon est un arrangement qui ne parcourt pas l’image de part en part. Le principe de la fusion permet de concaténer plusieurs tronçons, en utilisant les règles topologiques simples et ainsi d'établir des lignes entières. L’idée repose sur une double hypothèse : (i) les arrangements traversent l’image de part en part, (ii) et ils ne se croisent pas. Soient deux tronçons T2 et T2’ adjacents aux files A1 et A3 ; il est fortement probable que T1 et T2 soient deux parties d’un seul et même arrangement A2. Actuellement seuls les cas typologiquement simples sont traités pour ne pas induire de faux positifs dans la détection. Schémas et clichés de l'auteur Figure 24. Chainage des tronçons isolés. En haut, schéma théorique de la fusion des tronçons. Les tronçons T1 et T2 sont compris strictement entre les files A1 et A3, ils seront fusionnés et identifiés comme appartenant à la même file A2. En bas, application sur un cas réel. A gauche, résultat de la chaîne de traitement sans chainage des tronçons. A droite, résultat après application de la méthode de chainage. Les tronçons sont identifiés comme appartenant à une même file (même couleur). Cette méthode permet de créer des files ou des tronçons de file sûrs. A noter que des cellules isolées ou des artéfacts (dus à une erreur de segmentation ou à une résolution trop faible de l’image ne permettant pas alors une bonne segmentation) peuvent n’appartenir à aucune file. Nous ne cherchons pas à les raccorder à une file. Ces cas complexes sont laissés à l’appréciation de l’utilisateur. 2.2.3 Mise en œuvre de l'identification des files cellulaires Dans cette partie nous allons montrer l'application de la chaine complète de traitement (segmentation et modélisation) et d'identification des files cellulaires (cf. illustration ci-dessous).46 Figure 25. Identification automatique des files de cellulaire avec une coloration aléatoire des files. La représentation visuelle permet d'identifier facilement chaque file. On peut voir apparaitre sur la droite de l'image des petits bassins supplémentaires due à l'épaisseur de la coupe entrainant un écrasement de la paroi. L'algorithme du watershed va identifier ces structures comme des bassins qui ne seront pas supprimés lors de la phase de traitement. Une gestion des cellules peut permettre de fusionner les bassins entre eux. Nous envisageons la formalisation d’une nouvelle méthode d'identification des files cellulaires indépendante de l’ordre de parcours. La méthode teste toutes les combinaisons à partir d’un nœud fictif de référence (Nœud Père Np) relié à tous les nœuds du bord de l’image. A partir de Np, on calcule les scores pour tous les chemins permettant de revenir sur Np. Les scores sont déterminés par la différence d’angulation entre les arêtes, l’orientation des files et la similarité entre 2 bassins. Une fois tous les parcours réalisés, on dépile les files en fonction des scores, en supprimant au fur et à mesure les trajets sélectionnés ainsi que les trajets contenant au moins un nœud du trajet sélectionné. Cette méthode doit permettre d'identifier toutes les files ainsi que les tronçons en une seule étape. Nous avons vu que les files sont créées uniquement à partir de règles géométriques et topologiques sur les bassins. Il est important de s’assurer de la robustesse de la détection des bassins, c’est-à-dire que la méthode utilisée soit précise dans le détourage des cellules et insensible au flou de l’image. Sur l'évaluation de la précision de la mesure, la figure 26 présente la comparaison d'une soixantaine d'aire de bassins normalisés obtenu à partir de mesures manuelles et automatiques. Le coefficient de détermination tend vers 1, montrant que les aires des bassins sont bien corrélées. La pente de la droite de régression est faiblement supérieure à 1 ce qui indique une faible surévaluation de la méthode automatique. La méthode automatisée semble surévaluer les mesures (ou l'expert les sous-évalues). La méthode automatique est cependant répétable. 47 Figure 26. Etude de la surface de bassin chez l'acajou (Pycnanthus sp.). En abscisse, les surfaces normalisées obtenues à partir d'une segmentation manuelle. En ordonnée, celles obtenues à partir de la méthode automatique. Le coefficient de détermination est proche de 1, montrant un bon ajustement des surfaces. Ici, seule la précision géométrique est étudiée : le décalage géométrique n’est volontairement pas pris en compte car estimé négligeable au regard de la surface des cellules. Mais il va de soi que l’étude pourrait être élargie au décalage, notamment pour évaluer le recouvrement géométrique entre annotations expertes et segmentation algorithmique. 2.2.4 Conclusion sur la mise en œuvre de la modélisation La modélisation des données est indispensable pour l'étude d'éléments possédant une organisation, telle que les files cellulaires. Elle permet de suivre l'évolution des variations au sein de ces organisations. Pour cela nous avons mis en place une méthode de parcours sous contraintes de graphe. Le processus comprend d'une part des règles de voisinage sous la forme d'une fonction paramétrable à minimiser (droite, cercle, spirale…) et d'autre part l'apport expert d'une connaissance "a priori" caractérisant les organisations recherchées. La méthode permet de détecter automatiquement les files cellulaires et les tronçons probablement issus de la même file. Le processus est capable d'absorber des déformations biologiques telles que celles produites par les vaisseaux et de concaténer des portions de files grâce à des règles topologiques simples. La méthode traite les images à la volée, c'est-à-dire une à une. Pourtant pour réaliser les analyses statistiques, il faut pouvoir suivre les organisations sur une large zone d'étude. Le prochain chapitre décrit la méthode de suivi d'organisations sur le plan ligneux complet. y = 1,0477x + 0,0127 R² = 0,9991 0 3 6 9 0 2 4 6 8 automatique manuelle48 2.3 Fusion des données 2.3.1 Mosaïques des résultats L’assemblage d’images (ou stitching) est un procédé consistant à combiner plusieurs images qui se chevauchent partiellement en vue de produire des images de très haute résolution (THR) ou des panoramas. C’est un problème complexe, mais largement traité dans la littérature. La majorité des méthodes d'assemblage d’images décrites nécessite un chevauchement exact entre les images (Brown and Lowe 2007) et des radiométries identiques pour produire des résultats sans déformation périphérique (Vercauteren et al. 2006 ; Clienti and Beucher 2010). D’autres méthodes, telle que SIFT (Scale-Invariant Feature Transform) (Lowe 2004 ; Toews and Wells 2009) ou SURF (Speeded Up Robust Features) (Bay et al. 2006 ; Oyallon and Rabin 2013), permettent de fusionner les images sans connaître a priori leur chevauchement grâce à des points d'intérêt identifiés dans les deux images à apparier. Cette étape est souvent suivie d’un étalonnage des images. Cette opération vise à minimiser les différences entre les images par la correction des défauts optiques tels que les distorsions, l’exposition, le vignettage ou les aberrations chromatiques. Les images THR restent complexes à manipuler du fait de leur taille importante (environ 3 milliards de pixels pour des poids de 30 Go) et ce malgré l’augmentation de la puissance des ordinateurs. En acquisition satellitaire, les images produites en THR sont souvent découpées ou réduites pour être plus facilement traitées. Mais, même avec ce procédé, les images ne peuvent être traitées sur des ordinateurs tous publics. Pour s’affranchir de ces différentes difficultés techniques, notamment des corrections radiométriques et du redécoupage de l’image THR, nous avons opté pour une approche combinant le traitement à la volée des images composant la mosaïque et la fusion progressive des résultats produits (Wyant and Schmit 1998 ; Sjö dahl and Oreb 2002). Pour faciliter leur manipulation, les résultats sont décrits à l’aide d’un graphe. Un tel modèle est bien adapté aux organisations cellulaires souvent caractérisées par un ensemble de règles connues a priori qui servent à l’identification des structures à fusionner. La fusion des résultats de deux images adjacentes se ramène donc à la fusion de deux graphes. Dans notre cas, la limitation de la course de la platine du microscope réduit la zone d’observation à une surface de 10x10 cm², décrite par une mosaïque d’environ 1500 images couleurs de 1600x1200 pixels. Les images peuvent montrer un flou local ou périphérique en raison des déformations optiques ou dela non planéité locale des échantillons observés. Par contre, le microscope est équipé d’une platine, dont le positionnement est connu et enregistré à chaque prise de vue. 49 2.3.2 Présentation d'une méthode générique de fusion de graphe Nous présentons une méthode générique pour l'agrégation des résultats par la fusion unique de graphes disjoints. La méthode est basée sur une définition s’appliquant à des graphes simples (i.e. non orientés et sans boucle). L’agrégation des (graphes de) résultats est réalisée à partir d’un noyau de fusion, c’est-à-dire à partir d’un ensemble de couples de nœuds à fusionner. Cet ensemble est obtenu à partir d’une fonction bijective définie par un produit de règles de fusion. Il est rappelé qu'une fonction est bijective si et seulement si tout élément de son ensemble d'arrivée possède un et un seul antécédent, c'est-à-dire qu'elle est image d'exactement un élément de son ensemble de départ. Dans notre cas d’étude un graphe simple est utilisé pour décrire l'organisation cellulaire. Un graphe est dit simple s'il n'a pas de sommets en double, ni d’hyper-arcs (i.e. des arcs différents joignant les mêmes sommets), ni de boucles. C’est-à-dire qu’il n’existera au plus qu’une seule arête reliant le sommet X au sommet Y. La fusion des graphes se fera par la fusion des sommets communs aux deux graphes, c’est-à-dire des sommets portant les mêmes caractéristiques. Le noyau de fusion est décrit par un produit de termes normalisés décrivant uniquement les aspects géométriques – position et taille – des cellules potentiellement fusionnables (papier IV, SCIA'13). Un sommet n’est retenu que si sa position est dans un cercle dont le rayon correspond à celui du cercle inscrit du bassin. La similarité des surfaces est définie par l’indice de similarité géométrique noté GS. Défini entre deux sommets p et q, il est donné par la différence normalisée des surfaces Sp et Sq. | | ( ) Figure 27. Différence normalisée des surfaces Sp et Sq : ce critère est une adaptation de l’indice de dissimilarité de Bray-Curtis (Bray and Curtis 1957) proposé pour comparer deux échantillons de même taille. Plus l’indice tend vers 0 (figure ci-dessus), plus les surfaces des cellules comparées sont proches donc similaires ; en pratique, deux sommets sont considérés comme « identiques » dès que leur indice de similarité géométrique est inférieur à 0,1. N.B. : Les cellules du bord de l'image étant tronquées, elles sont supprimées du graphe avant le processus de fusion. 2.3.3 Agrégation des résultats de files cellulaires La méthode de fusion est indépendante du taux de recouvrement et du flou des images (cf. figure 28). En effet la méthode de détection du contour des cellules est globalement insensible au flou. Les critères utilisés dans le noyau de fusion (position et taille) sont de ce fait invariants au flou 50 local de l’image. De plus, la connaissance du déplacement du microscope est un avantage pour identifier les cellules potentielles à fusionner car on définit au préalable un référentiel commun à toutes les images qui correspond aux coordonnées [0,0] de la platine. Clichés et illustrations de l'auteur Figure 28. En haut, chevauchement fort de deux images de Pin (Pinus sp.). En dessous, superposition des graphes des deux images (en bleu et en rouge) et résultat de la fusion des graphes, les lignes sont en noir. Au centre, chevauchement faible de deux images de Pin, avec le résultat de la fusion. Les résultats des fusions sont sensiblement identiques : la différence provient des échanges locaux de cellules : lors de la fusion, la cellule retenue est celle la moins floutée. Le sommet issu de la fusion est représenté par le meilleur candidat des deux sommets, à savoir celui associé à la cellule la moins floue. L'estimateur de flou local, basé sur la relation entre les 51 dynamiques locales et les différences d'intensité (cf. §2.4.2.2 - Niveau des composants), est utilisé pour finaliser le choix. La fusion des différents graphes d’adjacence des images de la mosaïque permet de suivre les files radiales sur de grandes zones d’observation, ici deux cernes pleins (cf. figure 29). Cliché de l'auteur Figure 29. Files radiales traversant une mosaïque de 7 images. La méthode ne fusionne pas les images, mais les graphes obtenus pour chaque image. Ici, nous avons fait une recomposition automatique des deux files du graphe mais un pavage manuel des images à des fin de visualisation. La transition entre deux cernes successifs est caractérisée par une rupture morphologique des cellules. Cette rupture n'affecte pas le processus de fusion des graphes car le processus de fusion des graphes est basé uniquement sur une agrégation locale des cellules périphériques. L'approche est stable en ce qui concerne l'évolution des propriétés des cellules. Le taux de recouvrement des images doit être au moins d’une cellule. Dans les faits, il est expérimentalement fixé à 3 cellules. Il prend toute son importance dans le cas des Angiospermes qui présentent de fortes singularités du fait de la diversité (de forme et de taille) des différentes structures biologiques (cf. figure 30) La présence de vaisseaux entrainent des déformations cellulaires progressives ou brutales importantes. Les images contiennent des cellules de tailles et de formes très variables : il n’est pas rare de voir des vaisseaux 10 à 20 fois plus gros que des fibres. Dans ce cas-là, le recouvrement des images est délicat : il est actuellement laissé à la discrétion du biologiste lors de l'acquisition. Cliché de l'auteur Figure 30. Cas des Angiospermes (ici de l’acajou, Pycnanthus sp.) : la fusion des graphes fonctionne dans le cas de recouvrement total du vaisseau. La file centrale (en rouge) est bien assemblée, du fait du recouvrement total des vaisseaux. Mais l’écrasement des fibres produit par le développement des 52 vaisseaux provoque des discontinuités dans les files périphériques (verte et bleue), que la méthode de fusion ne peut corriger Il est nécessaire de mettre en place une approche de concaténation de files à partir de l’étude du voisinage des files, similaire à l’approche présentée dans (Article I.PMA'12) et sommairement décrite dans le chapitre §2.2.2 « Processus d'identification des arrangements ». 2.3.4 Conclusion L'étude des tendances biologiques le long des files est nécessaire pour comprendre la mise en place des différentes organisations et maturations de cellule. Elle ne peut être faite qu'à partir d'une grande zone d'observation du plan ligneux. Les images produites par le microscope sont données sous la forme d'une pile d’images « spatio-localisées » à traiter. Les résultats produits devront être compilés afin de pouvoir suivre les structures sur tout le plan. Pour cela nous avons mis au point une fonction générique d'agrégation de graphe simple, basée sur une involution. Elle permet la fusion à la volée des résultats produits par chaque image. La fonction de fusion doit être spécialisée en fonction de l'objet d'étude. Pour les files cellulaires, cette spécialisation passe par l'ajout de règles géométriques insensibles au flou de l'image. Cette contrainte est d'autant plus importante car les images prises au microscope présentent des déformations périphériques. La méthode permet de reconstituer une mosaïque entière du plan de coupe. Il pourrait être intéressant de remplacer dans la fonction de fusion les termes de position par un terme relatif à la dynamique de la cellule : ce point nécessite de caractériser le flou local de l’image pour normaliser la signature de chaque cellule. Un tel indicateur est présenté dans la définition des coefficients de pertinence (Article III, FSMP'13), et est utilisé pour valider les résultats quantitatifs produits. L’utilisation de coefficient pour corriger les mesures effectuées est sérieusement envisagée, notamment pour homogénéiser la signature d’intensités des cellules. Bien que non testée, la méthode de fusion des graphes devrait pouvoir s'étendre aux organisations en spirales et en cercles (figure ci-contre) du moment qu'au moins un des sommets d'extrémité des arcs est commun aux 2 images.53 Schéma de l'auteur Figure 31. Schéma de la fusion théorique d'un cercle ou d'une spirale. A gauche, les arcs bleu et vert appartiennent à la même image et ont un sommet en commun avec l'arc rouge de la seconde image. Les cellules chevauchantes sont décalées pour une meilleure visibilité. Le processus de fusion va tout d'abord fusionner l'arc bleu et l'arc rouge pour ne former qu'une seule structure. Il va ensuite fusionner l'extrémité de l'arc vert avec la structure pour ne former plus qu'un seul arc bleu représenté dans le schéma de droite. Par définition la méthode de fusion nécessite de tester pour chaque bassin l'ensemble des candidats, ce qui représente une complexité algorithmique en O(n²). Pour optimiser cette méthode, chaque sommet à traiter est trié selon une double clé sur les coordonnées [x ;y] et mis dans une liste. Les sommets candidats seront les points suivant de la liste où la clé [x ;y] est comprise dans le rayon du cercle inscrit du sommet à traiter. Trouver les sommets candidats revient à parcourir une portion infime de la liste. La complexité de l'algorithme est donc ramenée à O(n log(n)). Au grossissement utilisé, il y a en moyenne 1500 cellules par image, ce qui représente 2 millions de cellules à traiter pour créer la mosaïque entière. Avec un temps d'exécution estimés sur la base d'un accès mémoire de 10 nanosecondes par étape, il faudrait 11,11 heures de calcul pour une complexité en O(n²) et seulement 3,1 minutes en O(n log(n)). Cette optimisation permet donc de traiter l'ensemble des sommets en un temps raisonnable. La validation de la méthode nécessite une étude comparative des files identifiées par l’assemblage d’images et par fusion de graphes résultats. Cette étude à venir, devrait permettre de vérifier que les résultats produits sont rigoureusement identiques, et de comparer les temps de calculs associés et les ressources nécessaires. Suivre une file le long du plan ligneux n'est pas suffisant pour les études statistiques, il faut pouvoir donner des mesures fiables caractérisant aussi bien les files, les cellules que les composants des cellules. Le prochain chapitre sera dédié à l'étude des mesures et à l'importance de la nature de celles-ci.5455 2.4 Mesures et fiabilités 2.4.1 Résultats numériques Les utilisateurs attendent un ensemble de résultats numériques caractérisant la forme, la taille, la nature des éléments structurants (Igathinathane et al. 2006) tant pour caractériser que pour typer les structures cellulaires et leur arrangement. En anatomie du bois, ces éléments sont des structures biologiques plus ou moins complexes (parois, lumina, cellules, files…). Leurs caractéristiques sont définies par des paramètres automatiquement évalués. Notre méthode produit plusieurs types de résultats correspondant à différents niveaux d'observation.  Niveau global : les files cellulaires sont classées en fonction de leur longueur et de la continuité des hauteurs des cellules les composant ;  Niveau de l'élément : les cellules sont caractérisées par les dimensions géométriques (diamètre, forme ...) ;  Niveau des composants : les composants cellulaires (paroi, lumen) sont décrits par des paramètres géométriques (taille, épaisseur, diamètre...), photométriques, d’entropie ou d’homogénéité pour caractériser l’aspect des éléments. Dans la pratique, seuls les paramètres géométriques sont utilisés car ils décrivent suffisamment bien la cellule, l'apport d'autres informations étant rarement utilisé par les experts. 2.4.1.1 Mesure des paramètres Pour chaque mesure, il faut trouver et proposer la méthode la plus adaptée à l'objet d'étude. Un ensemble d'outils de calcul est déjà fourni par la plateforme ImageJ (Igathinathane et al. 2008), mais ces outils ne sont pas adaptés à la caractérisation de structures ou de notions complexes. 2.4.1.1.1 La circularité La circularité (Žunić and Hirota 2008) est un indice normalisé classiquement exprimé par le rapport pondéré entre la surface et le périmètre de la cellule. Elle est calculée à partir de l'expression suivante : [ ] [ ] La circularité est donc donnée par une valeur variant entre 0 et 1, 1 étant la circularité du cercle parfait. Bien que connu, ce paramètre reste délicat à utiliser : il est d’une part difficile de déterminer le seuil significatif au-delà duquel l’objet peut / doit être considéré comme plus rond qu’allongé, et d’autre part d’apprécier l’incidence réelle de la taille de l’objet sur la pertinence de l’indice. 56 2.4.1.1.2 La surface La surface (ou aire) est calculée à partir de la somme des pixels composant la cellule. La mesure est donnée en pixels au carré. Lorsque nécessaire, la calibration de l’image est réalisée à partir des grossissements optiques et numériques utilisés lors de la numérisation. 2.4.1.1.3 Le périmètre Le périmètre est défini comme une approximation de la longueur réelle du bord de la cellule. C’est un problème complexe largement étudié dans la littérature. Différentes définitions du périmètre de régions discrètes existent (Sabri and Macdonald 2012), l’idée étant de fournir des approximations les plus proches possible des mesures réelles attendues en fonction de la forme des régions traitées (Igathinathane et al. 2008). Dans les faits, le périmètre en tant que tel ne présente pas vraiment d’intérêt pour le typage ou la caractérisation des cellules. Il intervient uniquement dans l’évaluation de leur circularité, potentiellement discriminante pour différencier les rayons des cellules. De ce fait, c’est au final plus le comportement que la valeur « vraie » du périmètre qui nous intéresse. A l’instar de l’étude d'Igathinathane, nous avons recherché et comparé trois méthodes de calcul de périmètre simples plutôt adaptées à la description de formes à dominante convexe et ovale. La première méthode consiste à compter le nombre d'arêtes de contour. Elle se prête bien à l'évaluation des périmètres de régions filiformes, mais moins à des formes “patatoïdales” présentant des cotés obliques pour lesquelles la longueur des pentes du bord, décrites par des marches d’escalier, sont surévaluées. Dans ce cas-là, le périmètre doit être calculé en introduisant la prise en compte des diagonales. Par exemple, l'algorithme implémenté dans ImageJ comptabilise le nombre de coins non adjacents pour moduler le périmètre ; plus précisément le périmètre est défini par le nombre d'arêtes du bord, auquel est retranchée la valeur ( √ ) pour chacun des coins. 57 √ ( √ ) Le défaut majeur de cette méthode est que le résultat va dépendre de l'initialisation du point de départ. La figure ci-dessous illustre le problème ; pour le premier cas on va trouver 4 coins et pour le second 5 coins. On aura au plus un écart maximal de ( √ ) entre deux structures identiques selon la façon de parcourir le contour. La troisième méthode (que nous appellerons New) consiste à donner un poids à chaque pixel en fonction du nombre de pixels voisin et de la pente à décrire. En 4-connexité, les pixels d'angle (en 1 sur l'illustration ci-dessous) ont un score de racine carré de 2 représentant la pente. Les pixels d'extrémités (en 2 sur l'illustration ci-dessous) ont un score de deux fois racine carré de 1,25 représentant la double pente. Enfin les pixels de contours (en 3) ont un score de 1. Perim = ∑ Pixel d'angle) + ∑ Pixel d'extrémité) + ∑ Pixel de contour) Les figures ci-dessous montrent l'évolution des méthodes de calculs par rapport au périmètre attendu réel, avec une variation du rayon du disque de 0 à 50. Périmètre58 y = 1,0537x + 1,8258 R² = 0,9999 0 50 100 150 200 250 300 350 0,000 50,000 100,000 150,000 200,000 250,000 300,000 350,000 Périmètre calculé avec ImageJ Périmètre réel du disque Périmètre Réel / ImageJ Perim ImageJ Linéaire (Perim ImageJ) y = 1,0551x + 2,1171 R² = 0,9999 0,000 50,000 100,000 150,000 200,000 250,000 300,000 350,000 0,000 50,000 100,000 150,000 200,000 250,000 300,000 350,000 Périmètre calculé avec New Périmètre réel du disque New New Meth Linéaire (New Meth) y = 1,2732x + 4 R² = 1 0,000 50,000 100,000 150,000 200,000 250,000 300,000 350,000 400,000 450,000 Périmètre calculé avec Arête 0,000 50,000 100,000 150,000 200,000 250,000 300,000 350,000 Périmètre réel du disque Arête Arrête Linéaire (Arrête)59 Le coefficient de détermination R² représente la fraction de la variance de y "expliquée" par la corrélation de y avec x. Le R² est proche de 1, ce qui signifie que les périmètres sont fortement corrélés et que presque 100% de la variance de y est expliquée.  Courbe 1, on surévalue le périmètre et on a un décalage de 1,8 à l’origine.  Courbe 2, on surévalue le périmètre et on a un décalage de 2,1 à l’origine.  Courbe 3, on surévalue le périmètre et on a un décalage de 4 à l’origine. Avec les trois méthodes on surestime le périmètre du cercle. La méthode d’ImageJ a la pente la plus proche de 1 (y = 1,0537x) et le plus faible décalage à l’origine. Elle donne donc une meilleure approximation du périmètre que les autres méthodes. 2.4.1.2 Séparations des composants Chaque cellule est composée de deux structures anatomiques (lumen et paroi) qu’il convient de différencier avant toute mesure : cette différentiation conditionne la nature des mesures effectuées. Le lumen est plutôt caractérisé par sa surface, la paroi par son épaisseur (Guo et al. 2011). Par ailleurs, la définition de paramètres même apparemment simples n'est pas partagée : l’épaisseur de la paroi en est une très bonne illustration, aucun consensus n’ayant été trouvé auprès de la communauté des anatomistes du bois. Ce paramètre peut être exprimé de différentes manières : une distribution de valeurs, la valeur moyenne ou médiane de ladite distribution, des valeurs prises selon l’orientation de la file ou sa normale. Pour notre part, les lumens et les parois sont identifiés par répartition des points de la cellule en deux groupes selon leur intensité : d’une part les points clairs correspondant au lumen, et d’autre part les points sombres correspondant à la paroi. La limite sombre / clair est automatiquement évaluée par l'algorithme des 2-moyenne qui présente l’avantage d’être un bon compromis entre efficacité et généricité. En l’absence de formalisation précise, nous avons choisi d’exprimer l’épaisseur de la paroi non pas par une valeur mais par l’ensemble de toutes les épaisseurs mesurables à partir de son contour externe. Cette distribution est calculée à partir d’une carte de distances orientées. La façon dont elle sera utilisée est laissée à la convenance de l'utilisateur. 2.4.2 Fiabilité Dans le cadre d’un traitement de masse il est intéressant de pouvoir qualifier l’exactitude de ces évaluations. Un indice de certitude est donc attribué à chaque paramètre calculé, qu’il porte sur les cellules, ses constituants ou leurs alignements. Intuitivement, les mesures seront plus ou moins proches de la valeur réelle en fonction du cumul des erreurs liées à la qualité de l’image, la configuration biologique, les approximations algorithmiques,… Il est donc important de donner à chaque type de résultat une fiabilité estimée.60 2.4.2.1 Niveau global Une file f doit être suffisamment longue pour être significative : sa longueur Lf est donc comparée à un seuil L automatiquement obtenu à partir de la distribution des longueurs calculées. De même, une file est normalement composée de cellules proches, en termes de forme, de taille et d’aspect. Pour simplifier, ces trois critères sont ramenés à la seule hauteur des cellules prises en tout point dans la direction normale à la file : cette simplification est une modélisation de la conséquence du mécanisme de maturation des trachéides. Ce mécanisme n’est pas transposable aux feuillus : mais dans la pratique, ce seul critère semble être suffisant pour caractériser la variation continue observée au sein des files cellulaires des Angiospermes. En conséquence, les hauteurs Hj et Hj+1 des cellules consécutives de la file f sont comparées. Le coefficient de fiabilité Rf de la file f est donc définit par un produit de termes normalisés variant entre 0 à 1. ( ( ))∏( | | ) Plus le coefficient est proche de 1, plus la file f est dite fiable. Le coefficient de fiabilité globale permet de caractériser les files, tant en termes d’expression significative que de comportement géométrique : une « bonne » file est une file suffisamment longue et dont la taille des cellules varie de manière graduelle. Ce coefficient permet de filtrer directement les files (cf. figure 32). Les files ayant un bon coefficient sont représentées en vert, celles ayant un mauvais coefficient en rouge. Les teintes rouges-orangées traduisent des configurations présentant des coupures ou de fortes discontinuités. Cet estimateur est bien adapté pour les résineux présentant des arrangements cellulaires très organisés et continus. Pour les Angiospermes, ce coefficient permet de visualiser rapidement les éléments de vaisseaux et les files adjacentes. Ces files sont intéressantes pour l'analyse des contraintes géométriques endogènes des files causées par les vaisseaux. Cliché de l'auteur Figure 32. Le coefficient de fiabilité Rf , permet un affichage intuitif de la fiabilité des files cellulaires : les files qui sont moins fiables (discontinues ou hétérogènes) apparaissent dans des tons chauds (jaune à rouge). Cet indicateur est finalement une note très intégrative des files identifiées. Plus complets que les indices de performance évoqués en première partie des résultats, ils sont également plus délicats 61 à expliquer : au-delà de la fiabilité de l’identification même de la file, ils reflètent sa qualité. Par exemple, certains alignements, représentés en jaune sur l’image de droite, semblent « visuellement corrects » alors que leur coefficient est plutôt mauvais : ce sont des variations de surface trop fortes qui les pénalisent. Ainsi, la 3ème file orange en partant de la gauche parait bonne, mais on peut voir de petits bassins introduits dans la file, ils sont issus d'une sursegmentation due à un décollement de la paroi. Ils peuvent être filtrés pour des analyses statistiques grâce aux coefficients des cellules. 2.4.2.2 Niveau des composants Par analogie, un coefficient de fiabilité peut être défini pour toute mesure géométrique, à condition de savoir à quels critères elle est sensible. Ainsi, contrairement à la surface des cellules, la surface du lumen dépend du flou local de l’image. Cela provient des algorithmes utilisés pour segmenter l’image ou les portions de l’image. Les cellules sont obtenues par watershed : cette méthode n’est pas sensible au flou car même si l’étalement de l’histogramme est réduit, la ligne de fusion des bassins est préservée tant que les minima locaux ne disparaissent pas. Les minima locaux sont juste décalés sous l'effet du flou. Le lumen est, quant à lui obtenu par l'algorithme des k-moyennes : les points de la cellule sont répartis en deux classes, la classe des faibles intensités et la classe des fortes intensités. L’évaluation du seuil est laissée à l’algorithme. Cette classification est sensible à la dynamique des intensités car la réduction de la dynamique supprime les faibles différences, changeant ainsi la répartition des points dont l’intensité est proche du seuil de segmentation. Le coefficient de fiabilité pour la surface des lumens est donc directement lié au niveau de flou. Il est donc nécessaire de caractériser ce flou pour estimer l’erreur commise sur la mesure des surfaces (ou de l’épaisseur) des éléments constituant la cellule. Nous utilisons un indicateur de flou local introduit dans (Ladjal 2006) qui reflète les deux propriétés suivantes. L’image est d’autant moins floue que la variation d’intensité est rapide et, elle est d’autant plus floue que la variation totale d’intensité est grande. La rapidité de variation des intensités est caractérisée par le maximum local de la norme du gradient, et la variation totale dépend de l’amplitude locale de l’image. Le flou est défini par l'expression suivante où p(x) représente l'intensité de pixel d'un bassin et p'(x) la variance. | | | | La figure 33, illustre le comportement cohérent de l’estimateur de flou, calculé à partir de cellules prises sur des images numériquement perturbées par un flou gaussien incrémental.62 Cliché de l'auteur Figure 33. A gauche, relation entre un flou gaussien appliqué à une cellule et la valeur de l'estimateur de flou local. L'estimateur de flou (en bleu) décrit bien l'augmentation du flou. Les croix en rouge représentent la valeur de l'estimateur pour les cinq cellules de droite optiquement floutées. Elles sont positionnées sur le graphe en fonction de leur variance. À droite, les cinq cellules avec en couleur la correspondance de la valeur de l'estimateur. Les lumina les plus flous sont colorés dans les tons rouges, les plus nets dans les tons verts. Lorsque le coefficient est élevé, le flou est fort. Le coefficient de fiabilité de la surface du lumen (ILS) est défini ci-dessous. Le seuil de Ts est défini par l'étude de la variation des lumina en utilisant un flou gaussien simulé. Les surfaces supérieures au seuil ne sont donc pas significatives. { Cet indicateur de flou permet de filtrer les résultats pour ne garder que les cellules les plus nettes. Il est notamment utilisé dans la fonction d’appariement des cellules pour la création de mosaïques d'images (Article IV, SCIA'13). A terme, il pourrait également fournir un facteur correctif aux mesures évaluées sur les zones plus ou moins assujetties à un flou optique. 2.4.2.3 Niveau de l'élément A chaque mesure, une étude des facteurs d'influence est effectuée. Par exemple la précision des surfaces, du périmètre, de la circularité sont sensibles à la taille des objets mesurés. Nous cherchons à mieux appréhender les variations de précision d’une mesure en fonction d’une taille. La mesure retenue est la surface, a priori la moins sensible aux variations locales périphériques des objets. L’objet d’étude est le cercle discret d’Andrès (Andres 1994) car il se rapproche le plus de la forme d'une cellule théorique ; défini par une double inéquation diophantienne, il présente les mêmes propriétés de symétrie que le cercle euclidien. Le rayon du cercle est progressivement augmenté et les valeurs réelles sont comparées avec différentes méthodes de calcul. 3 4 5 6 7 8 9 10 0,3 0,6 1 1,4 1,7 2,1 2,5 2,7 valeur de l'estimateur du flou valeur du flou gaussien Flou Numérique Flou Optique63 2.4.2.3.1 Le périmètre La figure ci-dessous représente l’erreur relative de chaque méthode par rapport au périmètre réel. Les méthodes 2 et 3 convergent vers un même palier à -0.1. Ce qui représente une erreur de 10% par rapport à la valeur théorique. Le palier est atteint pour un rayon 20. La méthode des arêtes tend vers un palier, avec une erreur de 30%. La méthode d’ImageJ donne les meilleurs résultats et est optimisée. Seul problème, elle est sensible à la rotation. Elle peut varier d’une valeur de √ . Pour avoir une erreur maximale de 1%, Il faut que le nombre de pixels soit de 60. Ce qui représente un rayon de 10 pixels. √ ( √ ) NB : Les cellules ont en moyenne un rayon de 21,4 pixels. Les bassins avec des rayons faibles correspondent souvent à des cellules d'insertions ou des erreurs de segmentation. Un filtrage sur la taille des bassins peut donc permettre à l'utilisateur de supprimer ou d'identifier ces cas.64 2.4.2.3.2 La surface L'étude a aussi été menée pour l'aire avec les cercles discrets et la méthode de comptage des pixels disponible sous ImageJ. La figure ci-dessous montre l'évolution de la mesure par rapport à la valeur théorique. La taille des cellules varie de 500 à 4000 pixels. Par rapport à un cercle discret, on commet une erreur d’environ 10%. Le R² vaut 1, ce qui signifie les valeurs estimées sont fortement corrélées aux valeurs attendues. On sous-évalue l’aire d’environ 9.8%. La méthode produit une erreur constante de 10%, pour des cellules ayant une aire supérieure à 500 pixels, due un effet de discrétisation du cercle (marche d'escalier). Pour des cellules avec une aire inférieure à 500 pixels, l’erreur devient importante. y = 0,9812x - 33,315 R² = 1 0 1000 2000 3000 4000 5000 6000 7000 8000 0 2000 4000 6000 8000 10000 Aire théorique / IJ theo Linéaire (theo)65 2.4.2.3.3 La circularité Nous avons vu que l'aire et le périmètre sont sensibles à la taille des objets calculés. Pour que la circularité soit fiable, il faut que le périmètre de l'objet soit supérieur à 10 pixels. Les tests menés sur la circularité confirment ce seuil. Par exemple, un cercle discret avec un rayon de 1 sera représenté comme un carré ou une croix et sa circularité sera maximale du fait qu'on ne puisse pas représenter mieux un cercle si petit. Les valeurs en dessous du seuil ne seront plus significatives. 2.4.3 Conclusion sur la mise en œuvre de la fiabilité des mesures L’étude statistique des mesures des éléments biologiques est indispensable pour l’étude des tendances et des invariants, comme par exemple la mise en place des canaux résinifères ou des vaisseaux. Pour réaliser ces études statistiques, il faut produire des résultats en très grandes quantités. Produire en grande quantité nécessite de mettre en place des outils de contrôle qualité afin d'assurer les résultats produits pour les études statistiques. Pour garantir la pertinence des mesures, nous avons mis en place des indices de fiabilité basés sur les méthodes mises en œuvre et sur la réalité biologique (longueur et continuité des files). L'indice est un produit de différents termes normalisés. Ces termes sont la transcription d'un effet (facteur d'influence) sur la mesure : le flou va être pondérateur de la mesure des composants cellulaires, tandis que la taille des éléments va être un facteur de pondération de la mesure des cellules. Ces fonctions de fiabilité combinent indépendamment différentes dimensions (ou échelles d’observation) : de la file aux composants de la cellule. L'approche est générique, les termes peuvent être complétés/modifiés en fonction des méthodes de mesure utilisées ou des propriétés des organisations à détecter. Ces indices permettent ainsi de retenir les files les plus significatives ou de mettre en avant des perturbations ou configurations biologiques particulières. En utilisant trois dimensions (cellules, files, composants), l'étude a montré que les résultats peuvent être qualifiés avant d'être filtrés par l'utilisateur. La méthode donne la distribution des indices de fiabilité, mais ne fixe pas de seuil de caractérisation. Ce seuil est laissé à l'attention de l'utilisateur. La mise en place de ces indices a été confrontée à l'expérimentation et la validation sur des formes de référence (mesures réelles et théoriques). Les conclusions de ces expérimentations ont permis l'extrapolation des fonctions de fiabilité pour l'étude des files cellulaires. Ces indices caractérisant les facteurs d'influence peuvent être utilisés pour proposer un correctif sur les mesures. Une courbe d'étalonnage du flou pourrait être mise en place pour proposer un coefficient de correction à appliquer à la valeur évaluée. Les indices de fiabilité permettraient ainsi de définir la pertinence d'un résultat et aussi de proposer un correctif quand l'utilisateur le souhaite.66 2.5 Typage cellulaire Le typage cellulaire est l’ultime étape : il permet de classifier les différentes cellules (fibres, trachéides, vaisseaux, rayons,…). Il est réalisé à partir de la caractérisation géométrique et densitométrique des bassins versants associés aux sommets du graphe d’adjacence des cellules. Contrairement aux travaux de (Kennel et al. 2010) et (Jones and Bischof 1996), la classification supervisée a été écartée du fait de la difficulté avérée de constituer des jeux d’apprentissage suffisamment complets et représentatifs de la variabilité biologique existante. 2.5.1 Description de la méthode Un arbre de décision permettant de discriminer chaque structure anatomique a été établi avec les anatomistes du bois à partir des deux hypothèses suivantes :  Le périmètre des cellules, noté P, permettant de différencier les « grosses » structures des cellules globalement « petites ».  La circularité des cellules, noté C, permettant de différencier les rayons globalement allongés des vaisseaux globalement circulaire. Les seuils (S) utilisés dans l’arbre de décision (ci-dessus) sont automatiquement réévalués pour chaque image par une classification des valeurs numériques produites réalisées par une classification par 2-moyenne. Un résultat du typage est présenté ci-dessous sur une image de Gymnosperme.67 Cliché de l'auteur Figure 34. Typage automatique des cellules sur une coupe transversale d'acajou (Pycnanthus sp.). Les vaisseaux sont colorés en vert, les fibres en bleu et les rayons en gris. Hormis le typage des cellules hybrides (cf. §2.5.2), le typage avec des règles simple est bon. Nous appelons "cellule hybride", des cellules en voie de spécialisation ou de transition, ne répondant plus tout à fait aux critères classiques de fibres et pas tout à fait aux critères des vaisseaux. 2.5.2 Etudes prospectives Actuellement il n'y a pas de consensus des botanistes sur les critères réellement discriminants pour typer les cellules hybrides. Les cellules en violet sont identifiées par tous comme étant des vaisseaux. Après discussion la cellule jaune serait aussi un élément de vaisseau car la texture de la paroi est plus diffuse (cf. figure 35, flèches en jaune). La cellule bleue devrait être pour les mêmes raisons assimilée à un vaisseau bien que les experts la classent comme une fibre à cause de sa taille.68 Cliché de l'auteur Figure 35. Reconnaissance des vaisseaux chez une Angiosperme (acajou - Pycnanthus sp.). Les cellules colorées en rose et en jaune sont des éléments de vaisseaux du fait de leur taille, alors que la cellule colorée en bleue serait une fibre. La transition fibre – vaisseaux est difficile à apprécier : les cellules prennent des critères géométriques qui ne sont ni totalement ceux des fibres, ni totalement ceux des vaisseaux. La caractérisation porte sur d’autres critères, ici la granularité de la paroi. Une étude prospective a été menée pour caractériser les types cellulaires à partir de leur valence (cf. figure 36). La valence d'une cellule est définie par le nombre de cellules voisines qu'elle possède. Théoriquement les fibres possèdent entre 4 et 6 voisins selon la position sur le cerne. Tandis qu'un élément de vaisseau ou un rayon en possèdera beaucoup plus. Cliché de l'auteur Figure 36. A gauche, colorisation en fonction de la valence sur une coupe de sapin (Abies alba). Les cellules sont colorées graduellement en fonction du nombre de voisin. En bleu les cellules avec une faible valence, en vert les cellules avec une valence proche de la valeur théorique et en marron les cellules avec une forte valence.69 Les tendances théoriques sont bien suivies. Des éléments perturbateurs (artéfacts de segmentation, intrusions, ponctuations, etc.) peuvent faire augmenter le nombre de voisins d'une cellule, mais les rayons et vaisseaux (facilement reconnaissables) sont bien discriminés. La valence peut être utilisée pour identifier et supprimer les ponctuations, dont leur valence est toujours de 2. Pour les typages complexes, la valence n'apporte pas d'information supplémentaire permettant d'effectuer un choix. Seule l'étude de la texture des parois semble pouvoir à terme de lever l'ambiguïté. 2.5.3 Conclusion sur la mise en œuvre du typage cellulaire Le typage cellulaire consiste à classifier les cellules en trois catégories : les fibres, les rayons et les vaisseaux (cf. §1.2.2). Il est souvent réalisé à partir d'au moins deux plans de coupes pour trouver les indices permettant la classification. Nous proposons une méthode simple, basée sur un arbre de décision expert, pour typer les cellules à partir d'un seul plan de coupe. Les discussions avec les experts et les études prospectives montrent que le typage est un problème très complexe sur un seul plan de coupe. Des pistes de travail ont malgré tout été identifiées, comme par exemple l'ajout d'indices texturaux de paroi pour différencier les éléments. 7071 3 APPLICATION ET RESULTATS 3.1 Implémentation La méthode a été implémentée en Java et intégrée sous forme de plugin à la plateforme ImageJ. ImageJ (Schneider et al. 2012) est un logiciel multi-plateforme et open source de traitement et d'analyse d'images développé par le National Institute of Health ; il peut être utilisé sur n'importe quel ordinateur capable d'exécuter les plates-formes Java (Mac OS X, Linux x86 ou Microsoft Windows), ce qui en fait un produit idéal à utiliser dans la plupart des laboratoires. Des bibliothèques libres, tel que Java Universal Network/Graph Framework (http://jung.sourceforge.net/doc/index.html) pour la gestion des graphes sont utilisées pour avoir une structure de données efficace. A titre indicatif, le plugin permet de traiter des images de 1600x1200 pixels en moins de 20 secondes sur un ordinateur doté d’un processeur Intel Q720 cadencé à 1.6 GHz. Cliché de l'auteur Figure 37. Interface d'mageJ avec la fenêtre du plugin ouverte. Le plugin permet de choisir si l'on veut traiter une mosaïque ou juste une image et de sauvegarder les étapes intermédiaires du traitement.72 3.2 Application aux files cellulaires Les résultats obtenus au cours de la thèse sont présentés et discutés dans ce chapitre. Dans un premier temps, nous présentons le jeu d'essai sur lequel la méthode a été testée pendant son développement. Ensuite, nous montrons un exemple de détection automatique de file cellulaire. Les limites de la méthode sont discutées et illustrées en troisième partie. Et pour finir, des études (réduites) de performance de l'ensemble de la méthode et des perspectives à court terme sont présentées. 3.2.1 Jeu d'essai L’étude expérimentale consiste à comparer les résultats produits par notre méthode à ceux issus d’un jeu de données expert constitué de 12 images (cf. figure 38) dont les cellules ont été manuellement détourées par des anatomistes du bois. Les différentes expérimentations permettent d’évaluer les limites de notre méthode notamment à travers des contextes biologiques, des protocoles de préparations ou des conditions d’acquisition divers et variés. Les expérimentations sont essentiellement motivées par des questions simples : notre méthode estelle adaptée aux Angiospermes et aux Gymnospermes, sensible aux protocoles de préparation, à la présence de flou optique, au niveau de luminosité, etc. ?7374 Clichés de l'UMR AMAP Figure 38. Panel d'images du jeu d'essai. Les images proviennent de 5 espèces différentes d'arbres (cf. §1.2.1) issues de différents protocoles de préparations. Pour plus d'information sur les essences et protocoles d'acquisition par image, se référer à l'annexe 1. 3.2.2 Mise en œuvre de la détection automatique des files cellulaires Nous avons choisi d'illustrer et détailler le résultat de toute la chaine de traitement sur une image. Les résultats des images du jeu d'essai (ci-dessous) sont présentés en annexe. Les résultats sont illustrés avec l'image de Sapin (Abies alba) colorée au bleu de toluidine et numérisée avec un grossissement de x200. La figure 39 présente le résultat de la détection automatique des files (cf. §2.2). Les files sont colorées aléatoirement. La figure 40 montre la colorisation des files en fonction de leur score (cf. §2.4). Comme la fusion ne donne pas de représentation visuelle, pour illustrer son principe et le résultat, nous avons découpé l'image en 4 sous-parties de taille et de chevauchement inégaux (cf. figure 41 et 42). 75 Cliché de l'auteur Figure 39. Résultat de la modélisation des files cellulaires. Chaque file est aléatoirement colorée. 88% des files sont reconnues par la méthode avec un temps d'exécution de 10,4 sec. Cliché de l'auteur Figure 40. Résultat du processus de fiabilité des files (cf. §2.4.2.1). La colorisation des files cellulaires est fonction de leur fiabilité. Les files qui sont moins fiables (discontinues ou hétérogènes) apparaissent dans des tons chauds (jaune à marron).76 Cliché de l'auteur Figure 41. Découpage de l'image en 4 sous-parties de taille et de chevauchement inégaux. La méthode de fusion doit être indépendante de la dimension de l'image. Seul le chevauchement compte pour la fusion. Les cellules du bord de l'image ne sont pas prises en compte pour la fusion, car elles sont tronquées et donc erronées. Cliché de l'auteur Figure 42. Les quatre images sont traitées l'une à la suite de l'autre. Les zones noires de l'image sont les portions de file qui n'ont pas de sommet en commun avec au moins une des images. Les cellules du bord de l'image ne sont pas prises en compte pour la fusion car elles sont biaisées. Nous préconisons un chevauchement minimal de 3 cellules pour s'assurer qu'au moins une cellule éloignée du bord soit en commun.77 La méthode de reconnaissance automatique d'organisation permet la détection des files cellulaires sur des mosaïques d'images numériques. La représentation des files permet d’une part de contrôler visuellement leur parcours, et, d’autre part de choisir les plus pertinentes pour une étude statistique. En moyenne 80% des files sont automatiquement reconnues. Les 20% de files cellulaires non reconnues sont compensées par le nombre d'images que peut traiter la méthode. La fusion des résultats permet de suivre les files sur l'ensemble du plan ligneux. L'intégration des résultats dans un outil de visualisation et de correction des files, est un plus pour l'utilisateur. 3.2.3 Limites La limite majeure à l’identification automatique des files est inhérente au contenu des images, c'est-à-dire soit aux caractéristiques photométriques de l’image, soit aux configurations biologiques. Les images présentant une dynamique d’intensités localement inversée - par exemple la jonction bois d'hiver / bois d'été (figure 43, image du bas), restent difficile à traiter. Notre méthode reposant sur le contraste de l'image, les bassins versants correspondant aux cellules sont alors mal détectés et de ce fait, la détection des files est erronée et incomplète. De la même manière, les images de rondelles de bois poncé (non colorées) sont traitées en réflexion : la lumière ne traverse pas l’échantillon. De ce fait, les lumens apparaissent d’une couleur quasiment semblable à celle des parois, en tout cas, pas suffisamment contrastée pour garantir une bonne reconnaissance des bassins versants et par là-même une bonne identification des files. A contrario, les coupes de bois non colorées traitées en transmission c’est-à-dire traversées par la lumière, sont moins contrastées que les coupes colorées. Toutefois la différence paroi/lumen est suffisamment prononcée pour permettre à l’algorithme d’identifier correctement les files. Pour les organisations cellulaires complexes (cf. figure 43, image du haut), c’est-à-dire pour lesquelles les alignements cellulaires ne sont pas intuitifs, de nouvelles règles des parcours et de reconstruction devront être établies avec les biologistes.78 Cliché de l'auteur Figure 43. En haut, frêne coloré à la safranine. La détection des cellules est bonne, la méthode ne produit que des tronçons à cause de la complexité de l’organisation biologique. En bas, sapin coloré au bleu de méthylène ; l’identification est biaisée par la présence d’inversion locale de contraste au niveau de la jonction bois été/hiver. 3.2.4 Performances A ce stade de notre travail, la performance globale de la méthode de traitement est essentiellement une appréciation qualitative, i.e. une évaluation qui compare de manière assez globale les résultats produits aux annotations expertes. Les temps « de traitement », le nombre de cellules détectées et les pourcentages de files identifiées sont présentés au tableau 1. Le tableau montre que la méthode automatique détecte un nombre cohérent de cellules en environ 80 à 100 fois moins de temps que l’expert en fonction des préparations, des configurations anatomiques ou des grossissements utilisés et que globalement notre méthode fonctionne bien (88% de files bien détectées en moyenne) sur des images présentant une organisation structurée avec un contraste paroi/lumen marqué. Tableau 1. Résumé de quelques résultats significatifs : la taille des images, le nombre de cellules extraites, le temps CPU obtenu sur un ordinateur équipé d'un processeur Intel Xeon à 2,3 GHz et le nombre de files détectées en pourcentage par rapport au nombre de files identifiées par l'expert. Pour l'expertise, les cellules ont été détourées manuellement sur le logiciel ImageJ. Les résultats sont donnés pour un représentant de chaque essence. Espèce Taille (pixels) Nombre cellule (expert) Temps expert (sec) Nombre cellules (plugin) Temps plugin (sec) % de files détectées Pycnanthus sp. 1024x768 1302 2520 1359 14,3 86 Abies sp. 1360x1024 787 1300 800 12,4 88 Pinus nigra 1600x1200 1794 2750 1873 23,2 92 Pinus caribensis 1360x1024 819 1500 828 11,5 9179 Pinus brutia 1600x1200 1411 2450 1458 16,1 83 Quercus ilex 1600x1200 1623 3460 1724 16,2 62 L’appréciation de la performance est loin d’être triviale. Nous pourrions mettre en place un indice de performance basé sur un rapport entre les effectifs des classes « vrai positif », « faux positif » et « faux négatif » (Pavez et al. 2011). A l’échelle locale de la cellule, il s’agirait d’évaluer le taux de recouvrement entre cellules annotées par l’expert et cellules segmentées par l’application ; la classe « vrai positif » serait définie par l’intersection de la segmentation experte avec la segmentation automatique, et représenterait les pixels de l’image communs aux deux annotations ; les classes « vrai positif », « faux positif » (les pixels annotés par l’expert non présents dans l’image segmentée par l’application) et « faux négatif » (les pixels de l’image segmentée par l’application non annotés par l’expert) seraient définies par la réunion de la segmentation experte avec la segmentation automatique ; le rapport des effectifs des deux ensembles ainsi définis exprimerait une « performance » du recouvrement des annotations expertes et algorithmiques. A l’échelle globale, il s’agirait d’évaluer le taux de similitude dans la succession des cellules des files décrites par l’expert et celles identifiées par l’application. La limite actuelle à la mise en place de ces indicateurs est finalement le manque de données expertes car la segmentation manuelle est longue et fastidieuse, et souvent incomplète, i.e. l'image n'est pas entièrement traitée. 3.3 Autres applications De nombreuses questions n’ont pas pu être approfondies du fait du nombre restreint de jeux de données cellulaires à disposition. Nous avons choisi de les aborder à travers des expérimentations menées sur d’autres objets d’étude. 3.3.1 La robustesse de la méthode de segmentation La méthode de segmentation a été développée pour traiter des images couleurs de cellule de bois. Les images couleurs peuvent être vues comme des images multi-spectrales simples décrites par la réponse de trois longueurs d’onde du spectre visible. Mais qu’en est-il pour le traitement d’images composées de plus de trois longueurs d’onde prises sur un spectre élargi ? On s’intéresse à des images de champ de crevettes prise par satellite qui devraient être bien adaptées à une segmentation par watershed car les champs peuvent être assimilés à des bassins de type "cellule". L’idée est de segmenter les limites des champs pour dresser un plan cadastral. Les images sont acquises à partir d'images multi-spectrales satellitaires en Inde. Les tests sont menés sur une sous-partie (1720x1416 pixels) de l’image native pour accélérer les traitements80 (cf. figure 44). La taille est néanmoins suffisante pour vérifier les points clés dans la méthode de traitement et la méthode de comparaison mise en place. Clichés de l'UMR AMAP Figure 44. Segmentation automatique d'une image satellitaire de champs de crevettes. A gauche, l'image native, la rivière au centre de l'image a déjà été filtrée par l'opérateur. A droite, le résultat de la segmentation en surimpression. Certain champ sont bien segmentés, mais on observe une sursegmentation assez importante pour les zones texturées. Plusieurs auteurs proposent des stratégies différentes pour traiter de telles images : l’une d’entre elles consiste à segmenter séparément chaque canal puis à fusionner le résultat de la segmentation (Frontera-Pons et al. 2013). Une autre consiste au contraire à combiner au mieux par ACP les différents canaux et ne travailler que sur les premières composantes obtenues (Tarabalka et al. 2010). Du fait du nombre peu élevé de bandes spectrales dont nous disposons, nous avons opté pour des combinaisons idoines de certains canaux (cf. ci-dessous), classiquement utilisées en télédétection.81 Clichés de l'UMR AMAP Figure 45. En haut à gauche, recomposition avec les canaux [Red, Green, Blue]. En haut à gauche, recomposition [Red, Nir, Pan]. En bas, recomposition [Red, Nir]. Le canal Nir correspond au proche infrarouge (Near infrared), sa longueur d'onde est comprise entre 0,78 et 3 µm. Le canal Pan correspond au Panchromatique qui ne discrimine pas les couleurs, c'est-à-dire dont la sensibilité à la longueur d'onde de la lumière est similaire à celle de la vision humaine. Les images sont traitées par le processus de segmentation mis au point pour l’identification des files cellulaires (voir §2.1.2).82 Clichés de l'auteur Figure 46. Lignes de crête respectivement obtenues à partir des images RGB (en haut à gauche), RedNirPan (en haut à droite) & RedNir (en bas à gauche). Quelques différences sont observables mais globalement, le résultat est largement sur-segmenté par rapport à l'image de référence (en bas à droite) Les images de watershed sont sur-segmentées du fait des textures des structures étudiées (cf. cidessus). Les champs de crevettes non entretenues sont progressivement recolonisés par la mangrove et donc envahis par un couvert végétal. Ce cas illustre :  La difficulté à réduire la texture par filtrage préalable à la phase de segmentation ou par homogénéisation des zones (quantification de couleur, meanshift…). En clair, il est difficile de filtrer les minima locaux de l’image.  La nécessité de bien traiter la réduction de la sur-segmentation : a priori, la solution serait plutôt d’approfondir des méthodes de fusion de bassins adjacents homogènes. Le watershed est globalement un bon algorithme à condition de pouvoir bien préparer 83 l’image, c'est-à-dire bien réduire le bruit, l’effet texture,… De ce fait, il ne peut seul conduire à un résultat satisfaisant dans la majorité des cas. 3.3.2 Evaluation quantitative de la segmentation Les images de cellules ne nous pas permis d’évaluer la précision de la segmentation du Watershed. Les lignes de crête se positionnent relativement bien par rapport à l’espace intercellulaire et l’algorithme est indépendant du flou local. Mais en l’absence de segmentation de référence, il nous a été impossible de quantifier l’erreur de segmentation. Là encore, les champs de crevettes ont pu être utilisés pour mener ce type d’expérimentation : il existe en effet des jeux d’images annotés qui définissent les cadastres actuels de référence. La comparaison d’images segmentées ou labellisées est en soi assez complexe. De nombreuses approches sont présentées dans la littérature (McCune et al. 2002) et ont été discutées lors de réunions avec des télédétecteurs :  Indice de Kappa (de Cohen) qui exprime la réduction proportionnelle de l'erreur obtenue par une classification, comparée à l'erreur obtenue par une classification complètement au hasard. Un Kappa de 0,75 signifie que 75% des bonnes classifications ne sont pas due au hasard.  Indice de Jaccard qui indique le recouvrement de deux régions : il est définit par le rapport entre l’intersection et la réunion des deux surfaces à comparer.  Indice de Dice qui exprime la similarité entre deux échantillons. Il se défini comme le double de l'intersection de deux lots (échantillons de valeurs), divisé par l'union de ces deux lots.  Indices de sensibilité et de spécificité, initialement développés pour les analyses médicales basées sur les comparaisons des classes «vrais positifs», «faux positifs», «faux négatifs» et «vrais négatifs», pour déterminer la validité de tests diagnostiques quantitatifs. La sensibilité d’un signe pour une maladie est la probabilité que le signe soit présent si le sujet est atteint de la maladie considérée. La spécificité d’un signe pour une maladie est la probabilité que le signe soit absent si le sujet n’est pas atteint de la maladie.  Indices de précision et de rappel développés pour la fouille de données ou les systèmes de recherche documentaire. Le rappel est défini par le nombre de documents pertinents retrouvés au regard du nombre de documents pertinents que possède la base de données. La précision est le nombre de documents pertinents retrouvés rapporté au nombre de documents total proposé par le moteur de recherche pour une requête donnée. Ces indices, souvent opposés aux précédents, peuvent également se transposer à la comparaison de deux échantillons par l’étude des effectifs des classes «vrais positifs», «faux positifs», etc.84 Pour notre étude nous avons choisi de travailler avec les indices de précision et de rappel. Comparer deux contours implique de se donner une marge de tolérance : on compare deux contours à x pixels près. Cette marge de tolérance est décrite par la surface obtenue par dilations successives d’une des lignes de crête. A gauche, le dilaté des lignes de référence (cf. figure cidessous), à droite le dilaté des lignes du watershed (obtenu dans les 2 cas par 3 dilatations successives). Clichés de l'auteur Figure 47. Dilatation des lignes de crête de l'image de référence (à gauche) et des lignes du watershed (à droite). On note L les lignes de crête du watershed, R les lignes de référence, LD(x) la surface obtenue par x dilatation de L, et RD(x) la surface obtenues par x dilatations successives de R Les « vrais positifs » sont les points identifiés comme limite par le watershed et dans l’image de référence. Les « faux positifs » sont points identifiés comme limites par le watershed mais pas dans l’image de référence | ̅̅̅̅̅̅̅ Où « | » est la différence ensembliste et « - » est le complémentaire Les « faux négatifs » sont les points non retenus par le watershed mais identifiés comme limites dans l’image de référence. ̅̅̅̅̅̅̅ 85 Obtenir les effectifs des classes consiste à dénombrer les points noirs dans les images précédentes. Les indices de précision et de rappel sont définis comme suit : Ce qui donne les résultats suivants : Images VP3 FP3 FN3 précision rappel RGB 62618 158989 30610 0,28256328 0,67166516 RNirPan 84249 170182 13437 0,33112710 0,86244702 RNir 79207 160982 65303 0,32976947 0,54810740 Les indices varient entre 0 et 1, 0 quand la comparaison est mauvaise et 1 quand elle est bonne. Les résultats produits ne sont pas satisfaisants, car :  le "nettoyage expert" supprime une partie des lignes ne faisant pas partie des champs de crevette, alors que l'algorithme prend en compte toute l'image.  les indices sont établis pour comparer des images de même granularité : il est nécessaire de développer des indices idoines permettant de prendre en considération les zones sursegmentées ou les zones sous-segmentées, i.e. comparer un bassin de l’image de références avec la somme de n bassins de l’image calculée (et inversement). 3.3.3 Intérêt des approches multi-échelles pour maitriser la sur-segmentation du watershed La conclusion du §2.1 insiste sur la nécessité de mettre en œuvre des méthodes permettant de maitriser voire de supprimer la sur-segmentation du watershed. Nous y avons parlé essentiellement des méthodes de filtrage des minima locaux a priori ou de fusion de bassins similaires a posteriori. Ici nous mettons à profit le jeu d’essai multi-spectral pour aborder le problème sous l’angle du filtrage multi-échelles : du fait, de leur forte sur-segmentation, les images de champs de crevettes se prêtent mieux que les images des cellules à ce type d’expérimentation. Des tests ont étés menés en utilisant une pyramide de gaussiennes pour filtrer progressivement les minima locaux de l’image et identifier les lignes de crête invariantes au lissage (figure 48). Les bassins qui disparaissent entre deux niveaux consécutifs de la pyramide de lissages sont ignorés ; leur germe (minimum local) est considéré comme du bruit. 86 Clichés de l'auteur Figure 48. Variation arbitraire (0, 3, 6 et 10) de la valeur du flou minimal lors du DoG, avant l'application du watershed sur l’image RedNirPan Les lignes de crête sont sensiblement modifiées à chaque filtrage (figure ci-dessus), les germes de l’algorithme n’étant pas identiques : l’idée de ce filtrage « multi-échelle » consiste à ne conserver que les lignes qui apparaissent à tous les niveaux de filtrage. Les différents résultats sont fusionnés en ne gardant que les points de poids les plus élevés c'est-à-dire communs à plusieurs images (cf. figure 49).87 Clichés de l'auteur Figure 49. A gauche, chaque watershed est tracé dans une couleur primaire : les points communs aux quatre watershed apparaissent en blanc. A droite, la subdivision blanche correspondant aux arêtes communes aux quatre watershed notée par le symbole ∩. Images VP FP FN précision rappel ∩RNirPan (3) 51674 71056 35031 0,42103805 0,59597486 ∩RNirPan (5) 69289 53441 20060 0,56456449 0,77548713 La segmentation avec l'application multi-échelles empirique améliore les résultats. Il est difficile de juger de la pertinence de l'indice car la sur-segmentation est principalement dans des zones « hors bassin » et des limites légèrement décentrées. Toutefois, le tableau semble montrer des meilleurs résultats quand on augmente le nombre de niveaux de la pyramide de flou. Une telle méthode serait donc à approfondir pour contrôler la segmentation, à condition de savoir maîtriser le niveau (nombre) et le pas (valeur) de flou à appliquer. 3.3.4 Généricité de la méthode pour la détection de cellules La méthode de segmentation a été développée pour identifier des cellules végétales à partir d'images acquises au microscope. Mais qu’en est-il pour la détection d'autres types de cellules ? On s’intéresse à des images de cellules de muscle de souris qui devraient être bien adaptées à une segmentation par watershed car elles sont séparées par un espace intercellulaire rappelant la paroi des cellules végétales. L’idée est de segmenter le contour des cellules pour les mesurer automatiquement.8889 Clichés de Melissa Bowerman (2013) Figure 50. Image native de cellule de muscle et image de la segmentation automatique en surimpression. Les cellules sont pour la plus part individualisées. On observe des phénomènes de sur- et soussegmentation. La segmentation des cellules semble satisfaisante (figure 50). 88% des cellules sont correctement segmentées, si on exclut les bassins présents sur le fond de l'image. On observe des soussegmentations sur certaines cellules, car le contraste de la limite intercellulaire est trop faible, le minima local sera commun pour les cellules. La méthode peut segmenter des images cellulaires autres que végétales, si le contenu de l'image possède les mêmes caractéristiques photométriques, i.e. globalement deux couleurs dont une représente les objets structurants (ici les cellules). 3.4 Utilisation dans un questionnement biologique Nous allons nous intéresser à une étude sur les files cellulaires réalisées dans l'UMR AMAP et aux apports que pourrait apporter l'automatisation du traitement des files cellulaires dans ce contexte. 3.4.1 Contexte d'étude La croissance d’une plante se décompose en une succession dans le temps d’évènements biologiques tels l’allongement des tiges, la mise en place des feuilles, la floraison ou encore la fructification. La phénologie des plantes représente l’étude du déroulement et de la durée de ces évènements. Elle est connue pour être, en plus des facteurs endogènes, modulée par l’environnement et le climat, qui en contexte méditerranéen impose à la végétation des conditions de croissance particulières rythmées par l’alternance de deux phases de dormance et de deux phases de végétation. Dans ce contexte d'étude nous avons choisi de travailler sur la 90 réactivation cambiale et dynamique de la xylogenèse en fonction de l’architecture chez Pinus brutia. C'est-à-dire sur l'étude des files cellulaires à partir de l'assise cambiale. 3.4.2 Méthodologie Les prélèvements sont issus d'un micro-carottage, pris au milieu d'une unité de croissance. Ils sont ensuite préparés en suivant un protocole de coupe histologique et mis sous lame et lamelle. La numérisation de chacun des prélèvements est faite à l’aide d’un microscope Leica muni d’une platine, d’une caméra. Pour chaque prélèvement, des photos du cambium et du cerne en cours de formation sont prises, afin de déterminer les vitesses de croissance (nombre de cellules en fonction du temps). Pour chacune des phases de croissance, le nombre de cellules dans chaque zone est compté manuellement dans 10 files cellulaires à l’aide du logiciel de traitement d’images ImageJ. Illustration de Charlène Arnaud (UMR AMAP) Figure 51. Utilisation d'ImageJ pour le comptage manuelle des cellules de file cellulaire. Pendant la première phase de maturation des cellules, on peut voir que l'arrangement des files cellulaires n'est pas rectiligne. Le comptage de cellules pour 10 files cellulaires sur un cerne prend environ 10 minutes hors préparation. Pour l'étude, il y a 11 prélèvements par arbre, sur une dizaine de représentants. 3.4.3 Automatisation des processus Pour répondre aux remarques des rapporteurs, nous avons commencé à traiter des images ayant été annotées pendant l'étude. Seuls des résultats préliminaires et expérimentaux sont présentés lors de la soutenance orale. Nous avons testé l'intégralité de notre méthode d’identification 91 automatique des files cellulaires sur des portions de bande d'image car nous n'avons plus à disposition les images non fusionnées. Cliché de l'auteur Figure 52. En haut, comptage manuelle des cellules de 5 files sur une coupe transversale de Pin. En bas, identification et caractérisation automatiques des files cellulaires. Le code couleur correspond de l'indice de fiabilité. On peut voir par superposition le détourage automatique des cellules. Le traitement d'une bande image par la méthode automatique est inférieur à 10 secondes sur une machine standard (Processus double cœur Intel ® Xeon ® 2.27 GHz avec 6 Go de RAM). La totalité de l'image est traitée. Seules les cellules du bord de l'image ne sont pas prises en compte 92 car elles sont tronquées. Contrairement à l'approche manuelle, la méthode va, en plus du comptage des cellules par file, produire d'autres types de résultats (surface, circularité, épaisseur de la paroi, etc.) et donner des indices des fiabilités pour caractériser et/ou filtrer les files et les résultats. 3.4.4 Conclusion sur l'automatisation dans le cadre d'un questionnement biologique La méthode que nous proposons annote une image six fois plus rapidement que l’expert et permet un traitement complet de l'image. Plus que le gain de temps, la méthode va permettre d'accéder automatiquement à d'autres types de mesure permettant l'ouverture à de nouveaux questionnements scientifiques. L’étude sur le Pin aurait pu aborder la “Dynamique de la différenciation et de la maturation cambiale chez Pinus brutia. Quelles contraintes endogènes ?”.9394 4 CONTRIBUTIONS ET PERSPECTIVES Ce travail traite de la difficulté de mise en place des processus de mesures automatiques de données biologiques à partir d’images numériques dans un cadre d’approches statistiques. Les questions qui m’ont motivé portent sur :  l’incidence des choix méthodologiques sur la stabilité des résultats, i.e. comment les incertitudes des différentes briques d’un processus complexe peuvent ou ne peuvent pas se compenser,  l’étude de la validation des mesures produites, i.e. quels outils ou approches peuvent être développés pour « garantir » l’exactitude des mesures réalisées,  la généricité réelle des méthodes et modèles appliquées à la biologie végétale, i.e. à partir de quand une méthode doit être spécialisée pour produire des résultats utilisables par des botanistes ou des anatomistes,… Autant de questions « philosophiques » qui ont conditionné l’approche et la réalisation de mon travail. L’approche et la réflexion se veulent volontairement détachées, pas vraiment théoriques mais plutôt abordées dans l’absolu, en dehors de tout contexte applicatif… L’idée est bien de se détacher du cadre d’étude pour être le plus générique possible. Bien évidemment, une fois formalisés, concepts et méthodes sont ensuite spécialisés, i.e. adaptés à l’identification des files cellulaires dans des mosaïques d’images, voire plus quand le temps l’a permis. Répondre à ces questions nécessitent d’adopter une approche hybride consistant à plaquer sur une approche classique un regard ou un questionnement plus large que nécessaire, plus critique, peut-être plus profond… L’objectif de ce travail était le développement de procédures de détection automatique d'organisations cellulaires à partir de mosaïques d'images microscopiques de bois. L'étude des tendances biologiques le long des files est en effet nécessaire pour comprendre la mise en place des différentes organisations et maturations de cellule. Elle ne peut être conduite qu'à partir d'une grande zone d'observation du plan ligneux. La méthode de préparation des échantillons biologiques et la mise au point d'algorithmes devaient permettre d’acquérir une description (organisation, distribution et dimension) des objets étudiés en des temps raisonnables, à des fins d’analyses statistiques. La méthode s’applique aussi bien sur le clade des Gymnospermes que sur celui des Angiospermes. Les acquisitions de coupes histologiques colorées de bois ou de plan ligneux poncé peuvent être traitées par la méthode. Le premier apport de ce travail est la mise au point d'une chaine de préparation des échantillons permettant l'acquisition de mosaïque d'images. Les principaux résultats obtenus sont les suivants.95 1. La définition d'un protocole de préparation de rondelles de bois poncées adapté à l’étude de grandes zones, qui présente l’avantage d’être économe en temps et sans biais de découpe physique (a contrario de la coupe histologique) pour la construction d'une mosaïque. 2. Un protocole pour traiter des images produites à partir de coupes histologiques. Cette méthode permet d'obtenir un meilleur contraste entre les structures biologiques (lumen/paroi) par la coloration des échantillons. 3. La définition d'un protocole de large numérisation des échantillons, permettant, grâce à une succession d’images, de former une mosaïque couvrant la zone d’observation. Un apport de la thèse est la définition d'un processus générique de détection automatique d'organisations, que l'on a appliqué au cas des files cellulaires. Les principaux résultats obtenus sont : 1. La mise en place d'une chaine de traitement pour la segmentation et l'individualisation des cellules de chaque image à partir d’un algorithme de ligne de partage des eaux par inondation. L'image est tout d'abord nettoyée à l'aide de filtres standards puis un opérateur multi-échelles permet de rehausser le contraste entre les structures avant la segmentation. Les cellules sont détourées au niveau de la lamelle moyenne. L'erreur commise sur la mesure de surface des bassins est faible (en moyenne de 2,81% par rapport à une segmentation manuelle experte). Ce pourcentage est du même ordre que l'écart d'inter-variabilité expert. Elle est principalement due à la résolution de l'image qui ne permet pas de savoir, au pixel près, où se trouve la ligne de crête. Mais, à l'inverse des approches expertes, notre méthode est répétable. Les déformations optiques et de planéité génèrent souvent dans les images des flous périphériques. Notre méthode est insensible au flou de l'image, car elle se base sur des minima locaux stables au flou. Au terme de la segmentation, les cellules peuvent être mesurées sans spatialisation. 2. La définition d'un graphe d'adjacence des cellules qui décrit les relations de voisinage intercellulaires. Chaque arête du graphe relie les centres géométriques de deux bassins voisins, i.e. incidents à une même ligne de crête. 3. La détection d'organisations dans le graphe à l'aide de règles de voisinage prenant la forme de fonction à minimiser. Pour les files cellulaires, nous exploitons une règle géométrique (fonction de linéarité) et une règle morphologique (fonction de similarité). Les alignements sont construits l’un après l’autre, par agrégations successives de sommets pris dans des voisinages progressivement élargis. En moyenne 80% des files d'une image sont détectées, même avec des déformations biologiques telles que la présence des vaisseaux. Ces déformations peuvent entrainer des coupures au sein de files formant ainsi des tronçons fragmentés. Une méthode basée sur des règles topologiques d’encadrement entre files permet de concaténer les tronçons appartenant à une même file. 96 Pour ne pas créer de faux positifs seuls les cas simples sont automatiquement traités, les autres étant laissés à l’appréciation de l’utilisateur. 4. La mise en place d'une fonction de fusion des données permettant de suivre les files cellulaires sur l'ensemble du plan ligneux. L’agrégation des files d’images consécutives dans la mosaïque est réalisée par fusion de graphes à partir d’un noyau de fusion, c’est-à- dire à partir d’un ensemble de couples de nœuds à fusionner. Cet ensemble est obtenu à partir d'une fonction définie par un produit de termes génériques normalisés devant être spécialisés. Pour les files cellulaires, seuls les aspects géométriques – position et taille – sont nécessaires pour identifier les cellules candidates à la fusion. La fusion des graphes est facilitée par à la connaissance du déplacement de la platine permettant de générer les images constituant la mosaïque. 5. La définition d'indices de fiabilité permettant de caractériser la pertinence des mesures produites au niveau des files, des cellules ou des composants cellulaires. Ces indices sont des produits de différents termes normalisés. Chaque terme est une transcription d'un facteur d'influence sur la mesure. Ces indices permettent ainsi de sélectionner les files les plus significatives ou de mettre en avant des perturbations ou configurations biologiques particulières. En pratique, la relative faiblesse potentielle du nombre de files utilisables est compensée par la quantité d’images que l’on peut traiter. Les méthodes développées dans la thèse permettent l’acquisition et le traitement rapide d’un volume important de données. Ces données devraient permettre de conduire de nombreuses investigations : des analyses architecturales des arbres avec le suivi de file cellulaire et/ou la détection d'évènements biologiques remarquables ; des analyses de variabilité intra- et interarbres pourront être lancées pour mieux comprendre la croissance endogène des arbres. Pour des échantillonnages futurs, il serait intéressant de prévoir du matériel supplémentaire pour éprouver la méthode à d'autres images issues de rondelles poncées. Nous avions à notre disposition pour le jeu d'essai principalement des essences de Gymnospermes et assez peu d'Angiospermes. Pour connaitre/évaluer les limites de la méthode, il serait nécessaire, maintenant, de tester la méthode sur un large panel d'essences. La thèse étant orientée vers la conduite ultérieure d’analyses scientifiques plutôt que vers l’application industrielle, la priorité a été mise sur la robustesse et la précision des algorithmes. Pour une utilisation en industrie, une optimisation des algorithmes pourra encore augmenter la vitesse des traitements. A court terme, plusieurs points abordés dans cette étude gagneraient à des développements complémentaires :  L'étude du paramétrage des filtres pour le traitement d'images issues de bois poncé. Les images des deux protocoles ayant des signatures différentes, il ne serait pas étonnant de devoir créer deux jeux de paramètres à appliquer en fonction du protocole. Une 97 information complémentaire devra donc être rajoutée sur l'interface du plugin pour que l'utilisateur puisse indiquer la nature de préparation de ses échantillons.  L'approfondissement des méthodes de segmentation des objets structurants. Comme nous l'avons vu au §2.1.3, des variantes du watershed devraient permettre une meilleure initialisation des germes de départ et une fusion plus appropriée des bassins surnuméraires basées non plus sur les arêtes mais sur des informations portés par les bassins (taille, texture, etc.). De telles méthodes rendraient les détections plus robustes et devraient pouvoir couvrir une plus grande variabilité d'images.  L'implémentation de nouvelle méthode de modélisation des files présentée en fin du §2.2.3 puis sa comparaison avec la méthode actuelle. La nouvelle méthode devrait accélérer la détection des files et réduire le nombre des étapes. De par le fonctionnement de cette dernière, les tronçons de file devraient être automatiquement raccordés dès leur création.  Compléter et valider les indices de fiabilités présentés au §2.4.2. A plus long terme, il s’agira d’étendre l’analyse à d’autres caractéristiques. Comme nous l'avons vu au §2.2.1, les végétaux possèdent d'autres types d'alignements dans des tissus (spiral, cercle, etc.). Théoriquement la méthode doit pouvoir traiter ces arrangements car nous l'avons pensé et implémentée pour qu'elle permette la spécialisation (générique), c'est-à-dire qu'on puisse injecter des connaissances expertes pour traiter différentes caractéristiques. Une étude devrait être menée pour compléter le typage biologique. Cette partie, de par sa difficulté apparente, n'a été que peu abordée. Il faudrait pouvoir à long terme rendre ces développements aussi fiables (à l’image des indices de fiabilité sur les files) et pouvoir définir des indices de pertinence pour l'ensemble des différents types biologiques.9899100 5 REFERENCES BIBLIOGRAPHIQUES Andres E. 1994. Discrete circles, rings and spheres. Computer & Graphics 18: 695–706. Baggett D, Nakaya M, McAuliffe M, Yamaguchi TP, Lockett S. 2005. Whole cell segmentation in solid tissue sections. Cytometry. Part A: The Journal of the International Society for Analytical Cytology 67: 137–143. Bancroft JD, Gamble M. 2002. Theory and practice of histological techniques. London; New York: Churchill Livingstone. Barghout L, Lawrence WL. 2003. Perceptual information processing system. : 543. Barthélémy D, Caraglio Y. 2007. Plant Architecture: A Dynamic, Multilevel and Comprehensive Approach to Plant Form, Structure and Ontogeny. Annals of Botany 99: 375– 407. Bay H, Tuytelaars T, Gool LV. 2006. SURF: Speeded Up Robust Features. Proceedings of the ninth European Conference on Computer Vision. Beucher S. 2012. Towards a unification of waterfalls, standard and P algorithms. CMM/Mines Paristech publication. Beucher S, Marcotegui B. 2009. P algorithm, a dramatic enhancement of the waterfall transformation. Bray JR, Curtis JT. 1957. An Ordination of the Upland Forest Communities of Southern Wisconsin. Ecological Monographs 27: 325. Breiman L, Friedman J, Stone CJ, Olshen RA. 1984. Classification and Regression Trees. Chapman and Hall/CRC. Brown M, Lowe DG. 2007. Automatic Panoramic Image Stitching using Invariant Features. International Journal of Computer Vision 74: 59–73. Busin L, Shi J, Vandenbroucke N, Macaire L. 2009. Color space selection for color image segmentation by spectral clustering. 2009 IEEE International Conference on Signal and Image Processing Applications (ICSIPA).262–267. Canny J. 1986. A computational approach to edge detection. IEEE Transactions on Pattern Analysis and Machine Intelligence. Clair B, Gril J, Di Renzo F, Yamamoto H, Quignard F. 2007. Characterization of a Gel in the Cell Wall To Elucidate the Paradoxical Shrinkage of Tension Wood. Biomacromolecules 9: 494– 498.101 Clienti C, Beucher S. 2010. Architectures flot de données dédiées au traitement d’images par Morphologie Mathématique. Cormen TH, Cazin X, Kocher G-L. 2001. Introduction to Algorithms. MIT Press. Damiand G, Resch P. 2003. Split-and-merge algorithms defined on topological maps for 3D image segmentation. Graphical Models 65: 149–167. Davies ER. 2005. Machine vision: theory, algorithms, practicalities. Amsterdam ; Boston: Elsevier. Duda RO. 2001. Pattern classification. New York: Wiley. Dunn JC. 1973. A Fuzzy Relative of the ISODATA Process and Its Use in Detecting Compact Well-Separated Clusters. Journal of Cybernetics 3: 32–57. Einevoll GT, Plesser HE. 2005. Response of the difference-of-Gaussians model to circular drifting-grating patches. Visual Neuroscience 22: 437–446. Fourcaud T, Zhang X, Stokes A, Lambers H, Körner C. 2008. Plant Growth Modelling and Applications: The Increasing Importance of Plant Architecture in Growth Models. 101: 1053– 1063. Frontera-Pons J, Ovarlez J-P, Pascal F, Chanussot J. 2013. Performance Analysis of Robust Detectors for Hyperspectral Imaging. Proceedings of the IEEE International Geoscience and Remote Sensing Symposium. Melbourne, Australie, 1–4. Gindl W. 2001. Cell-wall lignin content related to tracheid dimensions in drought-sensitive austrian pine (pinus nigra). Iawa Journal 22: 113–120. Guo Y, Fourcaud T, Jaeger M, Zhang X, Li B. 2011. Plant growth and architectural modelling and its applications. Annals of Botany 107: 723–727. Heinrich L. 2007. Reaction wood varieties caused by different experimental treatments. TRACE, Tree Rings in Archaeology, Climatology and Ecology 5: 224–232. Hitz OM, Gärtner H, Heinrich I, Monbaron M. 2008. Wood anatomical changes in roots of European ash (Fraxinus excelsior L.) after exposure. Dendrochronologia 25: 145–152. Igathinathane C, Pordesimo LO, Columbus EP, Batchelor WD, Methuku SR. 2008. Shape identification and particles size distribution from basic shape parameters using ImageJ. Computers and Electronics in Agriculture 63: 168–182. Igathinathane C, Prakash VSS, Padma U, Babu GR, Womac AR. 2006. Interactive computer software development for leaf area measurement. Computers and Electronics in Agriculture 51: 1–16.102 Inglada J, Christophe E. 2009. The Orfeo Toolbox remote sensing image processing software. Geoscience and Remote Sensing Symposium,2009 IEEE International,IGARSS 2009.IV–733– IV–736. Jeacocke MB, Lovell BC. 1994. A multi-resolution algorithm for cytological image segmentation. Proceedings of the 1994 Second Australian and New Zealand Conference on Intelligent Information Systems,1994. IEEE, 322–326. Jones R, Bischof L. 1996. A graph–based segmentation of wood micrographs. In: Billard L, Fisher NI, eds. Computing Science and Statistics, 28. Sydney: Interface Foundation of North America, 12–20. Kennel P, Subsol G, Guéroult M, Borianne P. 2010. Automatic identification of cell files in light microscopic images of conifer wood. 2010 2nd International Conference on Image Processing Theory Tools and Applications (IPTA). IEEE, 98–103. Krause C, Rossi S, Thibeault-Martel M, Plourde P-Y. 2010. Relationships of climate and cell features in stems and roots of black spruce and balsam fir. Annals of Forest Science 67: 402–402. Lachaud S, Catesson A-M, Bonnemain J-L. 1999. Structure and functions of the vascular cambium. Comptes Rendus de l’Académie des Sciences - Series III - Sciences de la Vie 322: 633–650. Ladjal S. 2006. Estimation du flou dans les images naturelles. RFIA, . Lowe DG. 2004. Distinctive Image Features from Scale-Invariant Keypoints. International Journal of Computer Vision 60: 91–110. Mandelbrot BB. 1983. The Fractal Geometry of Nature. Henry Holt and Company. Marcuzzo M, Quelhas P, Campilho A, Mendonça AM, Campilho A. 2009. Automated Arabidopsis plant root cell segmentation based on SVM classification and region merging. Computers in Biology and Medicine 39: 785–793. McCune B, Grace JB, Urban DL. 2002. Analysis of ecological communities. Gleneden Beach, OR: MjM Software Design. Mcinerney T, Terzopoulos D. 1999. T-Snakes: Topology Adaptive Snakes. MEDICAL IMAGE ANALYSIS 4: 840–845. Moëll MK, Donaldson LA. 2001. Comparison of segmentation method for digital image analysis of confocal microscope images to measaure tracheid cell dimensions. IAWA Journal. Vol. 22(3): 267–288. Najman L, Schmitt M. 1994. Watershed of a continuous function. Signal Processing 38: 99– 112.103 Nicolini E, CARAGLIO Y, PÉLISSIER R, LEROY C, ROGGY J. 2003. Epicormic Branches: a Growth Indicator for the Tropical Forest Tree, Dicorynia guianensis Amshoff (Caesalpiniaceae). Annals of Botany 92: 97 –105. Otsu N. 1979. A Threshold Selection Method from Gray-Level Histograms. IEEE Transactions on Systems, Man, and Cybernetics 9: 62–66. Oyallon E, Rabin J. 2013. An Analysis and Implementation of the SURF Method, and its Comparison to SIFT. IPOL Journal · Image Processing On Line. Paiva ARC, Tasdizen T. 2010. Fast semi-supervised image segmentation by novelty selection. 2010 IEEE International Conference on Acoustics Speech and Signal Processing (ICASSP).1054–1057. Park J, Keller JM. 2001. Snakes on the Watershed. IEEE Trans. Pattern Anal. Mach. Intell.: 1201–1205. Pavez R, Mora M, Gonzalez P. 2011. Objective Comparison of Contour Detection in Noisy Images. In: Martin CS, Kim S-W, eds. Lecture Notes in Computer Science. Progress in Pattern Recognition, Image Analysis, Computer Vision, and Applications. Springer Berlin Heidelberg, 599–606. Quelhas P, Nieuwland J, Dewitte W, Mendonça AM, Murray J, Campilho A. 2011. Arabidopsis Thaliana Automatic Cell File Detection and Cell Length Estimation. In: Kamel M, Campilho A, eds. Image Analysis and Recognition. Berlin, Heidelberg: Springer Berlin Heidelberg, 1–11. Rathgeber CBK, Rossi S, Bontemps J-D. 2011. Cambial activity related to tree size in a mature silver-fir plantation. Annals of Botany 108: 429–438. Rossi S, Deslauriers A, Anfodillo T, Morin H, Saracino A, Motta R, Borghetti M. 2006. Conifers in cold environments synchronize maximum growth rate of tree-ring formation with day length. New Phytologist 170: 301–310. Rossi S, Simard S, Rathgeber CBK, Deslauriers A, Zan CD. 2009. Effects of a 20-day-long dry period on cambial and apical meristem growth in Abies balsamea seedlings. Trees 23: 85–93. Rozenberg P, Schüte G, Ivkovich M, Bastien C, Bastien J-C. 2004. Clonal variation of indirect cambium reaction to within-growing season temperature changes in Douglas-fir. Forestry 77: 257 –268. Sabri M, Macdonald RL. 2012. Vasospasm: Measurement of Diameter, Perimeter, and Wall Thickness. In: Chen J, Xu X-M, Xu ZC, Zhang JH, eds. Springer Protocols Handbooks. Animal Models of Acute Neurological Injuries II. Humana Press, 473–479. Schindelin J, Arganda-Carreras I, Frise E, Kaynig V, Longair M, Pietzsch T, Preibisch S, Rueden C, Saalfeld S, Schmid B, Tinevez J-Y, White DJ, Hartenstein V, Eliceiri K, 104 Tomancak P, Cardona A. 2012. Fiji: an open-source platform for biological-image analysis. Nature Methods 9: 676–682. Schneider CA, Rasband WS, Eliceiri KW. 2012. NIH Image to ImageJ: 25 years of image analysis. Nature Methods 9: 671–675. Scholkopf B, Smola AJ. 2001. Learning with Kernels: Support Vector Machines, Regularization, Optimization, and Beyond. Cambridge, MA, USA: MIT Press. Shapiro LG. 2001. Computer vision. Upper Saddle River, NJ: Prentice Hall. Sjö dahl M, Oreb BF. 2002. Stitching interferometric measurement data for inspection of large optical components. Optical Engineering 41: 403–408. Tarabalka Y, Chanussot J, Benediktsson JA. 2010. Segmentation and classification of hyperspectral images using watershed transformation. Pattern Recognition 43: 2367–2379. Thibeault-Martel M, Krause C, Morin H, Rossi S. 2008. Cambial Activity and Intra-annual Xylem Formation in Roots and Stems of Abies balsamea and Picea mariana. Annals of Botany 102: 667 –674. Toews M, Wells W. 2009. SIFT-Rank: Ordinal description for invariant feature correspondence. IEEE, 172–177. Travis AJ, HIRST DJ, CHESSON A. 1996. Automatic Classification of Plant Cells According to Tissue Type using Anatomical Features Obtained by the Distance Transform. Annals of Botany 78: 325 –331. Vapnik V. 1963. Pattern recognition using generalized portrait method. Automation and Remote Control 24: 774–780. Vercauteren T, Perchant A, Malandain G, Pennec X, Ayache N. 2006. Robust mosaicing with correction of motion distortions and tissue deformations for in vivo fibered microscopy. Medical Image Analysis 10: 673–692. Verma OP, Hanmandlu M, Susan S, Kulkarni M, Jain PK. 2011. A Simple Single Seeded Region Growing Algorithm for Color Image Segmentation using Adaptive Thresholding. 2011 International Conference on Communication Systems and Network Technologies (CSNT).500– 503. Vincent L, Soille P. 1991. Watersheds in Digital Spaces: An Efficient Algorithm Based on Immersion Simulations. IEEE Transactions on Pattern Analysis and Machine Intelligence 13: 583–598. Wang M, Zhou X, Li F, Huckins J, King RW, Wong STC. 2008. Novel cell segmentation and online SVM for cell cycle phase identification in automated microscopy. Bioinformatics 24: 94 – 101.105 Wilson BF. 1984. The Growing Tree. Amherst: University of Massachusetts Press. Wyant JC, Schmit J. 1998. Large Field of View, High Spatial Resolution, Surface Measurements. International Journal of Machine Tools and Manufacture 38: 691–698. Žunić J, Hirota K. 2008. Measuring Shape Circularity. In: Ruiz-Shulcloper J, Kropatsch WG, eds. Lecture Notes in Computer Science. Progress in Pattern Recognition, Image Analysis and Applications. Springer Berlin Heidelberg, 94–101.106107 6 ANNEXES Images et Résultats Panel d'images constituant le jeu d'essai et le résultat de la labellisation automatique de la fiabilité des files cellulaires (8 pages). N.B. Toutes les images sont prises à un grossissement de x200. 1. Coupe histologique de sapin (Abies alba), colorée au vert d'iode (Gymnospermes). 2. Coupe histologique de sapin (Abies alba), colorée au vert d'iode (Gymnospermes). 3. Coupe histologique de sapin (Abies alba), colorée au vert d'iode (Gymnospermes). 4. Coupe histologique d'acajou (Pycnanthus sp.), colorée au vert d'iode (Angiospermes). 5. Coupe histologique de sapin (Abies alba), non colorée (Gymnospermes). 6. Coupe histologique de pin (Pinus nigra), colorée à la safranine, avec un faible éclairage (Gymnospermes). 7. Coupe histologique de pin (Pinus nigra), colorée à la safranine, avec un fort éclairage (Gymnospermes). 8. Rondelle poncée de pin (Pinus nigra), non colorée (Gymnospermes).108 1. En haut, image native de sapin (Abies alba). En bas l'identification automatique des files de cellulaires.109 2. En haut, image native de sapin (Abies alba). En bas l'identification automatique des files de cellulaires.110 3. En haut, image native de sapin (Abies alba). En bas l'identification automatique des files de cellulaires.111 4. En haut, image native d'acajou (Pycnanthus sp.). En bas l'identification automatique des files de cellulaires.112 5. En haut, image native non colorée de sapin (Abies alba). En bas l'identification automatique des files de cellulaires.113 6. En haut, image native de pin (Pinus nigra) avec un faible éclairage. En bas l'identification automatique des files de cellulaires.114 7. En haut, image native de pin (Pinus nigra) avec un fort éclairage. En bas l'identification automatique des files de cellulaires.115 8. En haut, image native de pin (Pinus nigra) issue du protocole de ponçage. En bas l'identification automatique des files de cellulaires.116117 7 INDEX angiospermes : la division des Magnoliophyta (ou Angiospermes) regroupe les plantes à fleurs, et donc les végétaux qui portent des fruits. Angiosperme signifie « graine dans un récipient » en grec par opposition aux gymnospermes (graine nue). ... 22, 23, 24, 32, 45, 52, 61, 73, 95, 97, 109 bit : unité de codage informatique. Une image en 8 bits sera représentée en niveau de gris et une image 24 bits sera représentée en couleur.................................................................................................................................................................................. 28 complexité algorithmique : la théorie de la complexité est un domaine des mathématiques, et plus précisément de l'informatique théorique, qui étudie formellement la quantité de ressources (en temps et en espace) nécessaire pour la résolution de problèmes au moyen de l'exécution d'un algorithme ................................................................................................................. 54 couleur : système de représentation de l'image. Le plus connu est le système RGB car c'est celui utilisé par la majorité des capteurs CCD. Dans ce système, la couleur est définie par la combinaison additive de trois couleurs primaires plus ou moins intenses. le Rouge, le Vert et le Bleu. Il existe plusieurs système de couleurs : le plus proche du système rétinien est le système HLS (Teinte, Luminance, Saturation)....................................... 28, 29, 33, 34, 36, 37, 39, 46, 49, 63, 78, 80, 83, 88, 92 fibres : faisceaux de cellules résistantes, disposées dans le sens axial (de la tige), assurant la rigidité et la résistance mécanique du bois.............................................................................................................................................17, 25, 26, 52, 53, 67, 68, 69, 70 graphe : un graphe est un ensemble de points, dont certaines paires sont directement reliées par un (ou plusieurs) lien(s). Ces liens peuvent être orientés, c'est-à-dire qu'un lien entre deux points u et v relie soit u vers v, soit v vers u : dans ce cas, le graphe est dit orienté. Sinon, les liens sont symétriques, et le graphe est non orienté ...18, 20, 42, 43, 44, 48, 49, 50, 52, 53, 63, 67, 96 gymnospermes : les Gymnospermes sont des plantes faisant partie d'un sous-embranchement paraphylétique des Spermaphytes (plantes à graines) qui inclut les plantes dont l'ovule est à nu (non enclos dans un ovaire à la différence des Angiospermes) et est porté par des pièces foliaires groupées sur un rameau fertile (cône). Le nom Gymnospermes provient du grec gymnospermos signifiant « semence nue » ..............................................................................18, 22, 23, 25, 32, 73, 95, 97, 109 image native : L'image native est l'image produite par un système d'acquisition n'ayant pas subit de traitement (filtrage) .... 35, 36, 80, 81, 110, 111, 112, 113, 114, 115, 116, 117 intensité d'un signal : puissance ou force du signal. 'intensité d'un niveau de gris est une valeur entière variant entre 0 et 255 qui représente la luminosité d'une teinte grise ..................................................................................33, 34, 36, 37, 38, 40, 52, 60, 62 mosaïque d'image : Une mosaïque d'image est la fusion de plusieurs images .. 4, 17, 19, 20, 26, 28, 49, 52, 53, 54, 63, 72, 95, 96, 97 phloème secondaire : Le phloème est le tissu conducteur de la sève élaborée qui est une solution riche en glucides tels que le saccharose, le sorbitol et le mannitol chez les plantes vasculaires. Le phloème a aussi un rôle de réserve avec les parenchymes et un rôle de soutien avec les fibres libériennes et les sclérites. Dans les troncs des arbres, le phloème peut faire partie de l'écorce, pour cette raison son nom provient d'un dérivé du mot grec phloos qui signifie écorce.............................................. 24 pixels : partie élémentaire de l'image numérique (abv de Picture Element). Il porte une information qui dépend de la nature et du codage de l'image. ............................................................................ 28, 33, 34, 36, 40, 41, 49, 57, 58, 64, 65, 66, 72, 79, 80, 85 prétraitement d'image : opération visant à modifier les valeurs des pixels d'une image .............................................................. 35 RGB : le système RGB (Rouge Vert Bleu en français) est le plus simple des systèmes de codage informatique des couleurs. Il est composé de 3 canaux permettant d'afficher la couleur sur les écrans........................................................................................ 36 segmentation : la segmentation d'image est une opération de traitement d'images qui a pour but de rassembler des pixels entre eux suivant des critères prédéfinis. Les pixels sont ainsi regroupés en régions, qui constituent un pavage ou une partition de l'image. Il peut s'agir par exemple de séparer les objets du fond. Si le nombre de classes est égal à deux, elle est appelée aussi binarisation. 18, 19, 20, 33, 34, 35, 37, 38, 39, 40, 46, 48, 62, 64, 70, 80, 81, 82, 83, 84, 86, 88, 90, 96, 98, 101, 102, 103, 104, 105 stabilité algorithmique : en analyse numérique, une branche des mathématiques, la stabilité algorithmique (ou numérique) est une propriété globale d’un algorithmique numérique, une qualité nécessaire pour espérer obtenir des résultats ayant du sens 38 stitching : l'assemblage de photos est un procédé consistant à combiner plusieurs images numériques se recouvrant, dans le but de produire un panorama ou une image de haute définition ................................................................................................ 20, 49 traitement d'image : opération visant à extraire une information d'une image . 4, 11, 17, 19, 33, 35, 36, 37, 40, 46, 47, 49, 60, 72, 75, 79, 80, 81, 90, 91, 92, 93, 96, 97, 98, 102 xylème secondaire : le xylème (du grec xylon, « bois ») ou tissu xylémique, est un constituant des tissus végétaux formé de l'association de vaisseaux, de cellules mortes ou vivantes de soutien et de cellules associées. ........................................... 24, 25118 8 PUBLICATIONS Articles de références de la thèse (33 pages) I. PMA'12. Brunel G, Borianne P, Subsol G, Jaeger M, Caraglio Y. 2012. II. AOB'14. Brunel G, Borianne P, Subsol G, Jaeger M, Caraglio Y. 2014 III. FSPM'13. Brunel G, Borianne P, Subsol G, Jaeger M, Caraglio, Y. 2013. IV. SCIA'13. Brunel G, Borianne P, Subsol G, Jaeger M. 2013. Automatic Characterization of the Cell Organization in Light Microscopic Images of Wood: Application to the Identification of the Cell File Guilhem Brunel1,2, Philippe Borianne2 , Gérard Subsol3 , Marc Jaeger2 & Yves Caraglio2 1UMII; 2CIRAD – UMR AMAP Montpellier, France Guilhem.brunel@cirad.fr 3CNRS – LIRMM Montpellier, France Abstract — Automated analysis of wood anatomical sections is of great interest in understanding the growth and development of plants. In this paper, we propose a novel method to characterize the cell organization in light microscopic wood section images. It aims to identify automatically the cell file in a context of mass treatment. The originality of the proposed method is our cell classification process. Unlike many supervised methods, our method is self conditioned, based on a decision tree which thresholds are automatically evaluated according to specific biological characteristics of each image. In order to evaluate the performances of the proposed system and allow the certification of the cell line detection, we introduced indices of quality characterizing the accuracy of results and parameters of these results. Those are related to topological and geometrical characters of the cell file at both global and local scales. Moreover, we propose an index of certainty for selective results exploitation in further statistical studies. The proposed method was is implemented as a plugin for ImageJ. Tests hold on various wood section well contrasted images show good results in terms of cell file detection and process speed. Keywords: Image processing, pattern recognition, wood microscopic images, cell segmentation, file identification. I. INTRODUCTION The development of the tree results from the primary growth and secondary growth. The primary growth concerns the extension and branching of the axes. Whereas the secondary growth is on their thickening. Among others, issues of carbon squestration and wood energy leads to consider both structural and functional aspects using acumulating approaches. Howhever, these approaches, concerning secondary growth and its relationships between secondary and primary growth, are based on fragmentary studies, mainly raising from data acquisition costs. Secondary growth results from the cambial activity, which is among other things to the origin of wood (xylem) and consequently the different cellular elements that constitute it. The understanding of mechanisms of growth of the cambium will go through the study of rhythmicity of cell patterns, their disruption or modification through space and time. Environment and its fluctuations influence the differentiation of wood’s elements (from the divisions of cambial cells) which constrain us to follow the production of specific cell organizations. To simplify, two organizations are considered: firstly the growth rings which represents cell’s production at a given time [1], and secondly the cell lines which represents the activity of an initial cell during time [2]. For example, [3] underlie the importance of secondary growth organizations by studing cellular patterns, their spatial rhythmicity, their variability along different growth rings. For its part, the study of cell lines is presented as a promising enable to understand the development, differentiation and temporal rhythmicity of cells [4]. Automating the study of cell lines should permit to closer links with the functional aspects and ecology of species: Wood is a continuous recording of changes in the development of the tree (the lesser known) and its environment (the most work, eg dendrochronology, treerings). Progress in terms of the image acquisition devices and their analysis allow us to consider the access to quality's information on various extensive areas in the plant. Cross section microscopic images analysis shows interest in both cell feature characterization and detection but also for higher structure character estimation as shown for instance by Wu et al on root sections [5]. Automatic identification of wood cellular structures as cell files is a new challenge in structural biology of plants [6], which requires a multidisciplinary expertise. In bio-imaging, cell segmentation has been intensively studied by researchers in image processing with various approaches [7][8][9]. For example, [10] combine four classical algorithms to segment white blood cells in bone marrow image: watershed [11], snake [12], multi-resolution analysis [13] and dynamic programming. This kind of approach based on mixing many algorithms, shows the difficulty of segmenting cell images with high biological variability. The algorythms should be adapted to the application and to the specific cells characters. In particular, for wood cross section, we have to consider both cell local geometry and arrangement. In such wood cellular organizations, some authors propose to introduce some geometric models to describe the topological neighborhood of cells. For example, [14] or [15] rely on an oriented graph to extract cell files in images of the gymnosperms. From a technical point of view, we did not found any software solution allowing automatic identification of cell files. Some specific commercial tools as WinCell [23], exist for the analysis of wood cells, but they do not allow recognition and characterization of the cellular organization. Moreover, it is not possible to add new functionalities. More ___________________________________ 978-1-4673-0070-4/12/$31.00 ©2012 IEEE 2012 IEEE 4th International Symposium on Plant Growth Modeling, Simulation, Visualization and Applications 58generic commercial software such as Visilog [24], offer a rich development environment in image processing but they are quite expensive and not sufficiently specialized for our application. Open source platforms as ImageJ [20][25] are an attractive option: they allow to enrich the source code with specific functionalities while facilitating the exchange and dissemination of methods. Therefore we chose this solution to implement our algorithm. The proposed method of automatic identification and modeling of cell files extends the research presented by [15]. In this work, cell file identification in light microscopy images is based on a preliminary identification of the cells. It is a supervised classification requiring the definition, then the use of a large training database. As the variability of wood anatomy is huge, significant results can be obtained only for a limited number of wood species, sharing close and simple anatomical features (gymnosperms in this case). We introduce here a specific model of the cell lines recognition avoiding supervised training and allowing results quality quantification. Applying this model, as shown in the following sections, we can build a generic tool suitable for both gymniosperm and angiosperm wood cross section images. II. MATERIAL AND METHOD A. Preparation and digitization We aim to process histological stained sections of angiosperm and gymnosperm wood, and more specifically of Mahogany, Fraxinus Angustifolia, Pine Black, Pine Carabinsis and Fir tree. Wood cross sections of 20-25 µm of thickness are produced with a vibratome. They are then immersed in an aqueous chlorinated solution to clean the cellular content. A colouring of the cell wall is then performed to increase the contrast with the lumen. Various types of colouring agents can be used as the methylene blue, the toluidine blue or the safranine. The sections are then digitized by a Olympus DP71 LCD camera mounted on a Olympus BX51 microscope. The magnification is choosen around ×100. Figure 1. Images of histological stained wood sections. A: Fraxinus (angiosperm) colored with safranin. B: Pinus Caribensis (gymnosperm) colored with methylene blue. Notice the different anatomical structures: Vessel (V), Ray (R), Fiber (F), Tracheid (T) and Resin Canal (RC). Different anatomical structures as vessels, fibers, tracheids, resin canals, or rays are visible around the cell files (see Fig. 1). With such a magnification value, we can count at least 20 consecutive cells and then distinguish the cell files and the smallest interesting structure covers a surface of at least 10 by 10 pixels. The resulting images are in color (coded on 24 bits) with a resolution close to 2000 by 2000 pixels. B. Cell file processing Identification of cell files is based on the search of alignment of cells which share similar geometric (i.e. size, shape) and densitometric (i.e. color) properties. The concept of alignment implies a specific cellular organization which is emphasized by the neighborhood relations between cells. Our approach is divided into three steps (see Fig. 2): first cell identification is performed in order to individualize the cells in the image, then the cellular organization step detects and individualizes the alignments of anatomical structures, and finally, the classification step classifies anatomically and types qualitatively the cell files. In the following sections, we detail these three steps. Figure 2. Overview of the cell file identification algorithm. 1) Cell identification step Microscope images present a "pepper-and-salt" noise inferred by the thermal effect of the lamp. We attenuate this impulsive noise by applying a median filter of radius 3 pixels. Images show alternations of clear and dark areas representing respecitvely the cell lumens and the cell walls. To increase the contrast between the two areas, we apply the Difference of Gaussian (DoG) [16] method. This is a bandpass filter. It thresholds the frequencies corresponding to the lumens. To obtain the lumens (see Fig. 3), the DoG filter subtracts a Gaussian light blurred image (blurring parameter close to the size of the cell wall) to the highly blurred image (blurring parameter set to 1/10 of the image width). Nota that the blurring parameters were set experimentally and are different from the classical 1.6 ratio used for DoG smoothing in edge detection. Figure 3. Difference of Gaussian filtering on a cross-section of Mahogany stained with toluidine blue. A: the image obtained by applying a small Gaussian blurring (σ = 3 pixels). B: the image resulting from a strong Gaussian blurring (σ = (image width)/10). C: subtraction of images A and B which increases the contrast wall / lumen. A B C A B RC T F V R R 59We obtain an image where the walls have zero intensity and the lumens have a higher intensity. This colour image is then converted in grey levels. Average colour channel value is used since no specific channel seems significant. Moreover this conversion simplifies specific process definition potentially resulting from different colouring protocols. The greyscale image cell extraction is obtained by the classical Watershed algorithm [11]. The idea is to consider a grey level image as a topographic relief, and to calculate the watershed lines by “flooding” the relief. The resulting watershed lines define a partition of the image. The ridge lines constitute the intercellular boundaries and correspond to the middle lamella. The lines of the ridges of the Wathersed (fig. 4-c) give the boundary between two adjacent watersheds. The dual graph is the adjacency graph of the basins, it connects two by two the geometric centers of the basins incident to the same edge. The basins are superimposable to image cells, we speak of the adjacency graph of the cells (Fig. 4-d). Figure 4. Cell individualization of a Mahogany cross section. A: native image. B: watershed segmentation result with the crest lines crossing the lumen. C: cleaned watershed: the crest lines are replaced by curvilinear edges shown in yellow; they correspond to the middle lamella; the points extra yellow match the geometric center of the watershed therefore biological cells. D: dual watershed graph. This adjacency graph, in green connects cell centers with their neighbour; notice that the degree of vertices is greater than four showing the staggered pattern of the cells. 2) Cellular Organization Unlike approaches [15] and [14], our recognition of lines based exclusively on a constraint path of the adjacency graph of the cells. More specifically, the construction of cell lines is based on the one hand on geometric criteria, in particular the general orientation of adjacencies cell, and, secondly on topological criteria, in particular on configurations of cellular adjacency. The edges of the adjacency graph represent connections between neighboring cells and their orientations give an indication of the preferred directions of the cell arrangements. On our studies, cells are arranged in staggered rows, and cell lines are rectilinear and two in two parallels. Therefore, the orientations of edges adjacency follow three directions: a main one, corresponding to the cell alignments and two secondaries, corresponding to the organization in staggered rows (fig. 4-d). To compute the main direction, we use R. Jones (1996) method, studying the distribution of angles formed by each edge of the adjacency graph with the horizontal. The distribution is then trimodal : the major mode shows the orientation most present in the adjacency graph, that is to say the general orientation of the lines (Fig. 5). Figure 5. Direction distribution histograms formed by edges of the adjacency graph with the horizontal. A: The main mode centered on 0° corresponds to horizontal lines; B: The histogram shows one mode splitted on -90 and 90° values corresponding to vertical lines. Considering now the lines. The construction is progressive and based on four principles: alignment search, feedback check, overlap management and chaining. The alignment principle allows for each vertex V of the graph to find the next vertex NV in the cell lines. Each vertex neighbor of V is a potential candidate. We will retain one that maintains the best spatial alignment (in a range of ± 35 °), and whose underlying cell shows the highest geometrical similarities with the previous one. The line is gradually built from the initial edge, by successive additions of consecutive edges preserving the geometric continuity. At each step, the drift of the line is minimized under this geometrical constraint. We chose the criterion of Bray-Curtis [21] (see Fig. 6) for similarity cost evaluation since well adapted to surface characterizations. When this criterion tends to zero, the compared cells can be considered as similar. Figure 6. Formula of Bray Curtis. Where « n » is the surface of current cell and « m » is the surface of neighbor cell. When the criterion tends to 0, the cells show a similar surface. Each cell bellowing to a cell line path is given a score value : the sum of the angle deviation with its predecessor and the criterion of Bray-Curtis. 0 50 100 150 200 -90 -45 0 45 90 0 50 100 150 200 -90 -45 0 45 90 A B A B C D 60 The path of the line stops when there are not vertices anymore candidate. A cell line direction is independent from graph traversal orientation. This property is used to validate or invalidate any line segment or part of if. The process described above is applied again starting from the end edge, by inverting the direction of progress in the graph. We note this path as "backward", opposed to the initial path "forward". This define the principle of Forward / Backward : a line is validated when both forward and backward paths are strictly superposables. In the case where the paths are not identical, the initial forward path is gradually reduced until reaching a stable forward/backward sub-path. Specifically, whenever a difference appears in backward path, the corresponding segment is deleted from the original line: the edges and their scores are released, initialized to an infinite value. The backward tip is updated from the last reached position. In the strictly superposable case, the score of each cell of the line is decreased by half insuring higth stability of the line towards overlaping (see below). Indeed, a cell belongs to a unique file. This property leads to the following rule: each vertex belongs to one cell line and only one. In some cases, during its construction, a line may use one or several cells, mobilized by a line already constructed. In this case, each of these vertex is attributed to the line for which its score is minimal: it is the principle of overlaping. Two scenarii may occur:  The existing line keeps its vertex; the line under construction will have to find another path or stop.  The existing line loses its summit to the detriment of the line under construction. Here, all the summits of the existing line situated after the lost summit are released: their respective score takes an infinite value, indicating they are again available. Due to the presence of intrusions, tearings or a lack of adjency (Fig. 7-a), it is not unusual to detect a given line in splitted part. Figure 7. A: Result of treatment chain without connection. B: result whit connection (Bottom). There is one color by file. The principle of merging allows to concatenate several part of line, using simple topological rules, to establish whole lines. The idea is based on two observations : (i) the lines cross the image throughout, (ii) the lines do not intersect (Fig. 8-a). As a result, if the parts T2 and T2 ' are adjacent to the line F1 and F3, it is likely that T2 and T2 ' are two parts of the same line F2. At present only the parts in two same lines are concatenate that is to say as belonging to the same line. In other scenarii the process is stopped. Figure 8. A: a two neighbours connection scheme. Sections T2 and T2’ are squeezed between lines F1 and F3; therefore T2 and T2' are probably derived from a common file F2. B: a multiple neighbours scheme; in this case, rules of adjency are used to drop the case in a two neighbours one. 3) Classification step The cell typing is the ultimate step: it allows to classify different cells (fibers, tracheids, vessels, rays, ...). It is realized from geometric and densitometric characterization of the watersheds associated with the vertices of the adjacency graph of cells. Unlike the work of [15] and [14], supervised classification was discarded because of the difficulty of building learning games sufficiently complete and discriminating, due to the existing biological variability. A decision tree discriminates the anatomical structures. It was established with wood anatomists from the two following hypotheses: 1) The perimeter of cells, noted parameter T, allows to differentiate the "big" structures from the "small" cells. 2) The circularity of cells, noted parameter C, allows to differentiate rays (globally lengthened) from the vessels (globally circular). The decision tree given in Fig. 9 is applied to basins with a clear area corresponding to the lumen. It requests two threshold values which are automatically estimated for every image. For each parameter, both values are calculated from the grey image, from two disjoint groups using a two-means clustering [22]. This classical method divides n observations into two clusters, so minimizes the intra-classe variance and maximizes the interclasse variance. The threshold is then given by the median value between the upper bound of the lowest group and the lower bound of the stronger group. A B B A 61Figure 9. Decision Tree. T represents the threshold of the perimeter and C the threshold of circularity. The thresholds are automatically rated by a 2- means clustering applied to all values from the image. Only cells with a lumen are processed by the decision tree. After the alignments identification and the biological typing, we can deliver a set of figures characterizing the shape, size, nature of biological structures (walls, lights, cells, lines ...). These characteristics, of interest for anatomists, are defined by self conditioned procedures. As part of a mass treatment it is interesting to characterize the accuracy of these assessments. Both caracteristic quality and automated define parameters are computed defining indexes of certainty. An index is assigned for each calculated parameter. The certainty index concerns the geometric parameters of structural elements and the steps of the process of identifying lines. At the scale of structural elements (fiber, vessels, radius ...), evaluation of this index depends on the parameter itself. For example, the certainty of the surface or the shape of the lumen is directly connected to the local degree of sharpness of the image (Fig. 14): the boundary between the wall and the lumen being obtained by distribution of the pixels of the cell two intensity classes (light intensities and dark intensities), it depends irremediably on local dynamics of the image. At scale structure elements (lines), evaluation of the index depends on the construction process and the nature of the result. To "certify" the cell lines, three criteria are used :  The overall score of the line, characterizing topological relationships of the line with its neighbors. The identification of the topological position allows to assign a global additional score to the line: 0 for a line crossing the image throughout, 1 for a line composed of simple parts, 2 for non indentifided segment, 3 for single cell, 4 for defects.  The average of the scores of its cells obtained during the construction of the line (not to be confused with the index of certainty parameters). Each vertex added to the line will be assigned a score defined by the sum of the deviation of the angular aperture and the similarity coefficient. This method allows to restrict the path of the line without guaranteeing possible overlapping or intersection with a nearby line.  The length, characterizing the representativeness in the image: the more a line is long, the more it is sure. An index of certainty is assigned to the line according a linear combinaison of these three scores. The indices of certainties (parameters and lines) are used to filter or classify the numerical results generated for each lines identified. The indices of certainty of the lines are totally independent from indices certainties of the parameters associated with the cells. The visual representation of the global score of the lines, and in particular the use of a color code, allows a fast and efficient processing check, distinguishing the whole lines form the cellular insertions. The colour code is green for the lines automatically identified, is blue for lines automatically rebuilt and is red for complex configurations (Fig. 10). Figure 10. Automatic identification of cell lines from a cross section of mahogany. A: lines random colouring is used. B: colour qualifies the cell files; the lines automatically identified in green, the lines automatically rebuilt in blue and the complex configurations in red. The method has been implemented in Java and integrated as a plugin in the ImageJ free platform. We use additional free libraries sush as the Java Universal Network / Graph Framework [26] for efficient data structure management. We are currently posting the application on the web [27]. III. RESULTS AND DISCUSSION The tests were led from a sample of images representative of biological variability, possessing a dozen colored sections of different species of angiosperms (list) and gymnosperms (list) (Fig. 11). Figure 11. Extract from the test set consists of cross sections of angiosperms and gymnosperms. A : mahogany colored with toluidine blue for which the continuity of queues is preserved in spite of the vessel elements. B : fir colored with methylene blue. C : black pine colored with safranin having resin canals. D : fir colored with toluidine blue showing cells blocked. A B C D A B 62A. Biological aspecsts Moreover, the colour encoding can quickly locate the complex biological configurations requiring the expertise of an anatomist to be identified (in red, Fig. 12). Figure 12. Automatic identification of cell lines of the extract on the game of trying to figure 11. The colour code is given in figure 10. As shown in the table below, our method works well on images presenting a structured organization with a marked wall / lumen contrast, in regard to data acquisition, management of lines and the magnification used. For configurations showing low colour contrast or complex cellular organizations the lines are badly detected. Table 1. Summary of some significant results: the size of images processed, the number of cells extracted, the CPU time obtained on a machine with an Intel Xeon at 2.3GHz and a Total Quality Index defined as the ratio of the number of lines automatically identified and reconstructed on the total number of lines. Species Size (pixels) Cells numbers Times (sec) Total Quality (%) Mahogany 1024x768 1359 14.3 83 Fir 1360x1024 800 12.4 92 Black Pine 1 1600x1200 1873 23.2 73 Caribean Pine 1360x1024 828 11.5 91 Black Pine 2 1600x1200 1458 16.1 93 What about in terms of quantity, that is to say in terms of numerical measures? The overall rating of the line remains the most important indicator. It enables us in particular to detect all single files: all lines described as obvious by anatomists have an overall zero score. On the test set, the lines are automatically detected at 60% in the images. This figure is not significant since it depends on the anatomical configurations. The unidentified lines can be automatically excluded from statistical processing. The amount lost can be easily offset by the increase of the images treatable. It is important to evaluate the accuracy of measurement. The Figure 13 presents the comparison of about sixty normalized aeras got from manual and automated method. The coefficient of determination tends of 1 showing the areas are well correlated. The slope of regression line is weakly superior to 1 indicating a weak over-valuation of the automated method. The weak gap of 0.0127 confirms the middle error of 5% on right areas. The automated method seems over-valuated the measurements (at least the expert under-valuates the measures!). Only certainty: the automated method is repeatable. Figure 13. Basins surfaces study on Mahogany. In abcissa, the normalized aeras got from the fully manual method. In ordinate, those got from the automated method. The coefficient of determination is close to 1, showing a very well adjustment of areas. The major limit to the automatic identification of lines comes from the image content, that is to say the photometric characteristics of the image, and biological configurations. Figure 14. A right cross sections of three native species. On the left, the automatic identification of cell lines. A : not colored pine treated in transmission; Detection is good despite the low constrate Wall / Lumen. B : ash colored with safranin; Detection of cells is good, but the method only produces sections due to the complexity of biological organization. C : pine colored with methylene blue; Identification is biased by the presence of local inversion of contrast at the joinction wood summer / winter. The images with a dynamic intensity locally reversed, for example the junction wood winter / summer wood (Fig. 14- c), remain difficult to treat. Our method is based on the image contrast, so watersheds corresponding to the cells are badly detected, and thus the detection of files is incorrect y = 1,0477x + 0,0127 R² = 0,9991 0 3 6 9 0 2 4 6 8 automated manual A B C 63and incomplete. The images of washer sanded wood (unstained) are treated in reflection: light does not pass through the sample. Thus the lumens appear in colour almost close to the walls one, with not sufficient contrast to ensure proper recognition of watersheds and proper identification of lines. The wood sections not colored are treated by transmission, crossed by light. They are less contrasted than the stained sections. But the difference wall / lumen is pronounced enough to allow the algorithm to correctly identify the lines (Fig. 14-a). For complex cellular organizations (Fig. 14-b), where cell alignments are not obvious, new rules for the path and for the reconstruction shloud be established with the biologists. The files are created using only geometric and topological rules on the basins. It is important to make sure of the robustness of the detection of the basins, expecially internes of insensitivity to blur and image orientation. A first study was conducted on the absorption of the blur found in images related to microsope views side effect or sample flatness. Figure 15. Compared watershed result on Pine cross section. A : crests lines of a sharp image. B : crests lines of a blurred image. Outline of the basins is nearly identical between a sharp and a blur image. On the sharp image, a small additional basin of a detachment of the wall issued from cutting. This basin is skipped during the supernumerary removal phase. Acquisitions of the same zone of the image with different focus were performed to evaluate the stability of our computational method. In particular, we made a statistical study on the variability of cropping cells. The intercellular lines obtained by the algorithm of Watershed are generally invariant to blurring of the image. Indeed, they correspond to the curves reverse slopes of intensity: the smoothing of the image produced by optical blur attenuates the intensity without changing the look of intensity variations. The crest lines remain unchanged (Fig. 15). Figure 16. Basins surfaces study on Mahogany. In abcissa, the normalized aeras got from sharp images. In ordinate, those got from blur images. The coefficient of determination is close to 1, showing a very well adjustment of areas. Figure 16 shows the comparison of a sixty normalized area obtained from a sharp and a blurred image. The coefficient of determination tends to 1 showing areas are well correlated. The slope of the regression line is slightly less than 1 indicating low undervaluation on blurred images. The difference of 0.0037 confirms the average error of 2.81% on sharp image. The method gives results almost identical regardless of the sharpness of the image The method described is working correctly for images that contain the one hand high contrast between the walls and lumens (without local inversion of color) and other hand a visible cellular organization. Under these conditions all the obvious lines by qualified experts are correctly identified, with a significant time save (a typical manual expert identification requires ten hours on our samples). Moreover, the index of certainty allows the selective exploitation of results for statistical studies. IV. CONCLUSIONS Automated analysis of wood anatomical sections is of great interest in understanding the growth and development of plants. In a frame of over studies on wood structure, we propose a original method for automatic detection of cell lines, operational in mass treatment. It applies to digital images of coloured transverse cut wood. Identification of lines based on research alignment of cells presenting similar geometrical and densitometric characteristics. The notion of alignment implies to know how to set up the relations of neighborhood between cells. Identification of lines is made from an adjacency graph for the path constrained graph with an orientation and similarity criteria. The originality of the method compared to a supervised method is that it automatically creates rules evaluated for each image and not a set of rules to be applied on all images. The lines described as obvious by anatomists are correctly identified by our method, with a drastic drop of time cost. To "certify" the cell lines, we have introduced the indices characterizing the quality of results and parameters of these results. The method described works correctly for images with high contrast between the walls and lumens and a clear cellular organization. Under these conditions all the obvious lines by qualified experts are correctly identified. Moreover, the index of certainty allows the selective exploitation of results for statistical studies. Three future work axes are being considered: 1. The enlargement of the major zones of study in order to follow the lines of several rings (Fig. 17). For this, it is necessary to adapt the processing of image mosaics. Two problems are directly related: first, the treatment of different photometric behavior in the same image, in particular the transition wood winter / summer wood. Secondly, the joining of the results at the edges of the images pavement. 2. The study can be extended to sanded wood, for which the contrast wall / lumen is less contrasted. 3. The enrichment of the cell typing method that is not currently able to differentiate all kind of vessels. Work y = 0,9963x + 0,0037 R² = 0,998 0,3 0,7 1,1 1,5 1,9 0,3 0,8 1,3 1,8 blur sharp A B 64on the walls texture can be considered to resolve the limitation. Cell file identification has to deal with other open difficulties like the passage tree ring or the junction between the different images. The construction of cell lines will be reviewed to match between images that may or may not be recovered. Figure 17. Abutting mosaic of a cross section of Black Pine, colored with safranin, 100x. As a summary, this work is a first contribution to develop methods for automatic image processing that will mainly to identify and characterize, in mosaics depicting field’s broad observation, cellular organizations, and the cells that compose them. The implementation aims to obtain a rapid cell typing, automatic and reliable to process statistically significantly large sets of data. ACKNOWLEDGMENT The authors gratefully acknowledge Christine HEINZ for her involvement in this work, her advices and availability. A big thank to Michael GUEROULT without whom the laboratory work would not have been possible. This work is jointly funded by a doctoral fellowship of the Labex NUMEV and the SIBAGHE Graduate School of the University Montpellier 2 and by the Scientific Council of the University Montpellier 2. REFERENCES [1] L. Heinrich, “Reaction wood varieties caused by different experimental treatments,” TRACE, Tree Rings in Archaeology, Climatology and Ecology, vol. 5, p. 224–232, 2007. [2] P. Rozenberg, G. Schüte, M. Ivkovich, C. Bastien, and J.-C. Bastien, “Clonal variation of indirect cambium reaction to within-growing season temperature changes in Douglas-fir,” Forestry, vol. 77, no. 4, pp. 257 –268, Jan. 2004.. [3] E. Nicolini, Y. Caraglio, R. Pélissier, C. Leroy, and J. Roggy, “Epicormic Branches: a Growth Indicator for the Tropical Forest Tree, Dicorynia guianensis Amshoff (Caesalpiniaceae),” Annals of Botany, vol. 92, no. 1, pp. 97 – 105, Jul. 2003.. [4] W. Gindl, “Cell-wall lignin content related to tracheid dimensions in drought-sensitive austrian pine (pinus nigra),” Iawa Journal, vol. 22, no. 2, pp. 113–120, 2001.. [5] Haiwen Wu, Marc Jaeger, Mao Wang, Baoguo Li and Baogui Zhang. 3D-Reconstruction and Visualization of Xylem Vessels of Wheat Nodal Root. In: Li, B. and Jaeger, M. and Guo, Y. (Eds). 2010. Proceedings,of Plant growth Modeling, and their Applications (PMA09), Beijing,,China, November 9- 13, 2009, IEEE CPS, pp. 384-390 [6] P. Quelhas, J. Nieuwland, W. Dewitte, A. M. Mendonça, J. Murray, and A. Campilho, “Arabidopsis Thaliana Automatic Cell File Detection and Cell Length Estimation,” in Image Analysis and Recognition, vol. 6754, M. Kamel and A. Campilho, Eds. Berlin, Heidelberg: Springer Berlin Heidelberg, 2011, pp. 1–11. [7] M. K. Moëll and L. A. Donaldson, “Comparison of segmentation method for digital image analysis of confocal microscope images to measaure tracheid cell dimensions,” IAWA Journal. Vol. 22(3), pp. 267–288, 2001. [8] D. Baggett, M. Nakaya, M. McAuliffe, T. P. Yamaguchi, and S. Lockett, “Whole cell segmentation in solid tissue sections,” Cytometry A, vol. 67, no. 2, pp. 137–143, Oct. 2005. [9] T. Fourcaud, X. Zhang, A. Stokes, H. Lambers, and C. Körner, “Plant Growth Modelling and Applications: The Increasing Importance of Plant Architecture in Growth Models,” Ann Bot (Lond), vol. 101, no. 8, pp. 1053–1063, May 2008. [10] J. Park and J. M. Keller, “Snakes on the Watershed.,” IEEE Trans. Pattern Anal. Mach. Intell., pp. 1201–1205, 2001. [11] L. Vincent and P. Soille, “Watersheds in Digital Spaces: An Efficient Algorithm Based on Immersion Simulations,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 13, no. 6, pp. 583–598, Jun. 1991. [12] Kass, A. Witkin, and D. Terzopoulos, “Snakes: Active contour models,” Int J Comput Vis, vol. 1, no. 4, pp. 321–331, 1988. [13] M. B. Jeacocke and B. C. Lovell, “A multi-resolution algorithm for cytological image segmentation,” in Proceedings of the 1994 Second Australian and New Zealand Conference on Intelligent Information Systems,1994, 1994, pp. 322–326. [14] R. Jones and L. Bischof, “A graph–based segmentation of wood micrographs,” in Computing Science and Statistics, 28, Sydney, 1996, pp. 12–20. [15] P. Kennel, G. Subsol, M. Guéroult, and P. Borianne, “Automatic identification of cell files in light microscopic images of conifer wood,” in 2010 2nd International Conference on Image Processing Theory Tools and Applications (IPTA), 2010, pp. 98–103. [16] G. T. Einevoll and H. E. Plesser, “Response of the differenceof-Gaussians model to circular drifting-grating patches,” Vis. Neurosci., vol. 22, no. 4, pp. 437–446, Aug. 2005. [17] L. Breiman, J. Friedman, C. J. Stone, and R. A. Olshen, Classification and Regression Trees, 1st ed. Chapman and Hall/CRC, 1984. [18] O. M. Hitz, H. Gärtner, I. Heinrich, and M. Monbaron, “Wood anatomical changes in roots of European ash (Fraxinus excelsior L.) after exposure,” Dendrochronologia, vol. 25, no. 3, pp. 145–152, Mar. 2008. [19] A. J. Travis, D. J. Hirst, and A. Chesson, “Automatic Classification of Plant Cells According to Tissue Type using Anatomical Features Obtained by the Distance Transform,” Annals of Botany, vol. 78, no. 3, pp. 325 –331, 1996. [20] B. Clair, J. Gril, F. Di Renzo, H. Yamamoto, and F. Quignard, “Characterization of a Gel in the Cell Wall To Elucidate the Paradoxical Shrinkage of Tension Wood,” Biomacromolecules, vol. 9, no. 2, pp. 494–498, 2007. [21] J. R. Bray and J. T. Curtis, “An Ordination of the Upland Forest Communities of Southern Wisconsin,” Ecological Monographs, vol. 27, p. 325, Oct. 1957. [22] E. Forgy, “Cluster analysis of multivariate data: efficiency vs interpretability of classifications,” Biometrics, vol. 21, pp. 768–769, 1965. [23] http://www.regentinstruments.com/ [24] http://www.noesisvision.com/fr/index.html [25] http://rsbweb.nih.gov/ij/index.html [26] http://jung.sourceforge.net/doc/index.html [27] http://umramap.cirad.fr/amap2/logiciels_amap/index.php?page =ficeler 65TECHNICAL ARTICLE: PART OF A SPECIAL ISSUE ON FUNCTIONAL–STRUCTURAL PLANT MODELLING Automatic identification and characterization of radial files in light microscopy images of wood Guilhem Brunel1,2,*, Philippe Borianne2, Ge´rard Subsol3, Marc Jaeger2 and Yves Caraglio2 1 CIRAD – UMR A51 AMAP, France, 2 University of Montpellier 2, France and 3 LIRMM – CNRS, University of Montpellier 2, France * For correspondence. E-mail guilhem.brunel@cirad.fr Received: 31 October 2013 Returned for revision: 9 January 2014 Accepted: 31 March 2014 †Background and AimsAnalysis of anatomical sections of wood provides important information for understanding the secondary growth and development of plants. This study reports on a new method for the automatic detection and characterization of cell files in wood images obtained by light microscopy. To facilitate interpretation of the results, reliability coefficients have been determined, which characterize the files, their cells and their respective measurements. † Methods Histological sections and blocks of the gymnosperms Pinus canariensis, P. nigra and Abies alba were used, together with histological sections of the angiosperm mahogany (Swietenia spp.). Samples were scanned microscopically and mosaic images were built up. After initial processing to reduce noise and enhance contrast, cells were identified using a ‘watershed’ algorithm and then cell files were built up by the successive aggregation of cells taken from progressively enlarged neighbouring regions. Cell characteristics such as thickness and size were calculated, and a method was developed to determine the reliability of the measurements relative to manual methods. † Key Results Image analysis using this method can be performed in less than 20 s, which compares with a time of approx. 40 min to produce the same results manually. The results are accompanied by a reliability indicator that can highlight specific configurations of cells and also potentially erroneous data. † Conclusions The method provides a fast, economical and reliable tool for the identification of cell files. The reliability indicator characterizing the files permits quick filtering of data for statistical analysis while also highlighting particular biological configurations present in the wood sections. Key words: Functional–structural plant modelling, image processing, microscopic wood images, radial cell file, reliability coefficients, cellular structure, light microscopy, Pinus canariensis, P. nigra, Abies alba, Swietenia. INTRODUCTION Tree development is the result of both primary growth, involving the elongation and branching of the axes, and secondary growth, consisting of their thickening over time. Many approaches have been developed to study the structural and functional aspects of plants, particularly when used to address issues of carbon sequestration and wood energy. These approaches, however, whether examining secondary growth and its inter- or intra-specific variations, or the relationships between primary and secondary growth, are often based on only fragmentary studies due to the fact that data acquisition is often costly (Rossi et al., 2009). The description of primary growth can be more or less extensive thanks to retrospective approaches (Barthe´le´my and Caraglio, 2007; Krause et al., 2010) while dendrochronological studies are generally performed only on portions of the ligneous plane (coring). Here, the more detailed the observation level, the shorter the part of the ligneous plane described by the data. Secondary growth originates from cambial activity, the source of the wood (xylem), and thus from the different cells that make up the xylem (ligneous plane). The biological typing (Lachaud et al., 1999) of cells can be approached byexamining theirshape, size and spatial distribution, independent of theirorganization. The findings can then beused to determine theanatomicalchangesthat characterizexylem production and differentiation phases (Thibeault-Martel et al., 2008; Gue´don et al., 2013) without truly explaining wood production or growth mechanisms. Indeed, the mechanisms of cambial growth can be understood only by studying cell pattern rhythmicity and cell disruption or modification in space and time. A spatio-evolutionary perspective mustthereforebeintroducedtodiscusstheseissues.Environmental fluctuations and their effects on the differentiation of wood elements (originating from the divisions of cambial cells) require production to be monitored in specific cellular organizations. Here, for the sake of simplicity, we consider two organizations: first, the growth ring that reflects cell production over a given time (Heinrich, 2007) and, secondly, the cell file that reflects the activity of the initial cell over time (Rozenberg et al., 2004). Nicolini et al. (2003) highlighted the importance of secondary growth organization by studying cell motifs, spatial rhythmicity and the variability of successive growth rings to characterize plant space occupation strategies. This approach does not, however, addressthe mechanisms of cell differentiation or the construction of cell motifs and structures, which are time-dependent mechanisms. The precise, dynamic monitoring of cambial # The Author 2014. Published by Oxford University Press on behalf of the Annals of Botany Company. All rights reserved. For Permissions, please email: journals.permissions@oup.com Annals of Botany Page 1 of 12 doi:10.1093/aob/mcu119, available online at www.aob.oxfordjournals.org by guest on July 3, 2014 http://aob.oxfordjournals.org/ Downloaded from production at the initial cells (Rossi et al., 2006; Rathgeber et al., 2011) is technically limited to a small portion of the ligneous plane. Thus, the studyof cell files, which result from cambial production and its local and overall fluctuations, is a promising approach to understanding the establishment, differentiation and temporal rhythmicity of cells (Gindl, 2001). Biological questions concerning interactions between the development and growth of trees under environmental constraints (Moe¨ll and Donaldson, 2001) may be addressed by: (1) determining the contribution made to conduction and storage by the different cell types in the ligneous plane; (2) determining the variability of cell characteristics (vascularization elements, fibres, ray cells, vertical parenchyma); and (3) breaking down this variability by identifying that which can be attributed to ontogeny and that which can be attributed to an environmental response. To interpret and compare internal observations with observations of external morphology, various parts of the plant’s architecture must be studied simultaneously (Barthe´le´my and Caraglio, 2007). In particular, observations should distinguish between the constitutive anatomical features of the plant (i.e. trunk, branch) over time, and generate a sufficiently large sample for the use of statistical tools. However, these biological questions and their associated characterizations are highly constrained due to cumbersome protocols and the difficulties inherent in acquiring large datasets. Indeed, a precise understanding of growth mechanisms and their modelling has mostly been achieved by searching for invariants in large observation samples, thus restoring intra- and interspecies variability. Progress made in the preparation of complete cross-sections of axes for ligneous plane observation from a macroscopic to a microscopic level without using histological sections (polishing), combined with modern image acquisition equipment (stage for programmed movements, vibratome, etc.), today provide access to quality information on broad areas of the ligneous plane. This technology, however, is hampered by its limited ability to manage and process data. Acquiring a slice 10 cm in diameter at × 200 magnification requires a mosaic of about 1000 images. On average, each image contains 500 cells and the manual evaluation of each image requires about 40 min using an image editor (ImageJ, Photoshop). Cellular arrangements are identified by studying several successive rings in several growth units, and here the numberof images required istoo large for manual processing. Usually, counts are made on three files per section (Rossi et al., 2006) to save time and reduce costs. Automating the study of cell files would make it easier to establish tighter links to the functional and ecological aspects of the species by having a better appreciation of the range of phenomena variability. Wood provides a continuous record of all the developmental changes undergone by a tree (ontogeny, the least known) and a record over time of its environment (dendrochronology and dendroclimatology, the most studied). One particular concern with automated methods is the need to assess and quantify the reliability of their results. This means establishing reliability indicators for the results produced. The automated identification of cell structures is one of the new challenges to be met in studies of the structural biology of plants (Quelhas et al., 2011), and requires a multidisciplinary approach. In matters of (bio)-imaging, cell segmentation is a problem that has been widely discussed in the literature (Baggett et al., 2005; Fourcaud et al., 2008). For example, Park and Keller (2001) combined four conventional image analysis approaches to segment cells: watershed algorithm (Vincent and Soille, 1991), snakes (McInerney and Terzopoulos, 1999), multi-resolution analysis (Jeacocke and Lovell, 1994) and dynamic programming. In the specific context of wood, cell segmentation is generally combined with the determination of cell type, i.e. its biological characterization. For example, Wang et al. (2008) and Marcuzzo et al. (2009) sorted cells using the support vector machines (SVM) classification. This is a supervised incremental training method where the major challenge is to create the training data set that is sufficiently representative to recognize the intrinsic variability of individuals. Instudiesofcellularorganization,certainauthorshaveusedgeometric models based on topology. This also provides a description of the cell’s surrounding environment. For example, the studies of Jones and Bishof (1996) and Kennel et al. (2010) were based on a graph that was orientated so as to extract cell files from images of gymnosperms. More specifically, cells are extracted by applying the watershed algorithm to the converted greyscale image. The adjacency graph of the cells is then built from the basin diagram. Cell typing obtained by the supervised classification method (CART; Breiman et al., 1984) can thus be used to extract tracheid alignments from the graph. This method is sensitive to the reinforcement training used to classify biological types. From a technical perspective, the searches we conducted failed to find any software solutions suitable for the automatic identification of cell files. Specialized commercially available tools such as WinCell (Hitz et al., 2008) are intended for use in the analysis of wood cells, but do not recognize or characterize cellular organizations. Users have only limited or no possibility of improving their functions. By contrast, commercial platforms such as Visilog (Travis et al., 1996) offer a rich environment, but are not sufficiently specialized, because although it is possible to create macro functions (by assembling and configuring basic ones), it is impossible to add new basic functions. Open source platforms such as ImageJ (Clair et al., 2007) are an interesting option as their source codes may be enriched by special functions, and specialized macros may be developed. At the same time, they facilitate method sharing and dissemination. It is thus possible to develop new functions for automated processing. We thus preferred this solution for our technical development. In this paper we describe a cell file detection method that is based solely on cell geometry (size and shape), not on biological type, thus avoiding the bias and uncertainty inherent to the creation of reinforcement learning representing biological variability. Reliability indices are employed to determine the accuracy of the results produced for both the geometrical parameters characterizing the cell and its components (lumen and wall), and the identification of cellular alignments. Results are presented from application of the process to real images of wood slices, obtained by a plugin implementation in ImageJ (Schneider et al. 2012), a Java-based image analysis freeware. MATERIALS AND METHODS Study species For the purposes of our study we examined histological sections and blocks of gymnosperms, specifically Pinus canariensis, Page 2 of 12 Brunel et al. — Automatic identification of radial cell files in wood by guest on July 3, 2014 http://aob.oxfordjournals.org/ Downloaded from P. nigra and Abies alba. Results were extrapolated to angiosperms by studying histological sections of Khaya ivorensis. Any detailed studyof cell typology requires an examination on multiple planes. In our study, we therefore considered only three biological cell types: tracheids, which provide support and are the main cells present in the radial cut; vessels; and rays. For each cell we calculated its circularity, height, wall thickness, and surface area of the cell and its lumen. Preparation protocol and microscopy Two preparation methods were evaluated to verify the general applicability of the processing and analytical techniques used. The conventional preparation method for the study of cell files consists of creating a mosaic of histological sections from wood cores. In practice, this approach does not guarantee the juxtaposition of samples or tissue integrity. It is also relatively timeintensive as it takes approx. 1 h to prepare a mosaic of ten stained histological sections. Thus, this protocol is better suited to the study of relatively smaller areas of observation. The study of larger areas relies instead on the observation and measurements of discs of sanded wood. We thus developed a protocol that combined the sanding and polishing of wood discs to facilitate automated measurements on the entire ligneous plane. Thin histological cuts. Producing a single cross-section of 20–25 mm thickness using a vibratome takes approx. 5–15 min depending on the case. The sections are then stained to increase the wall/lumen contrast, with the dye binding to the wall. The cleaningandstainingstepstake 30 min.Thefullprotocoltherefore requires approx. 1 h per cut. This method is able to produce histological section mosaics on several rings, depending on core dimensions. Sanded wood discs. Samples were taken from pine felled in April 2013. Wood discs (about 2.5 cm thick) were cut from the centre of each growth unit. At this stage, it is important, although not always easy, to obtain samples in which the two sides are as parallel as possible. Samples were dried outdoors in the shade, sheltered from the rain, from May to July. A belt sander (Festool BS 105) was then passed over the samples using successively finer grit paper (60, 120 and 220). The following equipment was used for the pre-polishing and polishing steps: a semi-automatic polisher fitted with a 30-cm-diameter magnetic plate (Struers); abrasive discs (Sic foil or paper depending on the grit used); wool polishing cloth (MD MOL); alcohol-based lubricant (DP blue); and diamond spray (spray DP). The discs were placed in the sample holder and fixed with double-sided tape. Disc processing is outlined in Table 1. After the last step, the samples were removed from the holder and rinsed with deionized water. To avoid damage, care was taken not to touch the fragile polished side of the samples. To protect from dust, the samples were wrapped in a laboratory fibre paper. Images were acquired the next day. Scanning. Scanning, which is performed within 24 h of sample preparation, consists of producing a mosaic of images representing the observation area. The time between sample preparation and scanning must be as short as possible such that the natural drying of the wood does not produce microdeformations affecting the uniformity or ‘flatness’ of the surface, thus compromising the sharpness of the images produced. In our study, the transverse planes were scanned byan Olympus DP71 LCD camera mounted on an Olympus BX51 microscope equipped with a movable stage, thus allowing, by gradual movements of the slide, the creation of a mosaic of images. A magnification of × 200 was used to obtain significant cell surfaces while maintaining a large enough study area. The position of the mosaic image is determined by the x and y movements of the stage. Here, the maximum viewing area was 10 × 10 cm2 , corresponding to a mosaic of about 1500 images. Each image was defined by 1600 × 1200 pixels, which were encoded on 3 bytes in the RGB system. The images may be blurred locally or peripherally due to optical distortions or variations in sample thickness. Image analysis The image analysis process followed a three-step sequence, starting with cell identification, then cell geometrical characterization and finally file detection. Cell typing and a determination of the reliability of the results obtained are detailed below. Each image processing step was itself divided into several tasks, as described below. Cell segmentation. This first step aimed to identify the different cells in the original image. It was divided into three tasks: image noise reduction preprocessing, contrast enhancement by filtering and colour to greyscale conversion, and cell identification from basins generated by the watershed algorithm. Image noise reduction. At the magnifications used, the images acquired showed ‘salt and pepper’-type noise, caused by heat from the lamp. This noise was attenuated using a median filter applied on a 5 × 5-pixel neighbourhood. TABLE 1. Sanded wood discs protocol. Step 1 Step 2 Step 3 Step 4 Step 5 Step 6 Abrasive type Sic Foil 320 Sic Foil 500 Sic Foil 800 Sic Foil 1200 Sic paper 4000 MD MOL Disc rotation (r.p.m.) 150 150 150 150 150 150 Rotating sample holder 150 150 150 150 150 150 Direction of rotation ≫≫≫≫ ≫ ≫ Vertical force (N) 120 120 120 120 120 120 Duration of step (min) 2 2 2 2 2 5 Liquid lubricant Water Water Water Water Water DP blue Abrasive product DP spray P3 Brunel et al. — Automatic identification of radial cell files in wood Page 3 of 12 by guest on July 3, 2014 http://aob.oxfordjournals.org/ Downloaded from Contrast enhancement. The micrographs showed alternating light areas, corresponding to the lumen, and dark areas, corresponding to the wall. To enhance the contrast between different areas in the image and highlight the walls and lumens, we used a Difference of Gaussian (DoG) operator (Haddad and Akansu, 1991). This filter acts as a band-pass, only letting through the frequency range corresponding to the lumen and filtering out the noise present at higher frequencies. The first image was built from a slightly blurred Gaussian filter application with smoothing factor being selected close to average wall size. The second imagewas built from a heavily blurred Gaussian filterapplication with smoothing factor tenfold that used for the first image. The heavily blurred image was then subtracted from the slightly blurred image. These operations were performed on colouir images, with negative values being set to zero. This process boosts the intensity of the lumen while substantially reducing wall intensities. From colour to greyscale images. The choice of colour system is an important aspect of colour image processing. Several studies have shown that the ‘best system’ depends on image contents (Busin et al., 2009). For our study, we preferred the RGB system in which colours correspond to the wavelengths that stimulate the three cones of the human eye. This system can define all the hues but not all the saturations. However, if the watershed algorithm is to be applied, a colour to greyscale image conversion is required, given that our intention was to avoid basing automated processing on human perception. Instead to use the relative luminance formula, which give less weight to blue and moreweight to red and green components, we preferred to apply a simple average of the three colour channels. Cell extraction and identification. Cell extraction from the grayscale imagewas based on thewatershed algorithm. This powerful algorithm (Vincent and Soille, 1991) considers the image as a landscape, with altitude is given by grey values. Here, the lower points in the topographic relief, corresponding to dark regions, act as catchment basins (as if a drop of water were to fall onto the topography) and are separated by a watershed, represented by the lighter pixels. These catchment basins are thus obtained from a partition of the image. The crest lines constitute the intercellular border, corresponding to the middle lamella (Fig. 1C). The watershed algorithm is known to produce an exaggerated partitioning, resulting in lines that abnormally intersect cells. This phenomenon is due to the fact that each local minimum in the image produces a potential catchment basin. Typically, two methods are used to reduce or even eliminate the exaggerated partitioning: a priori filtering of the local minima values (Gilmore and Kelley, 1995) used to initialize the watershed, or a posteriori merging of similar adjacent basins in terms of both mean and minimal intensity (Beucher, 2012). Neither method guarantees perfect cleaning of the watershed lines. Here, we propose a method based on the biological observation that the lumen of the cell is empty. Hence, if a watershed line crossing a lumen shows a characteristic intensity profile whose overall maximum is greater than athreshold experimentally set from average lumen values, then it will be deleted. Conversely, a watershed line near the middle lamella contains only values below the low-intensity threshold (Brunel et al., 2012). After cleaning the watershed. An adjacency graph of the basins was used to describe the neighbouring relationships between the different basins. This is a simple graph conventionally defined by a set of vertices and a set of edges. More precisely, each edge of the graph connects the geometric centres of two neighbouring basins, i.e. incidents at the same crest line. Geometric properties at the cell scale. Each cell was then individualized. Cells are composed of two anatomical structures: the wall and the lumen. On the original colour image, these structures are automatically divided into two classes by an unsupervised two-means classification algorithm (Forgy, 1965), also equivalent to Otsu’s thresholding operator. The bright pixels class corresponds to the lumen and the dark pixels class to the wall. Surface areas are calculated simply by counting the pixels in each class. Cell geometrical properties at larger scales: the global cell arrangement orientation. When considering a basin in the adjacency graph, it can be seen that the cells are arranged in a staggered manner, and the edges of the graph are orientated in three directions. At the full graph scale, the most frequent orientation corresponds to the cellular alignments. This is defined as the main direction. We will use the method originally described by Jones and Bishof (1996) and reused by Brunel et al. (2012), studying the distribution (via a histogram) of the angle that each edge of the adjacency graph forms with the horizontal. In theory, due to the arrangement of the cells, the distribution should be trimodal and show at least one marked amplitude mode. The mode of the greatest amplitude indicates the most represented orientation in the adjacency graph, i.e. the main A B C D FI G. 1. Cell individualization for a Mahogany cross section. (A) Native image. (B) Watershed segmentation results with crest lines (in green) crossing the lumen. (C) cleaned watershed image with crest lines replaced by curvilinear edges (in yellow). The edges correspond to the middle lamella while the geometric centre of the watershed (extra points in yellow) correspond to the biological cells. (D) Dual watershed image, in which the red lines connect each cell centre with its neighbours (adjacency graph). Note that the degree of connections is greater than 4, showing the staggered pattern of the cells. Page 4 of 12 Brunel et al. — Automatic identification of radial cell files in wood by guest on July 3, 2014 http://aob.oxfordjournals.org/ Downloaded from orientation of the files (Fig. 2). This mode is retrieved by searching the histogram maximum amplitude. File detection The process used to identify cell files in an image is based on the following assumptions: (1) files are pair-wise alignments of similar cells (in terms of size and shape) and (2) cell alignments are independent of the orientation of the image. File identification is based on a double scale constructive approach, applied to the adjacency graph. The first step builds cell alignments, i.e. candidate cell files under spatial and geometric constraints. The second step manages the case of alignment recoveries. Finally, the resulting isolated alignments are linked to build cell file fusions. (1) Building alignments by applying spatial and geometric constraints. This task extracts the longer rectilinear straight paths of ‘geometrically similar’ vertices from the adjacency graph. In other words, it detects a vertex sequence along which the surface of the underlying basin varies gradually. These alignments are constructed step bystep, bysuccessive aggregations of vertices. More specifically, it means finding which vertex w of the graph must be added at the end of the v line under construction to complete it. The angulation (direction) constraint. Let us define the vertex neighborhood Nk(vi) of rank k as the set of vertices located at a geodesic distance k from vertex vi. Let us then define the angulation A(vi,w) as the angle defined from the complement to 1808 of (vi21, vi, w) where vi and vi21 are the last two vertices of the built alignment and w is the candidate vertex. The angulation can be used to choose the best candidate w that minimizes the angular offset from the reference direction, i.e. the current cell alignment. In no cases may this angle be greater than a threshold which is given by a decreasing linear function (to 358 at 108) that itself is dependent upon the geodesic distance. For the first two file cells the angulation value is defining according to the main orientation. The vertex solution w is selected from among the wk vertices of the Nk(vi) set and is the vertex most geometrically similar and nearest to the file axis. In fact, for a given geodesic distance k, at most two vertex candidates are considered, i.e. the two closest vertices (wa and wb) lying on either side of the axis formed by the last two geometric centres of the cells of the file under construction (Fig. 3). The geometrical similarity constraint. The candidate most geometrically similar to vertex vi is retained. The geometrical comparison is performed based on their mutual underlying basins. Let GSpq be the geometric similarity index between two vertices p and q that is given by the normalized difference between the surface areas Sp and Sq GSpq = |Sp − Sq| (Sp+Sq) (1) The more the index tends toward 0, the more similar the cell surface areas. This index is particularly well suited to softwoods in which the shape and surface area of the tracheid varies very little. For angiosperms, the index is a good indicator of rough size ruptures while permitting continuous and progressive surface area variations. In practice, if the smallest GSpq value is lower than 0.5, the candidate is assigned to the current alignment. If the geometric similarity index of the vertices is greater than 0.5, the candidate is 20 0 40 60 80 100 120 140 160 180 A B 0 –90 –45 0 Angle (°) 45 90 50 100 150 Frequency Frequency 200 FI G. 2. Histograms showing the angle distribution on the full adjacency graph; each angle is defined by an adjacency graph edge direction on the x axis. (A) The main mode centred on 08 corresponds to horizontal files. (B) The main mode is split on the [–908, +908] interval borders. Main orientation Vi –1 Vi k = 2 k = 1 Wa Wb Wc Wd FI G. 3. The angulation (direction) constraint. The red dashed line correspondsto the file axis. The vertices (vi21, vi) define the current alignment. The blue and green dashed line boxes show the study neighbourhood at different ranks. Cells wa and wb are the candidates located at a geodesic distance of 1. Vertex wd is not considered because it is above the angular threshold (blue line) and vertex wc is not considered because vertex wb is closer to the file axis. Brunel et al. — Automatic identification of radial cell files in wood Page 5 of 12 by guest on July 3, 2014 http://aob.oxfordjournals.org/ Downloaded from rejected, the geodesic distance k is incremented and the process is repeated. The neighbourhood explored is progressively enlarged to a geodesic width of 5, at which point the construction of the alignment stops. This neighbourhood width was an experimental limit set arbitrarily by the wood anatomists involved in the project. Before validating the alignment as a cell file section, a feedback control test is applied as the construction process should be reversible. This feedback uses the main orientation of the file as a reference to reduce file drift. When a vertex w is chosen, a check is performed that the reciprocal is true, i.e. that we obtain current vertex v when falling back from vertex w using the main orientation of the files as a directional reference. If reciprocity is not confirmed, the construction of the file stops. If it is confirmed, the vertices located on the shortest path linking v to w are added to the cell alignment by the Dijsktra algorithm (Cormen et al., 2001). The criteria employed are described in the next section. Finally, vertex w becomes the new extremity of the alignment and the search process is repeated until the alignment construction stops. Once stopped, the detected alignment builds a candidate cell file. The two next steps (recovery management and fusion) then concern the cell file level. (2) Managing recoveries. During construction, some vertices may be assigned to multiple files due to the presence of biological organizations (vessels and channels) that disrupt the staggered arrangement. The assignation of these vertices to the most optimal file is solved by the shortest path search algorithm in the adjacency graph. The Euclidean distance between the geometrical centres of the watershed basin is used as a criterion. This distance sums the angle and shape considered in file building. The greater the angular deviation, the greater the Euclidean distance. The greater the size difference between successive cells, the greater the Euclidean distance. The shortest path in terms of Euclidean distance corresponds to the best alignment. As above, we use the Dijsktra algorithm here, and the corresponding vertices are then removed from the other files, which will be fractionated. (3) Linking isolated cell file sections. Due to the presence of intrusions, cell tears or limitations of the watershed algorithm, the file identification process may cause isolated file sections to appear (Fig. 4). Here, merging can be used to concentrate several parts of the files using simple topological rules to establish whole files, based on file adjacency (Brunel et al., 2012). Let us assume that two files are adjacent when two of their cells are adjacent. The merging process isthen based on two furtherassumptions: (1) each file crosses the image from one side to the other and (2) the files do not intersect. A file section does not fulfil the first assumption, i.e. one or both tip(s) do(es) not match with the underlying image border. From those assumptions, we deduce a property resulting from file adjacency. Given two file sections T2 and T2′ adjacent to files F1 and F3, it is highly likely that T2 and T2′ are two parts of a single F2 file. In other words, T2 and T2′ are located between F1 and F2. Note that, under the exposed assumptions, restricted cases of file merging concern only sections between two lines crossing the image from side to side. In other cases, it was decided to leave the situation at the expert’s discretion and evaluation. This method creates files or sections of files with high con- fidence (Fig. 5, right). Note that isolated cells or artefacts (due to segmentation errors or to poor image resolution preventing an acceptable segmentation) cannot be part of any file and no attempt is made to connect them to a file. Complex cases are left to the discretion of the user. Typing Cell typing is the ultimate step as used to classify the different cells present (fibrous, tracheids, vessels, rays, etc.). It is based on the geometric and densitometric characterization of the catchment basins associated with the cells’ adjacency graph vertices. Unlike Kennel et al. (2010), we decided to discard supervised classification due to the difficulties encountered in providing reinforcement training that is both sufficiently complete and representative of biological variability. A decision tree (Fig. 6) was established with wood anatomists and is based on the following observations that are sequentially tested: (1) The perimeter of the cells, denoted P, can be used to differentiate ‘large’ structures from generally ‘small’ cells. (2) The circularity coefficient (Zunic and Hirota, 2008) is given by a weighted ratio between the surface area and the squared perimeter –4p (area/perimeter2 ). Circularity ranges between 0.0 and 1.0: the circularity of a circle is 1, and is far less than for a starfish footprint. Values may not be valid for very small particles due to the definition of perimeter and area in a square grid. The thresholds used in the decision tree are re-evaluated for each image by automated classification of their numerical values. The classifier used is an implementation of two-means clustering. This conventional data mining method consists of A B FI G. 4. Linking isolated sections. (A) Result of linkage processing without connection. (B) Result with connection. One colour is used per file. Page 6 of 12 Brunel et al. — Automatic identification of radial cell files in wood by guest on July 3, 2014 http://aob.oxfordjournals.org/ Downloaded from FI G. 5. Left. The native image; the images show different the preparations (sanded wood and stained histology sections), species (Pinus, fir, Pinus, mahogany) and clades (gymnosperm and angiosperm) that were processed. Right. Automatic identification of cell files; random colouring is used to enhance the visibility of the identified files (these colours should not to be confused with the reliability index colour). Brunel et al. — Automatic identification of radial cell files in wood Page 7 of 12 by guest on July 3, 2014 http://aob.oxfordjournals.org/ Downloaded from allocating n observations in two clusters to minimize the intraand maximize inter-class standard deviation. The threshold is therefore assigned by the median value between the upper bound of the weakest group and the lower bound of the strongest group. Beyond the identification of alignments and biological typing, the anatomist requires a set of numerical results characterizing the shape, size and nature of more or less complex biological structures (walls, lumen, cells, files, etc.). These characteristics are defined by parameters that are automatically evaluated. In the context of mass processing, it is advantageous to be able to qualify the accuracy of these evaluations. A certainty index is thus assigned to each one calculated, whether it focuses on the cells, their components or their alignments. Reliability Intuitively, the computed measures will be more or less close to the true value depending on the cumulative errors stemming from image quality, biological configuration and algorithmic approximations. It is therefore important to assign each result a reliability estimation. A file f must be sufficiently long to be significant; its length Lf must be greater than threshold L. L is defined from the length Lf distribution analysis. For each image the threshold is re-evaluated to reflect the biological characteristics inherent to each of them as a file must be composed of similar cells in terms of shape, size and appearance. For the sake of simplicity, these three criteria are reduced to the single height of cells defined from all points in the normal direction of the file. This simplification stems from the maturation mechanism of tracheids, for which cell variations only concern cell extension, not thickening. Clearly, this mechanism cannot be applied to broadleaved trees, but in practice this single criterion appears to be sufficient to characterize the continuous variation observed in the cell files of broadleaved trees. As a result, the heights H and Hj+1 of consecutive cells in file f are compared. The reliability coefficient Rf of file f is described by a product of standardized terms ranging from 0 to 1. Rf = 1 − max L − Lf L , 0 n−1 j=0 1 − |Hj − Hj+1| Hj + Hj+1 (2) The closer the coefficient to 1, the more reliable file f. By analogy, we can determine reliability coefficients for the geometrical parameters that characterize file cells. The expression for this coefficient will depend on the nature of each parameter and more specifically on the factors influencing that parameter. The surface area of the basin is independent of local image blur because it is obtained by watershed segmentation, while the surface area of the lumen is highly sensitive to local image blur because it is obtained by an intensity classification. The reliability coefficient for the lumen is therefore directly related to blur level. Ladjal (2006) defined a blur indicator that characterizes the spread of maximum intensity amplitudes, i.e. the speed at which the signal passes from the lowest to the highest intensity. This is defined by the following expression where p(x) shows the pixel intensity of a basin and p′ (x) the variance. ℑ( p) = maxx[Rp(x) − minx[Rp(x) maxx[R| p′ (x)| = amplitude(I) max(|∇I|) (3) When the coefficient is high, blur is strong. The reliability coef- ficient for lumen surface area (Ils) is defined below where threshold Ts is defined by studying lumen variation using a Gaussian blur. Surface areas above the threshold are not significant. Ils = 0 if ℑ( p) . Ts 1 − ℑ( p) Ts else ⎧ ⎨ ⎩ (4) Note that the accuracy of the surface areas and circularities are sensitive to the size of the objects measured; for example, the circularity of a discrete circle (Andre`s, 1994) is meaningful only above 10 pixel rays. Parameter computation Our method produces several layers of results corresponding to different observation levels: (1) radial files are classified according to their length and their cellular self-similarity, (2) cells are characterized by geometric size, diameter, shape, etc., and (3) cell components (wall, lumen) are characterized by geometric parameters (size, thickness, diameter, etc.). The method has been implemented in Java and integrated as a plug-in for ImageJ freeware. As an indication, the plug-in allows images consisting of 1600 × 1200 pixels to be processed in less than 20 s on a computer with an Intel Q720 processor clocked at 1.6 GHz. RESULTS AND DISCUSSION The study described herein aimed to compare the results produced by our method with those in an expert database containing 12 images whose cells had been manually cropped by wood anatomists. Our results were obtained without any specific user settings (Fig. 5): all parameters were automatically re-evaluated by the application based on the intensity histogram generated foreach image. The different tests conducted allowed usto evaluate the limitations of our method, namely with regard to different biological contexts, different preparation protocols, and diverse and varied acquisition conditions. The tests were essentially Fibre Yes No Ray Vessel TC > Ccell TP>Pcell Yes No FI G. 6. Decision Tree.Tp correspondsto the threshold of the perimeterandTc the threshold of circularity. The thresholds are automatically rated by a two-means clustering applied to all values from the image. Only cells with a lumen are processed by the decision tree. Page 8 of 12 Brunel et al. — Automatic identification of radial cell files in wood by guest on July 3, 2014 http://aob.oxfordjournals.org/ Downloaded from Int´egration et exploitation de besoins en entreprise ´etendue fond´ees sur la s´emantique Ilyes Boukhari To cite this version: Ilyes Boukhari. Int´egration et exploitation de besoins en entreprise ´etendue fond´ees sur la s´emantique. Other. ISAE-ENSMA Ecole Nationale Sup´erieure de M´ecanique et d’A´erotechique - Poitiers, 2014. French. . HAL Id: tel-00942081 https://tel.archives-ouvertes.fr/tel-00942081 Submitted on 4 Feb 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.Ecole Nationale Supérieure de Mécanique et d’Aérotechnique Laboratoire d’Informatique et d’Automatique pour les Systèmes THESE pour l’obtention du Grade de DOCTEUR DE L'ÉCOLE NATIONALE SUPÉRIEURE DE MÉCANIQUE ET D'AEROTECHNIQUE (Diplôme National — Arrêté du 7 août 2006) Ecole Doctorale : Sciences et Ingénierie pour l'Information, Mathématiques Secteur de Recherche : INFORMATIQUE ET APPLICATIONS Présentée par : Ilyès BOUKHARI ******************************************************* Intégration et exploitation de besoins en entreprise étendue fondées sur la sémantique ******************************************************* Directeurs de Thèse : Ladjel BELLATRECHE et Stéphane JEAN Soutenue le 14 Janvier 2014 devant la Commission d’Examen Rapporteurs : Bernard ESPINASSE Professeur, Université d’Aix-Marseille, Marseille Jérôme GENSEL Professeur, LIG, Grenoble Examinateurs : Yamine AIT AMEUR Professeur, ENSEEIHT, Toulouse Omar BOUSSAID Professeur, ERIC, Université Lyon 2 Hendrik DECKER Professeur, Instituto Tecnológico de Informática, Valencia Dominique MERY Professeur, LORIA, Nancy Ladjel BELLATRECHE Professeur, ISAE-ENSMA, Poitiers Stéphane JEAN Maître de conférences, Université de Poitiers JURYRemerciements Je remercie avant tout, ALLAH tout puissant qui m’a donné la volonté et la patience pour accomplir ce travail. Mes remerciements les plus sincères s’adressent à : Ladjel BELLATRECHE, mon directeur de thèse, pour m’avoir guidée pendant les trois années de thèse. Je le remercie pour la confiance qu’il m’a témoignée, pour ca disponibilité, pour ses précieuses orientations, pour sa passion pour la recherche et pour son soutien aussi bien sur le plan humain que scientifique; Stéphane JEAN, mon co-directeur de thèse, pour m’avoir conseiller tout au long de ma thèse; Yamine AIT AMEUR et Emmanuel GROLLEAU, directeurs du LISI et du LIAS, pour m’avoir accueillie au sein du laboratoire; Jérôme GENSEL et Bernard ESPINASSE de m’avoir fait l’honneur d’être rapporteurs de cette thèse et à qui je souhaite exprimer ma profonde reconnaissance; Dominique MERY, Omar BOUSSAID, Hendrik DECKER et Yamine AIT AMEUR pour avoir accepté d’être membres du jury en tant qu’examinateurs. Je suis très honorée de l’intérêt qu’ils ont porté à mes travaux; Tout le personnel du LIAS pour leur présence et leur soutien cordial. Je pense en particulier à Laurent GUITTET, Zoe FAGET, Michaël BARON, Allel HADJALI, Frédéric CARREAU et Claudine RAULT. Tous les membres du LIAS et particulièrement Ahcene BOUKORCA, Selma BOUARAR, Selma KHOURI, Yassine OUHAMMOU, Amira KERKAD, Chedlia CHAKROUN, Soraya CHACHOUA, Youness BAZHAR, Samia BOULKRINAT,Zahira, Soumia BENKRID, Thomas LACHAUME, etc; Mes amis et collègues Salim, Walid, Tarek, Fateh Ahcene, Messaoud, Lotfi, Mohamed, Yassine, Nourddine, Abdelghani, Zakaria, Zouhir, Nadir, Okba, Moncef, Issam, Lassad, Idir, etc.; Enfin et surtout à ma famille et particulièrement à mes parents, ma femme, mes enfants, mes deux frères Billel et Zakaria, mes sœurs Ahlem, Liela, Hadjer et Maroua pour leur soutien sans faille.Je leur dédie cette thèse. iiiA mon Algérie bien-aimée. Mes parents, Ma grand-mère Ma femme Amina, Mes enfants (Youcef et Ayoub), Mes sœurs et mes frères, vTable des matières Chapitre 1 Introduction générale 1 1 Contexte et problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.1 Nombre croissant de partenaires . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2 Hétérogénéité des vocabulaires . . . . . . . . . . . . . . . . . . . . . . . . 4 1.3 Hétérogénéité des langages de modélisation des besoins . . . . . . . . . . . 7 1.4 Exigence des relations complexes entre les besoins . . . . . . . . . . . . . . 7 1.5 Évolution des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2 Notre Démarche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 3 Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 4 Organisation du mémoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Partie I État de l’art Chapitre 2 L’expression des besoins : un état de l’art 17 1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 viiTable des matières 3 Processus d’ingénierie des Besoins . . . . . . . . . . . . . . . . . . . . . . . . . . 24 4 Langages de modélisation des besoins . . . . . . . . . . . . . . . . . . . . . . . . . 26 4.1 Langages informels (langage naturel) . . . . . . . . . . . . . . . . . . . . . 26 4.2 Langages semi-formels . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 4.3 Langages formels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 5 Approches et méthodes pour l’expression des besoins . . . . . . . . . . . . . . . . 29 5.1 Approches dirigées par les buts . . . . . . . . . . . . . . . . . . . . . . . . 29 5.1.1 GQM : Goal Question Metric . . . . . . . . . . . . . . . . . . . 30 5.1.2 KAOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 5.1.3 iStar (i*) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 5.2 Approches à base de scénarii . . . . . . . . . . . . . . . . . . . . . . . . . 33 5.3 Approches basées sur les automates et réseaux de Petri . . . . . . . . . . . 35 6 Problématiques liées à l’expression des besoins . . . . . . . . . . . . . . . . . . . . 37 7 État des lieux sur l’intégration et l’analyse des besoins . . . . . . . . . . . . . . . . 37 7.1 L’intégration des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 7.1.1 Exemples d’approches dirigées par des méthodes issues de la logique mathématique . . . . . . . . . . . . . . . . . . . . . . . . 37 7.1.2 Approches dirigées par IDM . . . . . . . . . . . . . . . . . . . . 38 7.2 L’analyse des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 7.3 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 Chapitre 3 Les ontologies au service de l’Ingénierie des Besoins 43 1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 2 Ontologies de domaine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 2.1 Définitions et caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . 45 2.2 Une taxonomies des ontologies de domaine . . . . . . . . . . . . . . . . . . 46 2.2.1 Les Ontologies Linguistiques (OL) . . . . . . . . . . . . . . . . . 47 2.2.2 Les Ontologies Conceptuelles (OC) . . . . . . . . . . . . . . . . 47 viii2.3 Les langages de définitions des ontologies . . . . . . . . . . . . . . . . . . 48 2.3.1 Langages orientés gestion et échange de données . . . . . . . . . 48 2.3.2 Langages orientés inférence . . . . . . . . . . . . . . . . . . . . 50 2.4 Les éditeurs d’ontologies . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 2.5 Représentation formelle d’une ontologie . . . . . . . . . . . . . . . . . . . 53 3 Ontologies et l’intégration : application aux sources de données hétérogènes . . . . 54 3.1 Intégration sémantique a posteriori . . . . . . . . . . . . . . . . . . . . . . 54 3.2 Intégration sémantique a priori . . . . . . . . . . . . . . . . . . . . . . . . 56 4 Les ontologies dans l’IB : état de l’art . . . . . . . . . . . . . . . . . . . . . . . . . 57 4.1 L’analyse des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 4.2 L’intégration des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 4.3 Ontologies, besoins et le cycle de vie de conception . . . . . . . . . . . . . 60 4.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 Partie II Contributions Chapitre 4 Unification des vocabulaires et des langages de modélisation des besoins 65 1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 2 Nos hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 3 Unification des vocabulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 3.1 Étude de cas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 3.1.1 Le modèle Orienté buts . . . . . . . . . . . . . . . . . . . . . . . 70 3.1.2 Le modèle des cas d’utilisation . . . . . . . . . . . . . . . . . . . 72 3.1.3 Le Modèle Conceptuel de Traitements (MCT) . . . . . . . . . . . 73 ixTable des matières 3.2 Couplage des modèles utilisés avec l’ontologie . . . . . . . . . . . . . . . . 76 3.2.1 Méta-modèle de l’ontologie partagée . . . . . . . . . . . . . . . . 76 3.2.2 Couplage des trois langages proposés avec les ontologies locales . 77 4 Unification des langages de modélisation des besoins . . . . . . . . . . . . . . . . . 81 4.1 Proposition d’un modèle pivot des besoins . . . . . . . . . . . . . . . . . . 82 4.2 Couplage de modèle pivot à l’ontologie . . . . . . . . . . . . . . . . . . . . 83 5 Un exemple d’utilisation de notre méthode d’intégration . . . . . . . . . . . . . . . 85 6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 Chapitre 5 Vers une Fusion de méta-modèles des langages de modélisation des besoins 89 1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 2 Fusion des méta modèles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 3 Connexion du méta-modèle générique avec l’ontologie . . . . . . . . . . . . . . . . 93 4 Raisonnement sur les besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 4.1 Scénarii de raisonnement . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 4.1.1 Scénario 1 : ship whole . . . . . . . . . . . . . . . . . . . . . . . 96 4.1.2 Scénario 2 : reason as needed . . . . . . . . . . . . . . . . . . . 97 4.2 Étude de cas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 4.3 Relations sémantiques entre les besoins : Définition & Formalisation . . . . 99 4.4 Évaluation du processus de raisonnement . . . . . . . . . . . . . . . . . . . 102 5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 Chapitre 6 Exploitation des besoins pour la conception physique 105 1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 2 La conception physique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 3 Conception physique dirigée par les besoins . . . . . . . . . . . . . . . . . . . . . 109 3.1 La sélection des index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 3.2 La fragmentation horizontale . . . . . . . . . . . . . . . . . . . . . . . . . 111 4 Persistance des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 4.1 Le langage d’exploitation OntoQL . . . . . . . . . . . . . . . . . . . . . . 112 x4.2 Persistance des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 4.3 Génération des requêtes SQL . . . . . . . . . . . . . . . . . . . . . . . . . 114 5 Expérimentation et évaluation de notre proposition . . . . . . . . . . . . . . . . . . 116 5.1 Structures d’optimisation comme des services . . . . . . . . . . . . . . . . 116 5.2 La sélection des index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 5.3 La fragmentation horizontale . . . . . . . . . . . . . . . . . . . . . . . . . 117 6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 Chapitre 7 Prototype de validation 121 1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 1.1 Langages et outils utilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 2 Architecture fonctionnelle de OntoReqTool . . . . . . . . . . . . . . . . . . . . . . 123 2.1 Les modules de la partie intégration . . . . . . . . . . . . . . . . . . . . . . 123 2.2 Les modules de la phase d’exploitation . . . . . . . . . . . . . . . . . . . . 127 3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 Chapitre 8 Conclusion générale 133 1 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 1.1 Bilan des contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 2 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 2.1 Autres langages de modélisation des besoins . . . . . . . . . . . . . . . . . 136 2.2 Etude du passage à l’échelle de nos propositions . . . . . . . . . . . . . . . 137 2.3 Définition des architectures d’intégration . . . . . . . . . . . . . . . . . . . 137 2.4 Prise en compte de l’évolution . . . . . . . . . . . . . . . . . . . . . . . . 137 2.5 Elaboration d’un cycle de vie de conception d’applications avancées . . . . 137 Bibliographie 139 Annexes 149 Table des figures 155 xiTable des matières Liste des tableaux 159 Glossaire 161 xiiChapitre 1 Introduction générale Sommaire 1 Contexte et problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 2 Notre Démarche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 3 Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 4 Organisation du mémoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 11. Contexte et problématique 1 Contexte et problématique L’une des conséquences de la mondialisation est la multiplication des entreprises étendues. Une entreprise étendue est caractérisée par un nombre important de sous-entreprises et/ou des sous-traitants. Nous pouvons citer l’exemple de l’entreprise Airbus qui implique quatre sites dans différents pays : Hambourg (Allemagne), Filton (Angleterre), Toulouse (France) et Madrid (Espagne). Chaque site possède un nombre important de départements et de services. Pour développer un système ou une application complexe dans une telle entreprise, plusieurs acteurs qui n’utilisent pas le même vocabulaire, voir le même langage, sont impliqués. Pour faciliter leur travail, des solutions d’intégration pourraient être utilisées tout en omettant les barrières fonctionnelles, organisationnelles, technologiques et culturelles. Rappelons qu’un système d’intégration consiste à fournir une interface unique, uniforme et transparente aux objets concernés par le processus d’intégration. Ces derniers peuvent être des données, des applications, des plateformes, etc. via un schéma global qui peut être localisé dans un médiateur [125] ou un entrepôt de données [82]. Les solutions d’intégration permettent aux entreprises qui les utilisent : (i) d’augmenter le pouvoir décisionnel de l’entreprise étendue. Par exemple, plusieurs entreprises ayant développé des entrepôts de données (un cas particulier des systèmes d’intégration de données) ont qualifié ce projet de succès story. On peut citer l’exemple de l’entreprise Coca Cola, Wal-mart 1 et le groupe français Casino 2 , (ii) de réduire les coût de traitement en partageant les ressources (par exemple, la puissance de calcul), (iii) d’identifier les activités redondantes qui pourraient être traitées dans certaines entreprises partenaires. Cette identification permet de réduire les coûts de développement ce qui est particulièrement important en période de crise économique. Si nous reprenons notre exemple d’Airbus, pour faire face aux problèmes de retard dans le programme de l’avion A380, cette entreprise a lancé le projet Power 8 en 2007 qui a permis entre autre d’identifier les activités redondantes dans certains services délocalisés, et (iv) d’augmenter de la compétitivité de l’entreprise. Depuis deux décennies, de nombreux travaux académiques liés à l’intégration ont été développés. Ils concernent plusieurs volets : (i) l’intégration des données (Entreprise Information Integration (EII)), (ii) les applications (Entreprise Application Integration (EAI)) et (iii) les plateformes. Une véritable industrie autour des systèmes d’intégration a été créée [46, 63] et plusieurs entreprises proposent des solutions d’intégration. Parmi les trois volets citées et illustrées sur la figure 1.1, l’intégration des données occupe une place prépondérante. Elle est en effet un enjeu important, comme l’indiquait Alon Halevy et al. dans son article intitulé : Data Integration : The Teenage Years, qui a eu le prix 10 Year Best Paper Award à la conférence Very Large Databases (VLDB’2006). En analysant les dimensions concernées par l’intégration, nous avons identifié l’absence des besoins des utilisateurs. Cependant, un nombre important d’études a montré que les échecs dans la mise en œuvre et l’exploitation des projets informatiques sont souvent dus à une mauvaise compréhension des besoins ainsi qu’à des incohérences, et des ambiguïtés de leurs définitions [1, 4, 57, 87]. Les besoins peuvent également contribuer à l’identification des activités redondantes. Rappelons que plusieurs approches de conception des applications avancées sont censées être centrées utilisateur. Cette approche consiste à considérer les utilisateurs et leurs besoins tout au long du processus de développement d’applications informatiques. Parmi les systèmes concernés par cette approche, nous pouvons citer les base de données 1. Computer Business Review, October 1996 2. http://www.lsis.org/espinasseb/Supports/DWDM-2013/2-Intro-Entrepots-2013.pdf 3Chapitre 1. Introduction générale Systèmes Réseaux SGBD Business Process EAI BD Fédérées EII Standards J2EE Web Services Intégration d’applications Intégration de données Intégration de plateformes Systèmes Réseaux SGBD Business Process EAI BD Fédérées EII Standards J2EE Web Services Intégration d’applications Intégration de données Intégration de plateformes Figure 1.1 – Différents niveaux d’intégration [50]. [115], les entrepôts de données connu sous le nom d’approche orientée besoins [111], les systèmes d’intégration des données [54], et les interfaces homme machines [10]. Dans ce travail, nous nous sommes concentrés sur les entrepôts de données. La plupart des études de conception des systèmes de gestion de données, élaborées selon une approche centrée utilisateur, supposent l’intervention des concepteurs homogènes. Par homogène, nous entendons que les concepteurs impliqués dans le processus de construction de la base/entrepôt de données ou le système d’intégration utilisent le même langage de modélisation des besoins et le même vocabulaire pour modéliser leurs besoins. Nous appelons ce scénario 1-vocabulaire-1-langage de modélisation. Dans le contexte d’une entreprise étendue, les besoins peuvent parvenir d’acteurs hétérogènes, ce qui rend leur définition et exploitation difficiles. Cette difficulté est due à plusieurs facteurs : (1) le nombre croissant de partenaires, (2) la diversité (hétérogénéité) des vocabulaires d’expression de besoins, (3) l’hétérogénéité des langages de modélisation des besoins, (4) la présence de relations complexes entre les besoins et (5) l’évolution des besoins. Ces facteurs peuvent être détaillés comme suit. 1.1 Nombre croissant de partenaires La fabrication d’une application complexe consommatrice de données nécessite souvent sa décomposition en un nombre important de modules (sous-systèmes), chacun géré par une sous-entreprise ou un sous-traitant particulier. Cela fait naître un besoin d’automatisation du processus d’intégration des besoins. 1.2 Hétérogénéité des vocabulaires Souvent chaque collecteur de besoins utilise son propre vocabulaire pour exprimer ses besoins, ce qui peut générer des conflits syntaxiques et sémantiques. L’hétérogénéité syntaxique provient du fait que les collecteurs de besoins utilisent des terminologies qui leur sont propres. En effet, les propriétaires de sous-systèmes sont souvent autonomes et chacun a 41. Contexte et problématique ses habitudes de travail et ses méthodes de recueil des besoins. Cette autonomie fait augmenter cette hétérogénéité d’une manière significative. Elle est similaire à celle identifiée dans les contextes des bases de données fédérées et des multi-bases de données. L’hétérogénéité sémantique par contre, présente un défi majeur dans le processus d’élaboration d’un système d’intégration. Elle est due aux différentes interprétations des objets du monde réel. En effet, chaque collecteur de besoins peut avoir un point de vue différent sur le même concept. Dans [54], quatre types de conflits ont été identifiés: (i) conflits de représentation, (ii) conflits de noms, (iii) conflits de contexte et (iv) conflits de mesure de valeur. – Conflits de représentation : ce type de conflit survient lorsqu’un même type de données est modé- lisé différemment, c’est-à-dire par des propriétés différentes ou des schémas différents (le nombre de classes et de propriétés représentant un concept n’est pas le même entre deux sources). A noter que la richesse d’un modèle de données augmente la probabilité d’occurrence de ces conflits. – Conflits de noms : nous distinguons les deux sortes de conflits de noms suivants. – Même nom d’entité avec des significations différentes (homonymie) : ce conflit apparaît lorsque différents schémas utilisent des noms identiques pour des concepts différents. – Noms différents avec des significations identiques (synonymie) : ce conflit apparaît lorsque les différents schémas utilisent des noms différents pour représenter le même concept ou propriété. – Conflits de contextes : le contexte est une notion très importante dans les systèmes d’information répartis. En effet, un même objet du monde réel peut être représenté dans les sources de données par plusieurs représentations selon un contexte local correspondant à chaque source. Ces conflits sont identifiés dans le cas où les concepts semblent avoir la même signification, mais qu’ils sont évalués dans différents contextes. – Conflits de mesure de valeur : ces conflits sont liés à la manière de coder la valeur d’une propriété du monde réel dans différents systèmes. Ce conflit apparaît dans le cas où des unités différentes sont utilisées pour mesurer la valeur d’une propriété. Pour réduire l’hétérogénéité sémantique, trois types d’approches ont été proposées : (i) approches manuelles, approches semi automatiques et approches automatiques. – Les approches manuelles : l’intégration manuelle de données est la technique qui a été utilisée dans les premières générations de systèmes d’intégration. Ces approches permettent d’automatiser l’intégration des données au niveau syntaxique. Cependant, les conflits sémantiques sont résolus manuellement et nécessitent donc la présence d’un expert humain pour interpréter la sémantique des données (Figure 1.2). – Les approches semi-automatiques : du fait que le nombre de sources de données devient important et/ou lorsque les sources évoluent fréquemment, les approches d’intégration manuelles deviennent très coûteuses et même impraticables. Des traitements plus automatisés deviennent nécessaires pour faciliter la résolution des conflits sémantiques. Dans cette partie, il s’agit d’une deuxième génération des systèmes d’intégration qui utilise les ontologies linguistiques (thésaurus) (Figure 1.3). Ces dernières permettent d’automatiser partiellement la gestion des conflits sémantiques. Les ontologies linguistiques sont ainsi utilisées pour comparer automatiquement les noms des relations ou des attributs. Cependant, cette comparaison est orientée "terme" et non "concept". Cela peut créer notamment des conflits de noms. De plus, les relations entre termes sont très contextuelles. Ainsi le traitement par ontologie linguistique est nécessairement supervisé par un expert et ne peut donc être que partiellement automatique. Deux ontologies linguistiques assez 5Chapitre 1. Introduction générale Expert Système d’intégration S1 S2 S3 Expert Système d’intégration S1 S2 S3 Figure 1.2 – Résolution manuelle de l’hétérogénéité Système d’intégration Validation Expert Ontologie Linguistique (OL) S1 S2 Sn Système d’intégration Validation Expert Ontologie Linguistique (OL) S1 S2 Sn Figure 1.3 – Résolution semi-automatique de l’hétérogénéité connues ont utilisé ce genre d’approche : WORDNET 3 et MeSH (Medical Subject Heading) 4 . MOMIS [21] est un exemple de projet utilisant des ontologies linguistiques Wordnet pour intégrer semi-automatiquement des données de sources structurées et semi-structurées. – Les approches automatiques : dans les deux générations précédentes la signification des données n’est pas représentée explicitement. Avec l’avènement des ontologies conceptuelles, un progrès important a pu être réalisé dans l’automatisation du processus d’intégration de sources hé- térogènes grâce à la représentation explicite de la signification des données. Dans une ontologie conceptuelle, la sémantique du domaine est spécifiée formellement à travers des concepts, leurs propriétés ainsi que les relations entre les concepts. Une ontologie conceptuelle regroupe ainsi les définitions d’un ensemble structuré des concepts qu’elle veut représenter. Ces définitions sont 3. Wordnet est une base de données lexicale de l’anglais-américain avec plus de 100 000 synsets (http://wordnet.princeton.edu) 4. Un thésaurus médical( http://www.chu-rouen.fr/cismef/) 61. Contexte et problématique traitables par machine et partageables par les utilisateurs du système. La référence à une telle ontologie est alors utilisée pour éliminer automatiquement les conflits sémantiques entre les sources dans le processus d’intégration de données. Le processus d’intégration de données peut alors être entièrement automatisé. PICSEL [53], OBSERVER [91] et OntoDaWa [128], développé dans le cadre de la thèse de Dung NGUYEN XUAN (pour l’intégration des catalogues de composants de l’entreprise Renault), sont des exemples de projets utilisant des ontologies conceptuelles qui visent à intégrer automatiquement des données. 1.3 Hétérogénéité des langages de modélisation des besoins Dans le contexte de l’intégration des sources de données, l’hétérogénéité de représentation de ces dernières n’est pas souvent prise en compte, car les modèles conceptuels des sources sont souvent traduits vers des modèles physiques qui sont les seuls à être pris en considération par le processus d’intégration. Dans le contexte d’expression des besoins, plusieurs langages peuvent être utilisés. Récemment, certains efforts de recherche on été entrepris pour remonter l’intégration des sources de données au niveau conceptuel, en établissant des procédures de rétro-conception des modèles physiques des sources pour remonter aux modèles conceptuels [76, 77]. Dans le contexte des besoins, leurs langages de modélisation doivent être unifiés car l’expression d’un seul besoin peut se faire avec une multitude de langages. Ceux-ci sont classés en trois principales catégories: langages linguistiques (informels), langages semiformels (diagramme des cas d’utilisation d’UML, le langage de modélisation conceptuelle de Merise [101], Orienté but, etc.) et langages formels (ex. la méthode B). Nous classifions cette hétérogénéité en deux catégories principales : – L’hétérogénéité intra-classe qui existe entre les langages de modélisation qui appartiennent à la même catégorie. Par exemple, le diagramme des cas d’utilisation et le langage orienté but appartiennent à la catégorie des langages semi-formels; – L’hétérogénéité inter-classe qui existe entre des langages de modélisation qui n’appartiennent pas à la même catégorie. Par exemple, la méthode B et le langage orienté but appartiennent à deux catégories différentes : langages formels et semi-formels. 1.4 Exigence des relations complexes entre les besoins Lors de la définition des besoins, l’identification des conflits et des contradictions entre eux est nécessaire. Différents types de relations ont été proposés dans la littérature. Nous pouvons citer, par exemple, les relations de conflits, les relations d’inclusion et d’équivalence. 1.5 Évolution des besoins Au cours du cycle de vie d’un système complexe, les besoins des concepteurs, dans chaque soussystème, sont amenés à évoluer. Cette évolution a un effet négatif sur le succès du projet étant donné qu’elle entraîne de nombreuses modifications. Une modification de besoin peut être : l’ajout, la suppression et la modification. Plusieurs facteurs affectent l’évolution des besoins [109] : changement d’un besoin, sa priorité, la technologie, conflit entre les besoins, complexité du système, etc. En conséquence, cette évolution peut impacter le développement du système. 7Chapitre 1. Introduction générale 2 Notre Démarche Pour répondre au problème d’intégration des besoins, nous sommes parti de travaux au laboratoire LIAS effectués sur l’intégration des sources de données hétérogènes [19, 20], où des solutions sémantiques en utilisant des ontologies de domaine ont été proposées. Ces dernières ont contribué largement à l’automatisation du processus d’intégration malgré la présence d’un nombre important de sources de données. Rappelons qu’actuellement, nous vivons dans une ère où plusieurs ontologies de domaine existent. C’est le cas du domaine de l’ingénierie où les catalogues de composants électroniques sont souvent dé- crits par des ontologies normalisées par l’ISO (PLIB : ISO 132584 "parts Library"), de la médecine où nous trouvons l’ontologie UMLS (Unified Medical Language System) ou dans le domaine de l’environnement où un nombre important d’ontologies a été développé (par exemple, Influenza Infectious Disease Ontology 5 ). De ce fait, nous supposons dans nos travaux qu’il existe une ontologie de domaine et que chaque collecteur de besoins reprend a priori des concepts de cette ontologie pour construire son ontologie locale couvrant son problème. Cette dernière peut être soit un sous-ensemble de l’ontologie de domaine soit une spécialisation, c’est-à-dire un sous-ensemble éventuellement étendu par des classes plus spécialisées et/ou des propriétés additionnelles. De part leur aspect formel, les ontologies offrent également des mécanismes de raisonnement permettant de vérifier la consistance des besoins et d’inférer de nouveaux relations entre les besoins. La présence de l’ontologie, certes résout les problèmes d’hétérogénéité syntaxique et sémantique. Par contre l’hétérogénéité des langages de modélisation des besoins reste présente. Pour éviter un nombre important de correspondances entre les différents langages ( n×(n−1) 2 ), où n représente le nombre de langages, nous présentons une méthode pivot. En d’autres termes, nous supposons que chaque collecteur de besoins a son propre langage de modélisation couplé à son ontologie locale, et au final l’ensemble des besoins sont transformés sur le langage de modélisation pivot que nous appelons "modèle pivot". Ce modèle pivot jouant le rôle de médiateur est également couplé à l’ontologie partagée pour faciliter son exploitation. Le scénario précédent exige une correspondance de tout langage de modélisation des besoins vers le modèle pivot, ce qui peut être coûteux dans le cas des gros projets. Dans le deuxième scénario d’inté- gration, nous proposons de fusionner l’ensemble des langages en un seul langage de modélisation que nous appelons "modèle générique" et au lieu de faire des correspondance, nous utilisons l’instanciation. Cette fusion est réalisée à partir des méta-modèles des langages utilisés. En d’autres mots chaque langage devient une instance de ce modèle générique. Étant donné que nos solutions d’intégration des besoins sont sémantiques, nous exploitons les mé- canismes de raisonnement offerts par les ontologies pour identifier les besoins conflictuels et contradictoires. Contrairement aux travaux existants qui traitent le problème d’intégration des besoins d’une manière isolée sans prendre en compte le système cible (une base/entrepôt de données, une interface homme machine, etc.), nos propositions apportent des solutions pour les phases de cycle de vie de conception du système cible. Pour illustrer cela, nous considérons la phase de conception physique d’un entrepôt de données. Durant cette phase, un ensemble de structures d’optimisation (les index, la fragmentation de données, les vues matérialisées, etc.) est sélectionné. Souvent cette sélection est effectuée à partir d’un 5. http://bioportal.bioontology.org/ontologies/ENVO 83. Contributions ensemble de requêtes. Dans ce travail, nous proposons une approche de sélection dirigée par les besoins. 3 Contributions Nos contributions se résument en trois points illustrés sur la figure 1.5 : (i) le placement des besoins dans l’architecture d’intégration des objets, (ii) l’intégration des besoins en prenant en compte deux types d’hétérogénéité : une liée aux vocabulaires utilisés [25, 26] et l’autre liée aux langages de modélisation des besoins [26] et (iii) le raisonnement et l’exploitation des besoins sur la phase physique [79, 78, 18]. En ce qui concerne le premier point, nous valorisons les besoins des utilisateurs dans le Systèmes Réseaux SGBD Business Process EAI BD Fédérées EII Standards J2EE Web Services Intégration d’applications Intégration de données Intégration de plateformes Besoin 1 Besoin 2 Besoin 3 Besoin n Intégration des besoins Systèmes Réseaux SGBD Business Process EAI BD Fédérées EII Standards J2EE Web Services Intégration d’applications Intégration de données Intégration de plateformes Besoin 1 Besoin 2 Besoin 3 Besoin n Intégration des besoins Figure 1.4 – Les quatre niveaux d’intégration. contexte de conception des bases/entrepôts de données par l’ajout d’une nouvelle dimension d’intégration représentant les besoins (figure 1.4). Pour offrir une intégration automatique dans le cadre des entreprises étendues, où chaque partenaire est autonome, notre approche doit prendre en compte le fait que chacun peut utiliser son propre langage de modélisation des besoins et sa propre terminologie. Pour remédier au problème de vocabulaire, nous proposons l’utilisation d’une ontologie couvrant le domaine de l’étude, dont nous faisons l’hypothèse qu’elle existe (figure 1.5). Dans ce scénario, nous supposons que chaque collecteur de besoins pioche ses concepts et propriétés à partir de cette ontologie qui joue le rôle d’un dictionnaire. Pour unifier les différents langages de modélisation des besoins, nous proposons un modèle pivot. Vu la diversité des langages de modélisation et dans le but de définir les composantes du modèle pivot, nous avons considéré une étude de cas basée sur l’ontologie du domaine universitaire (Lehigh University Benchmark (LUBM)) et trois langages de modélisation des besoins : Use case d’UML, le langage orienté buts et le modèle de traitement de la méthode Merise. Pour établir le couplage entre les modèles utilisés et l’ontologie, un travail de méta-modélisation de chaque modèle ainsi que de l’ontologie est effectué. Les concepts et les propriétés utilisés dans chaque modèle sont référencés par l’ontologie. Ceci permet de faciliter l’intégration des besoins. Deux scénarii d’intégration sont alors présentés, offrant plus d’autonomie aux collecteurs des besoins et le deuxième impose un modèle unifié (générique) intégrant l’ontologie de domaine. 9Chapitre 1. Introduction générale Ontologie partagée Modèle Pivot des besoins Connexion Transformation (Mappings) Modularité (Extractions des OLs) 2 Besoins des utilisateurs Correcte Complète Sans ambiguïté Consistante ….. Concepteurs Sous-système (1) Langage informel OL2 OL1 OLn Concepteurs Concepteurs Connexion 3 Intégration des besoins Sous-système (2) Sous-système (n) Connexion 3 Connexion 3 4 3 Modèle Ontologique Pivot (OntoPivot) Processus de raisonnement 5 1 ED sémantique Méta-modèle ontologie + méta-modèles de besoins Catalogue système Instanciation Instanciation Ontologies locales de besoins Traduction Modèle logique (MLD) Langage semi-formel Langage formel Génération des requêtes (SQL) Optimisation de l’ED Persistance des besoins 6 7 8 Intégration sémantique des besoins Exploitation & validation Ontologie partagée Modèle Pivot des besoins Connexion Transformation (Mappings) Modularité (Extractions des OLs) 2 Besoins des utilisateurs Correcte Complète Sans ambiguïté Consistante ….. Concepteurs Sous-système (1) Langage informel OL2 OL1 OLn Concepteurs Concepteurs Connexion 3 Intégration des besoins Sous-système (2) Sous-système (n) Connexion 3 Connexion 3 4 3 Modèle Ontologique Pivot (OntoPivot) Processus de raisonnement 5 1 ED sémantique Méta-modèle ontologie + méta-modèles de besoins Catalogue système Instanciation Instanciation Ontologies locales de besoins Traduction Modèle logique (MLD) Langage semi-formel Langage formel Génération des requêtes (SQL) Optimisation de l’ED Persistance des besoins 6 7 8 Ontologie partagée Modèle Pivot des besoins Connexion Transformation (Mappings) Modularité (Extractions des OLs) 2 Besoins des utilisateurs Correcte Complète Sans ambiguïté Consistante ….. Concepteurs Sous-système (1) Langage informel OL2 OL1 OLn Concepteurs Concepteurs Connexion 3 Intégration des besoins Sous-système (2) Sous-système (n) Connexion 3 Connexion 3 4 3 Modèle Ontologique Pivot (OntoPivot) Processus de raisonnement 5 1 ED sémantique Méta-modèle ontologie + méta-modèles de besoins Catalogue système Instanciation Instanciation Ontologies locales de besoins Traduction Modèle logique (MLD) ED sémantique Méta-modèle ontologie + méta-modèles de besoins Catalogue système Instanciation Instanciation Ontologies locales de besoins Traduction Modèle logique (MLD) Langage semi-formel Langage formel Génération des requêtes (SQL) Optimisation de l’ED Persistance des besoins 6 7 8 Intégration sémantique des besoins Exploitation & validation Figure 1.5 – Aperçu des contributions de la thèse Pour identifier les relations complexes entre les besoins, nous proposons un mécanisme de raisonnement à base ontologique. Rappelons que les ontologies fournissent une représentation formelle des connaissances et des relations entre concepts. Elles peuvent donc être exploitées pour raisonner sur les objets du domaine concerné. Dans notre cas, elles permettent des raisonnements automatiques ayant pour objet soit d’effectuer des vérifications de consistance sur les besoins (des conflits, des contradictions, etc.), soit d’inférer de nouvelles relations. Une étude de cas est proposée afin d’évaluer notre mécanisme de raisonnement où deux scénarii de raisonnement sont étudiées : ship whole et fetch as needed. Dans le premier scénario, aucun traitement n’est fait localement, le modèle générique a la charge d’établir l’ensemble des raisonnements. Dans le deuxième scénario, chaque partenaire effectue localement le raisonnement et ne renvoie que des besoins valides au modèle générique pour déclencher d’autres 104. Organisation du mémoire raisonnements. Comme nous l’avons déjà évoqué, nos travaux visent à montrer l’intérêt de la prise en compte des besoins sur le cycle de vie de conception de bases de données traditionnelles et avancées. Dans cette thèse, nous étudions en particulier la contribution de la prise en compte des besoins dans la conception physique. Durant cette phase, l’administrateur doit sélectionner des structures d’optimisation comme les index, les vues matérialisées, le partitionnement, etc. Cette sélection est souvent guidée par un ensemble de requêtes extraites à partir de fichiers de journalisation (logs). Nous montrons dans le cadre de cette thèse que cette tâche est primordiale dans la conception physique et peut se faire dès la collection des besoins finaux. Cela a un intérêt considérable sur la réduction des tâches de l’administrateur de bases de données vu quelles sont très complexes et surtout coûteuses. Une autre motivation de nos propositions est que les bancs d’essai utilisés par la communauté de bases de données, pour évaluer la qualité des algorithmes de sélection de structures d’optimisation, proposent des requêtes sous formes SQL et leur description sous forme de besoins 6 . Ils peuvent donc être directement pris en compte par notre approche. Finalement toutes les propositions de cette thèse ont été prototypées et testées. Un outil d’aide à l’inté- gration et l’exploitation des besoins hétérogènes est développé. La partie liée à la conception physique est prototypée sur OntoDB, une plateforme de bases de données sémantique développée au laboratoire LIAS. Elle permet de stocker à la fois les données et l’ontologie qui décrit leurs sens. 4 Organisation du mémoire Cette thèse est structuré en deux parties. La première partie présente les concepts permettant d’élaborer nos propositions. Vu la pluridisciplinarité de notre domaine d’étude, deux états de l’art sont présentés : le premier abord les concepts fondamentaux de l’ingénierie des besoins (IB) quant au deuxième, il décrit les ontologies. Le chapitre 2 vise à faire une présentation succincte permettant d’introduire le domaine de l’ingénierie des besoins, les problèmes rencontrés lors de leurs expression et de leurs analyse dans le cas d’une entreprise étendue, notamment les problèmes liés à l’hétérogénéité des vocabulaires et des langages de modélisation des besoins. Ensuite, nous débattrons un ensemble de travaux que nous considérons majeurs liés à l’intégration et à l’analyse des besoins. Une synthèse qui nous a permis de positionner nos travaux par rapport à l’existant que nous présentons par la suite. Le chapitre 3 décrit un état de l’art portant sur l’utilisation des ontologies dans le domaine de l’IB. Nous décrivant, dans un premier temps, la notion d’ontologie de domaine, une classification des ontologies (ontologies linguistiques et ontologies conceptuelles), les langages de définitions des ontologies langages de modélisation, une formalisation des ontologies conceptuelles. Puis, dans un deuxième temps, nous présentons les principaux travaux relatifs au couplage entre les ontologies et l’expression et l’analyse des besoins. Une synthèse sur ces derniers est également présentée. La deuxième partie de ce mémoire est dédiée aux contributions dans le cadre de l’intégration sémantique des besoins. Dans le chapitre 4, nous décrivons notre première proposition d’un modèle unifiant à la fois les vocabulaires et les langages de modélisation des besoins. Pour réaliser l’unification des vocabulaires, nous proposons une solution dirigée par une ontologie conceptuelle supposée existante. La présence de cette ontologie permet à l’ensemble des concepteurs d’exprimer leurs besoins en utilisant ses 6. http://www.tpc.org 11Chapitre 1. Introduction générale concepts et ses propriétés afin d’éviter les conflits syntaxiques et sémantiques. La deuxième unification est plus difficile que la première, vu la diversité des langages de modélisation des besoins. Pour ce faire, nous nous sommes appuyés sur une étude de cas comprenant trois langages semi-formels à savoir : Use case d’UML, un langage orienté but et le modèle de traitements de la Merise. Le choix de ces langages est justifié par leur usage dans le domaine industriel et académique. Après une analyse des composantes de chaque langage utilisé, nous proposons leurs modèles génériques. Cette généricité nous a permis de définir un modèle pivot pour l’ensemble de langages étudiés. Finalement, pour assurer l’interopérabilité entre l’ensemble des langages, des correspondances entre le méta modèle de chaque langage et le modèle pivot sont définies. Un couplage entre le modèle pivot et le modèle d’ontologie est alors proposé, ce qui explicite la sémantique des langages utilisés. Afin de réduire la complexité des correspondances faites entre le modèle pivot et l’ensemble des langages de modélisation des besoins, notre deuxième contribution qui fait l’objet du Chapitre 5 consiste d’abord à fusionner les méta-modèles des langages de modélisation des besoins ensuite d’instancier chaque langage de modélisation des besoins. De la même façon que dans le chapitre précédent, un couplage entre le modèle générique et le modèle d’ontologie est établi. Le chapitre 6 étudie l’impact des besoins sur la conception physique d’un entrepôt de données sémantique. D’abord nous motivons le besoin de réduire le coûts d’administration d’un entrepôt de données pour une entreprise étendue. Ensuite, nous formalisons le problème de la conception physique d’une manière générale, ensuite une instanciation de cette formalisation est donnée pour deux probèmes classiques, qui sont la sélection des index de jointure binaire et la sélection de schéma de fragmentation horizontale. Finalement, une approche dirigée par les besoins pour la sélection des deux structures d’optimisation est proposée et validée. Le chapitre 7, intitulé "Prototype de validation", propose une implémentation de nos propositions à travers un outil prototype, nommé OntoReqTool. Celui-ci fournit une aide au concepteur pour intégrer les besoins hétérogènes et pour les exploiter dans un environnement de stockage de données sémantiques (ED). Pour intégrer les besoins, nous avons choisi l’éditeur d’ontologie Protégé car il facilite la manipulation des ontologies et offre la possibilité de faire du raisonnement sur les besoins à l’aide de ses moteurs d’inférences. Pour exploiter les besoins, nous les avons persistés dans un ED afin de les exploiter dans la phase physique. L’implémentation a été faite sur la base de données sémantique OntoDB qui a été développée au sein du laboratoire et dont on avait un accès total au son code et à sa documentation. Pour conclure ce mémoire de thèse, nous établissons un bilan des contributions apportées et nous traçons différentes perspectives de recherche qui pourraient être menées ultérieurement. Ce manuscrit comporte deux annexes. L’annexe A décrit les règles de transformation utilisées dans la validation des deux premières contributions. L’annexe B fournit les requêtes du banc d’essai Star Schema Benchmark (SSB) utilisées pour valider la troisième contribution. 124. Organisation du mémoire Publications La liste suivante représente les articles publiés dans le cadre de cette thèse. 1. Ilyès BOUKHARI, Ladjel BELLATRECHE, Stéphane JEAN, An Ontological Pivot Model to Interoperate Heterogeneous User Requirements, Proceedings of the 5th International Symposium on Leveraging Applications of Formal Methods, Verification and Validation (ISOLA 2012), pp. 344-358, LNCS, Springer, Heraklion, Crete, Greece, October 15-18, 2012. 2. Ilyès BOUKHARI, Ladjel BELLATRECHE, Efficient, Unified, and Intelligent User Requirement Collection and Analysis in Global Enterprises, Proceedings of the 15th International Conference on Information Integration and Web-based Applications & Services (iiWAS 2013), ACM, December 2013, Vienna, Austria. 3. Selma KHOURI, Ilyès BOUKHARI, Ladjel BELLATRECHE, Stéphane JEAN, Eric SARDET, Mickael BARON, Ontology-based structured web data warehouses for sustainable interoperability: requirement modeling, design methodology and tool, Computers in Industry Journal, Elsevier (Factor Impact: 1.529), 63(8): 799-812, 2012. 4. Ladjel BELLATRECHE, Selma KHOURI, Ilyès BOUKHARI, Rima BOUCHAKRI, Using Ontologies and Requirements for Constructing and Optimizing Data Warehouses, Proceedings of the 30th IEEE International Convention MIPRO, pp. 1568 - 1573, Opatija, Croatia, May, 2012. 5. Selma KHOURI, Ladjel BELLATRECHE, Ilyès BOUKHARI, Selma BOUARAR, More Investment in Conceptual Designers: Think about it!, 15th IEEE International Conference on Computational Science and Engineering, pp. 88-93, Paphos, Cyprus, December 5-7, 2012. 6. Selma KHOURI, Ladjel BELLATRECHE, Ilyès BOUKHARI, Stéphane JEAN, Amira KERKAD, Peut-on prévoir le comportement d’un ED dès sa conception ?, submitted to Ingénierie des Systèmes d’Information Journal. 13Première partie État de l’art 15Chapitre 2 L’expression des besoins : un état de l’art Sommaire 1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 3 Processus d’ingénierie des Besoins . . . . . . . . . . . . . . . . . . . . . . . . 24 4 Langages de modélisation des besoins . . . . . . . . . . . . . . . . . . . . . . 26 4.1 Langages informels (langage naturel) . . . . . . . . . . . . . . . . . . . . 26 4.2 Langages semi-formels . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 4.3 Langages formels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 5 Approches et méthodes pour l’expression des besoins . . . . . . . . . . . . . . 29 5.1 Approches dirigées par les buts . . . . . . . . . . . . . . . . . . . . . . . 29 5.1.1 GQM : Goal Question Metric . . . . . . . . . . . . . . . . . . 30 5.1.2 KAOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 5.1.3 iStar (i*) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 5.2 Approches à base de scénarii . . . . . . . . . . . . . . . . . . . . . . . . 33 5.3 Approches basées sur les automates et réseaux de Petri . . . . . . . . . . 35 6 Problématiques liées à l’expression des besoins . . . . . . . . . . . . . . . . . 37 7 État des lieux sur l’intégration et l’analyse des besoins . . . . . . . . . . . . . 37 7.1 L’intégration des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . 37 7.1.1 Exemples d’approches dirigées par des méthodes issues de la logique mathématique . . . . . . . . . . . . . . . . . . . . . . 37 7.1.2 Approches dirigées par IDM . . . . . . . . . . . . . . . . . . . 38 7.2 L’analyse des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 7.3 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 17Chapitre 2. L’expression des besoins : un état de l’art Résumé. Ce chapitre fait une présentation succincte introduisant le domaine de l’ingénierie des besoins. Nous nous intéressons aux problèmes d’expression et d’intégration de besoins hétérogènes et à leur exploitation dans un entrepôt de données dans le cadre d’une entreprise étendue, notamment aux problèmes liés à l’hétérogénéité des vocabulaires et des langages de modélisation de besoins. Ensuite, nous présentons un état de l’art des travaux d’analyse et d’intégration des besoins. Nous présentons par la suite une synthèse qui nous à permis de positionner nos travaux par rapport à l’existant. 18Chapitre 2. L’expression des besoins : un état de l’art 1 Introduction Dans une entreprise étendue, l’utilisation des bases de données avancées comme les entrepôts de données est importante. Ces entrepôts permettent de stocker d’une manière efficace des données pour des besoins opérationnels et/ou décisionnels. Le cycle de développement des bases/entrepôts de données comporte un nombre important de phases impliquant plusieurs acteurs. Huit phases principales composent ce cycle (figure 2.1) : (a) la collecte et l’analyse des besoins [90, 74, 102], (b) la phase conceptuelle [35, 93, 118], (c) la phase logique [117], (d) le processus d’extraction, de transformation et de chargement [106], (e) la phase de déploiement [8], (f) la phase physique [15], (g) la phase de personnalisation et de recommandation [17, 59] et (h) le tuning [34], chacune impliquant un ensemble de sous phases. En ce qui concerne les acteurs (parties prenantes), nous avons les collecteurs et les analystes de besoins, les concepteurs, les administrateurs, les data architects 7 , les data analysts 8 , etc. Notons que l’ensemble des travaux couvrant ce cycle de vie utilise les besoins des utilisateurs (fonctionnels ou non fonctionnels). Prenons l’exemple de la méthode de conception francophone Merise, la première tâche à faire est d’extraire l’ensemble des propriétés/attributs à partir d’un cahier de charge, caractériseront la couche conceptuelle. Par la suite, chaque entité sera décrite par un sous ensemble de propriétés. Lorsque nous abordons la conception physique, toutes les structures d’optimisation comme les index, la fragmentation, etc. sont dirigées par les requêtes qui peuvent être extraites des besoins. Pour personnaliser les accès à une base de données, nous nous intéressons aux besoins des utilisateurs. Mais la phase de collection et l’analyse des besoins est souvent négligée dans le processus de conception de bases de données avancées. Prenons l’exemple de conception des entrepôts de données : dans ses premiers travaux, Inmon [66] a proposé une méthode de conception dirigée par les sources, mais cette dernière a été critiquée par Ralph Kimball [80], qui a fait ressortir la nécessité de définir une conception à partir de besoins des utilisateurs. Sa proposition a été suivie par plusieurs autres études proposant des méthodes de conception orientées besoins. Récemment, Golfarelli et Rizzi dans leur livre intitulé Data Warehouse Design: Modern Principles and Methodologies [58] ont insisté sur le rôle des besoins dans la conception et la réussite des projets d’entreposage de données. Nous sommes conscients de l’étendue de l’Ingénierie des Besoins (IB) du fait qu’elle couvre un ensemble de phases (cf. Section 2.3) : élicitation, modélisation, spécification et validation. Nous n’allons pas proposer de contribution dans chacune de ces phases, mais nous allons considérer l’expression, l’intégration et l’exploitation des besoins hétérogènes dans le cadre d’une entreprise étendue. Ce chapitre est organisé comme suit. Dans la section 2, nous présentons quelques définitions de l’IB nécessaires à la compréhension de nos contributions. Ensuite, dans la section 3, nous situons le processus d’IB dans les approches traditionnelles de développement des systèmes d’information. Les langages de modélisation des besoins sont ensuite présentés dans la section 4. La section 5 détaille les principales approches d’expression et d’analyse des besoins. Dans la section 6, nous présentons les différents problèmes rencontrés lors de l’expression et de l’analyse des besoins dans le cas d’une entreprise étendue. Dans la section 7, nous présentons un état de l’art des travaux d’intégration et d’analyse des besoins. Avant de conclure le chapitre, nous présentons une synthèse qui nous a permis de positionner nos travaux par rapport à l’existant. 7. http://en.wikipedia.org/wiki/Data_architect 8. http://www.journaldunet.com/solutions/analytics/metier-big-data-data-scientist.shtml 202. Définitions Phase conceptuelle Phase logique Processus d’extraction, de transformation et chargement Modèle conceptuel Modèle logique Processus ETL Phase de déploiement Phase physique Modèle physique Phase de personnalisation et de recommandation Phase de tuning Phase de collection et d’analyse des besoins Phase conceptuelle Phase logique Processus d’extraction, de transformation et chargement Modèle conceptuel Modèle logique Processus ETL Phase de déploiement Phase physique Modèle physique Phase de personnalisation et de recommandation Phase de tuning Phase de collection et d’analyse des besoins Figure 2.1 – Les phases du cycle de vie d’un ED. 2 Définitions L’Ingénierie des Besoins (IB) est un vaste domaine de recherche s’intéressant principalement aux approches et techniques visant à améliorer la phase de spécification d’un système informatique. Nous présentons tout d’abord quelques définitions des concepts importants pour la compréhension de celui-ci. Parties prenantes : connues en anglais sous le nom stakeholders. Selon l’AFIS (Association Fran- çaise de l’ingénierie Système) 9 , une partie prenante constitue une partie intéressée par l’utilisation et l’exploitation du système (voir par ses impacts sur son environnement), mais aussi un agent participant à sa conception, sa production, son déploiement, sa commercialisation, son maintien en condition opé- rationnelle et son retrait de service. Les parties prenantes les plus couramment rencontrées sont les : utilisateurs, concepteurs, développeurs, administrateurs, etc. Besoin : selon Abran et al. [6], un besoin est une description d’une propriété ou des propriétés du système qui doivent être remplies. Les besoins sont exprimés en termes de phénomènes du monde réel ou objets partagés par le système et son environnement, avec un vocabulaire accessible aux utilisateurs [67]. Souvent, les besoins peuvent être classés dans les deux catégories suivantes. – Besoins fonctionnels : les besoins fonctionnels spécifient une fonction que le système ou un com- 9. http://www.afis.fr/upload/SDD 21Chapitre 2. L’expression des besoins : un état de l’art posant du système doit être capable d’exécuter. Les auteurs de cette définition soulignent que le système peut être vu comme un ensemble de composants. Exemple 1 Dans un établissement, un système doit permettre à la scolarité de vérifier les moyennes des étudiants qui ont obtenu le master informatique. – Besoins non fonctionnels : un besoin non fonctionnel est défini par un attribut ou une contrainte du système comme la flexibilité, la performance, la sécurité, etc. qui ne porte pas sur la fonction de ce système. Exemple 2 Le système doit permettre aux étudiants de ne voir uniquement que leurs propres moyennes. L’Ingénierie des Besoins (IB) : dans le cadre des systèmes d’information, elle est définie par Rolland comme l’activité qui transforme une idée floue en une spécification précise des besoins, souhaits et exigences exprimés par une communauté d’usagers et donc qui définit la relation existante entre un système et son environnement [102]. Van Lamsweerde [120] définit trois objectifs de l’ingénierie des besoins: (1) l’identification des buts que le système envisagé doit accomplir, (2) l’opérationnalisation de ces buts sous forme de fonctions et de contraintes et (3) l’assignation des fonctionnalités aux agents. Modèle : une abstraction d’un système conçu sous la forme d’un ensemble de faits construits selon une intention particulière. Il doit pouvoir être utilisé pour répondre à des questions sur le système étudié. Dans le domaine de l’IB, les rôles des modèles sont multiples car ils sont utilisés durant tout le processus de l’ingénierie des besoins. Les modèles peuvent être utilisés pour capturer et formaliser les besoins des utilisateurs. Ils peuvent ainsi intégrer et vérifier les besoins. Méta-modèle : selon la définition du MOF (Meta Object Facility) 10, un méta-modèle définit la structure que doit avoir tout modèle conforme à ce méta-modèle. On dit qu’un modèle est conforme à un méta-modèle si l’ensemble des éléments qui constituent le modèle est défini par le méta-modèle. Par exemple, le méta-modèle UML définit que les modèles UML contiennent des packages, leurs packages des classes, leurs classes des attributs et des opérations, etc. Méta-méta-modèle : un méta-méta-modèle est un modèle qui décrit des langages de méta-modélisation. Autrement dit, le méta-méta-modèle contient les éléments de modélisation nécessaires à la définition des langages de modélisation et il a également la capacité de se décrire lui-même. Langage de modélisation : il sert à décrire un système général ou spécifique à un domaine et/ou un contexte par ses composants et leurs relations. Il est défini par une syntaxe abstraite, une sémantique et une syntaxe concrète. La syntaxe abstraite définit les concepts de base du langage. La sémantique définit comment les concepts du langage doivent être interprétés par l’homme ou par les machines [64]. Chaque modèle est construit en utilisant un formalisme de modélisation, c’est à dire un langage. Dans le domaine de l’IB, chaque modèle est construit en utilisant un langage de modélisation des besoins. La modélisation des besoins peut suivre un principe de méta-modélisation à plusieurs niveaux d’abstraction. La figure 2.2 illustre ce principe en se basant sur l’architecure à 4 niveaux définie par le MOF. Le nivaux (M0) décrit les objets du monde réel (instances). Dans notre exemple, portant sur le 10. http://www.omg.org/mof/ 222. Définitions M0 M1 M2 M3 Le monde réel Modèle Méta-modèle Méta-métamodèle Code : SQL, etc. Modèle UML, etc. UML, SPEM, MERISE Goal, etc. MOF Étudiant, Age, Adresse. Anne, 22, Poitiers. Classe, Méthode, Attribut. Entité, Relation, Paquetage. M0 M1 M2 M3 Le monde réel Modèle Méta-modèle Méta-métamodèle Code : SQL, etc. Modèle UML, etc. UML, SPEM, MERISE Goal, etc. MOF Étudiant, Age, Adresse. Anne, 22, Poitiers. Classe, Méthode, Attribut. Entité, Relation, Paquetage. Figure 2.2 – Exemple de métamodèlisation. domaine universitaire, un objet pourrait être un étudiant particulier (dans notre exemple, Anne, 22 ans, Poitiers). Le niveau (M1) décrit le modèle utilisé pour définir les objets. Dans notre exemple, une classe Étudiant permet d’indiquer que les étudiants sont caractérisés par un âge et une adresse. Le niveau (M2) contient les primitives permettant de définir un modèle. Dans notre exemple, ce niveau contient les primitives Classe, Méthode et Attribut pour pouvoir définir la classe Étudiant. Enfin, le niveau (M3) contient le méta-méta-modèle. Celui-ci est réflexif (il se décrit lui-même) et permet de définir différents langages de modélisation au niveau (M3). Transformation de modèles : une transformation de modèle est une fonction, Φ : S → T, telle que: Φ prend en entrée un ensemble de modèles source S , et produit en sortie un ensemble de modèles cible T. S et T sont des modèles conformes aux deux ensembles de méta-modèles. Si les deux ensembles de méta-modèles sont identiques, la transformation de modèle Φ est appelé (transformation endogène), autrement on l’appelle (transformation exogène). Il existe de nombreux critères de classification liés à la transformation de modèles [41, 108]. Dans notre travail, nous nous intéressons à deux types d’approches de transformation de modèles : – modèle à modèle (model-to-model, M2M) : ce type de transformation permet de produire des modèles conformes aux méta-modèles cibles. ATL 11 (Atlas Transformation Language) et QVT 12 (Query-View-Transformation)sont parmi les langages de transformation assurant la transformation model-to-model. – modèle à texte (model-to-text, M2T) : ce type de transformation permet d’obtenir des modèles cibles qui consistent essentiellement en chaînes de caractères. Généralement, la transformation model-to-text est utilisé pour effectuer la génération de code, comme la transformation de modèles 11. http://www.eclipse.org/atl/ 12. http://www.omg.org/spec/QVT/ 23Chapitre 2. L’expression des besoins : un état de l’art UML à un programme Java. Acceleo 13 et Xpand 14 sont des exemples de langages assurant la transformation model-to-text. 3 Processus d’ingénierie des Besoins Généralement, un processus d’IB comporte plusieurs étapes consistant à découvrir, analyser, valider et faire évoluer l’ensemble des besoins relatifs aux fonctionnalités du système. Selon Nuseibeh et Easterbrook [95], un processus d’IB inclut les étapes suivantes : élicitation, modélisation, analyse, validation et gestion des besoins (figure 2.3). Ces étapes sont détaillées dans ce qui suit. • Vérification de la version finale du document des besoins par des experts de domaine • Identification des besoins. • Modélisation des besoins: (Informels, Semi-Formels, Formels) • Assurance d’une bonne spécification de besoins: (cohérents, non ambiguës, complètes, vérifiables, etc.) • Suivi de l'évolution ou le changement des besoins. • Identification des parties prenantes. • Spécification des besoins: (Fonctionnels, Non fonctionnels) • Maintien la traçabilité des besoins • Contrôle des différentes versions de ces besoins Élicitation Modélisation Analyse Validation G e s t i o n • Vérification de la version finale du document des besoins par des experts de domaine • Identification des besoins. • Modélisation des besoins: (Informels, Semi-Formels, Formels) • Assurance d’une bonne spécification de besoins: (cohérents, non ambiguës, complètes, vérifiables, etc.) • Suivi de l'évolution ou le changement des besoins. • Identification des parties prenantes. • Spécification des besoins: (Fonctionnels, Non fonctionnels) • Maintien la traçabilité des besoins • Contrôle des différentes versions de ces besoins Élicitation Modélisation Analyse Validation G e s t i o n Figure 2.3 – Processus d’ingénierie des besoins. 1. Phase d’élicitation des besoins : dans un processus d’IB, la première étape est l’élicitation des besoins. Elle consiste à collecter, capturer, découvrir et développer les besoins à partir des sources variées (utilisateurs, concepteurs, etc.). L’élicitation des besoins repose sur deux tâches principales : (i) l’identification des parties prenantes et (ii) l’identification des besoins. La première tâche consiste à identifier l’ensemble des personnes ou des groupes qui sont mis en relation avec le système au cours de son cycle de développement. Parmi les parties prenantes nous pouvons citer : le décideur, le concepteur, le développeur, l’administrateur, l’utilisateur final, etc. La deuxième tâche est l’identification des besoins dans laquelle de nombreuses techniques, méthodes et approches peuvent être utilisées pour étudier en détail les besoins des différentes parties prenantes. Dans cette thèse, nous avons supposé que la phase d’élicitation est déjà réalisée. 13. http://www.acceleo.org/pages/accueil/fr 14. http://www.eclipse.org/modeling/m2t/?project=xpand 243. Processus d’ingénierie des Besoins 2. Phase de modélisation des besoins : la modélisation est une abstraction du problème par différentes représentations. Elle consiste en la construction d’une description et d’une représentation abstraite d’un système pour les besoins de l’interprétation [95]. La modélisation des besoins consiste à détailler et structurer les besoins en utilisant différents types de langages de modélisation (informels, semi-formels et formels) que nous détaillons dans la section 4 de ce chapitre. 3. Phase d’analyse des besoins : cette phase consiste à analyser la compréhension des besoins élicités et vérifier leur qualité en termes d’exactitude, de complétude, de clarté et de consistance. Le but de cette phase est de clarifier les besoins, de supprimer les incohérences et d’assurer la complétude et la non redondance. La norme IEEE 830-1998 15 relative à la spécification des besoins liste huit principales caractéristiques que toute spécification des besoins doit assurer. Celle-ci doit être correcte, sans ambiguïté, complète, consistante, stable, vérifiable, modifiable et traçable. Nous détaillons ces caractéristiques ci-après : – Spécification correcte : la spécification doit être comparée à toute spécification de niveau supérieur (comme la spécification des besoins de l’ensemble du système), ainsi qu’avec d’autres normes applicables, afin de s’assurer que la spécification est correcte. Alternativement, le client ou l’utilisateur peut déterminer si la spécification reflète correctement leurs besoins réels. La traçabilité des besoins rend cette procédure plus facile et moins sujette à l’erreur. – Spécification sans ambiguïté : une spécification est sans ambiguïté si, et seulement si, toutes les exigences qui y sont énoncées ne possèdent qu’une seule interprétation. – Spécification complète : une spécification est complète si, et seulement si, elle vérifie les critères suivants. – Toutes les exigences importantes sont exprimées, qu’il s’agisse de fonctionnalités, de performances, de contraintes de conception, d’attributs, ou d’interfaces externes. – La spécification permet la définition des réponses du logiciel pour toutes les données d’entrée. – La spécification comprend une définition de tous les labels, références, figures, tableaux et illustrations qui y figurent, ainsi que la définition de tous les termes et unités de mesure utilisées. – Spécification consistante/ cohérence : une spécification est cohérente si, et seulement si, aucun sous-ensemble des exigences individuelles décrites ne présente un conflit. – Spécification stable : une spécification est dite stable et triée (classée) par importance si chaque besoin a un identifiant qui indique son rang d’importance ou sa stabilité. – Spécification vérifiable : une spécification est vérifiable si, et seulement si, toutes les exigences énoncées sont vérifiables. Une exigence est vérifiable si, et seulement s’il existe un processus avec lequel une personne ou une machine peut vérifier que le produit logiciel répond à cette exigence. En général, toute exigence ambiguë et non quantifiable n’est pas vérifiable. – Spécification modifiable : une spécification est modifiable si, et seulement si, sa structure et son style sont construits de telle sorte que, toute modification des exigences peut être facilement et complètement mise en oeuvre. – Spécification traçable : une spécification est traçable si chacune de ces exigences est claire et si la spécification facilite le référencement de chaque exigence dans le développement futur du système ou dans sa documentation. 15. http://www.math.uaa.alaska.edu/∼afkjm/cs401/IEEE830.pdf 25Chapitre 2. L’expression des besoins : un état de l’art La spécification consiste à établir la liste finale des besoins en les organisant suivant des catégories fonctionnels et non fonctionnels. La sortie de la phase de spécification est la première version du cahier des charges. 4. Phase de validation des besoins : l’objectif de cette phase est la confirmation de la qualité des besoins et de leur conformité aux attentes des parties prenantes. Selon la norme EIA-632 16, la validation est focalisée sur la vérification de la version finale du document des besoins pour dé- tecter les conflits, les omissions et les déviations par rapport aux normes. La validation cherche à certifier que les besoins satisfont les attentes des parties prenantes et à assurer qu’elles définissent les fonctionnalités attendues du système. En cas de conflits, une négociation est envisagée pour amener les parties prenantes à un accord. 5. Phase de gestion des besoins : cette phase consiste à suivre l’évolution ou le changement des besoins, ainsi qu’à faire la traçabilité et le contrôle des différentes versions de ces besoins [126]. La traçabilité permet d’identifier l’origine des besoins ainsi que tous leurs liens internes ou les liens avec le reste du projet ou le contexte (réalisation, tests, etc.). Dans le processus, décrit précédemment, nous remarquons que la modélisation et l’expression des besoins joue un rôle crucial dans le développement de projets. Aussi, nous détaillons, dans la section suivante, les différents langages de modélisation des besoins utilisés. 4 Langages de modélisation des besoins Nous présentons dans ce qui suit une classification en trois catégories des langages de modélisation des besoins suivie par une analyse qui nous a permis de les comparer. 4.1 Langages informels (langage naturel) Il s’agit de langages construits en langue naturelle avec ou sans règles de structuration. Parmi les méthodes reposant sur ce type de langages, nous pouvons citer le questionnaire, l’interview et le cahier des charges. L’avantage principal de l’utilisation des langages informels est sa facilité apparente de compréhension qui offre une manière familière de communiquer entre les parties prenantes du système. Le deuxième avantage est le faible coût de formation nécessaire pour savoir définir un besoin. L’utilisation d’un langage informel ne demande aucune formation particulière et les restrictions imposées par son utilisation nécessitent simplement la compréhension des règles de rédaction à suivre. Généralement, l’utilisation des langages informels dans l’expression des besoins induit souvent des besoins incohérents et ambigüs car ni leurs syntaxes, ni leur sémantique ne sont parfaitement définies. Ces besoins peuvent mener à une mauvaise compréhension du système. Ainsi il peut exister un décalage entre les besoins de l’utilisateur et ceux compris par les concepteurs ou un malentendu entre concepteurs et développeurs. Dans ce cas, le système obtenu ne correspond pas aux attentes du l’utilisateur. La figure (2.4) présente un besoin modélisé par un langage informel (langage naturel). 16. Electronic Industries Alliance. EIA-632: Processes for systems engineering. ANSI/EIA-632-1998 Approved: January 7, 1999. 264. Langages de modélisation des besoins Besoin fonctionnel Le système doit permettre au service de scolarité de vérifier les moyennes des étudiants qui ont obtenu le master de recherche. Le système doit d’abord calculer la moyenne de l’étudiant. Si la moyenne est supérieure ou égal 10 sur 20, le système imprime l'attestation de réussite au master de recherche. … Besoin fonctionnel Le système doit permettre au service de scolarité de vérifier les moyennes des étudiants qui ont obtenu le master de recherche. Le système doit d’abord calculer la moyenne de l’étudiant. Si la moyenne est supérieure ou égal 10 sur 20, le système imprime l'attestation de réussite au master de recherche. … Figure 2.4 – Un besoin modélisé par un langage naturel. 4.2 Langages semi-formels Les langages semi-formels sont les plus couramment utilisés dans la phase de modélisation des besoins. Ils sont généralement basés sur des notations graphiques avec une syntaxe précise. Le caractère graphique de ces langages est utile pour les échanges entre les différents acteurs du système. Parmi ces langages nous citons la modélisation UML (Unified Modeling Language) [23]. Les langages semiformels aident à élaborer et à structurer les besoins des utilisateurs sous forme de diagrammes. Les notations graphiques permettent d’avoir une vision claire et abstraite du système. Les concepteurs peuvent les utiliser pour mieux comprendre les besoins et soumettre leurs propositions aux utilisateurs. En bref, l’utilisation des langages semi-formels offre une vue synthétique, structurante et intuitive du système. Un des inconvénients des langages semi-formels est le manque de sémantique précise des besoins. Ce dernier peut conduire à des besoins ambigüs et incohérents. La figure (2.5) présente un besoin modélisé par un langage semi-formel (modèle des cas d’utilisation d’UML). vérifier les moyennes des étudiants qui ont obtenu le master de recherche Scolarité Calculer la moyenne Imprimer l'attestation de réussite Extension Points: Imprimer attestation Condition: si moyenne > = 10 Extension Point: Imprimer attestation « Extend » « Include » vérifier les moyennes des étudiants qui ont obtenu le master de recherche Scolarité Calculer la moyenne Imprimer l'attestation de réussite Extension Points: Imprimer attestation Condition: si moyenne > = 10 Extension Point: Imprimer attestation « Extend » « Include » Figure 2.5 – Un besoin modélisé par un langage semi-formel (Cas d’utilisation). 4.3 Langages formels Parmi les recommandations de Edmund Melson Clarke, Jr. dans son article intitulé Formal Methods: State of the Art and Future Directions est l’utilisation des méthodes formelles dans l’analyse des besoins 27Chapitre 2. L’expression des besoins : un état de l’art utilisateurs [88]. Les langages formels sont basés sur des notations mathématiques avec une syntaxe et une sémantique précise. Nous pouvons citer le langage B [7] et le langage Z [113]. Les langages formels ont donc été proposés afin d’exprimer les besoins par un formalisme rigoureux permettant de définir correctement les termes employés pour limiter les incompréhensions entre les parties prenantes du système. Ainsi, ils permettent de faciliter la vérification et le raisonnement sur les besoins. Malgré ces quelques avantages certains, il existe des inconvénients avérés tels que le coût et l’effort demandés pour former le plus de personnes possible aux langages formels. Un besoin modélisé par un langage formel Event-B (Méthode B) est présenté comme suit : MACHINE CALCUL-MOYEN SEES ETUDIANT VARIABLES etudiants moyenne etudiants_admis INVARIANTS inv1 : etudiants ⊆ ETUDIANT S inv2 : etudiants_admis ⊆ etudiants inv3 : moyenne ∈ etudiants −→ N inv4 : ∀x(x ∈ etudiants_admis =⇒ moyenne(x) ≥ 10) EVENTS Initialisation begin act1 : etudiants : = φ act2 : etudiants_admis : = φ act3 : moyenne : = φ end Event calcul_moyenne ' any x m where grd1 : x ∈ etudiantsetudiants_admis grd2 : m ∈ N then act1 : moyenne(x): = m end Event admis ' any x where grd1 : x ∈ etudiantsetudiants_admis grd2 : moyenne(x) ≥ 10 285. Approches et méthodes pour l’expression des besoins then act1 : etudiants_admis: = etudiants_admis ∪ {x} end END CONTEXT ETUDIANT SETS ETUDIANTS END Cette présentation de différents langages de modélisation des besoins nous montre la complémentarité des trois classes de langages. Notons que certains langages de modélisation des besoins offrent des outils graphiques qui facilitent la visualisation de l’ensemble de besoins, comme les cas d’UML, chose nécessaire dans le contexte d’une entreprise étendue. Pour que les concepteurs mènent bien leurs travaux, des méthodes et des outils d’expression de besoins ont été proposés. Dans la section suivante, nous présentons quelques méthodes accompagnées par des outils graphiques. 5 Approches et méthodes pour l’expression des besoins La littérature propose plusieurs approches et méthodes pour l’expression des besoins des utilisateurs. Nous pouvons citer : les approches dirigées par les buts, les approches à base de scénarios, les approches (Problem frames) schéma de problème, les approches basées sur des automates et réseaux de Petri [52] (le cas du modèle de traitement de la méthodologie MERISE), l’approche L’Ecritoire, etc.. Dans ce qui suit, nous présentons brièvement les approches les plus pertinentes par rapport à notre travail, et pour chacune d’entre elles nous explicitons l’angle sous lequel elle étudie le système. 5.1 Approches dirigées par les buts L’approche orientée but doit sa naissance à Yue [131]. Elle s’intéresse à l’utilisation des buts pour le recueil, l’analyse, la validation et la gestion des besoins. Comme le définit Lamsweerde [119], "un but est un objectif que le système considéré doit atteindre". Il peut donc être fonctionnel (décrit un service fourni), ou non fonctionnel (détermine la qualité de service). Dans la plupart des cas, les buts sont généralement fixés implicitement par les participants dans l’analyse préliminaire des besoins. D’autres buts peuvent être obtenus par raffinement, abstraction, etc [36]. Le but est constitué de composants actifs comme des humains, outils ou du logiciel, qu’on nomme " agents " ou " acteurs ". Un but peut faire intervenir plusieurs acteurs, et il est souvent stable à long terme. D’une manière générale, les approches dirigées par les buts offrent des mécanismes pour l’identification, l’organisation et la gestion des besoins. Ainsi elles proposent des mécanismes pour le raisonnement sur les besoins des utilisateurs. Les approches orientées buts ont montré leur utilité et leur importance dans nombre d’activités de l’IB [103], [131], [107], [129], [104], [120], [100], entre autres : – Vérifier la complétude de la spécification des besoins : les buts fournis un critère de mesure de la complétude d’une spécification de besoins; celle-ci est complète si l’on montre que l’ensemble 29Chapitre 2. L’expression des besoins : un état de l’art des buts peut être satisfait par l’ensemble des besoins de la spécification. – Expliquer les besoins aux parties prenantes du processus d’IB : les buts notamment de haut niveau fournissent les raisons du développement du système. Un besoin n’existe que s’il y a un but qui justifie sa présence dans la spécification. – Explorer des alternatives de conception : le système à développer peut fonctionner et interagir avec son environnement de multiples façons ; le mécanisme de réduction des buts et le graphe ET/OU qui en résulte aide les ingénieurs d’IB à expliciter de nombreuses alternatives et à raisonner pour déterminer celle qui semble la mieux appropriée à la situation du projet. – Structurer la collection des besoins : le mécanisme de réduction des buts y contribue. – Etablir les liens de traçabilité : le graphe de réduction des buts est un moyen d’établir les liens qualifiés de pré-traçabilité. On sait combien ces liens qui assurent la relation entre les objectifs organisationnels et les besoins à l’égard du système sont utiles pour propager un changement des premiers vers les seconds. – Identifier et gérer les conflits : les différents acteurs du processus d’IB apportent des points de vue intéressants sur le système à développer; on sait que ces points de vue peuvent être divergents et générer des conflits. Les buts aident l’explicitation des conflits et à leurs résolution. Différentes modèles suivent l’approches orientées buts : GQM [123], i* framework [129, 130], KAOS [43], TROPOS [28]. Nous présentons dans ce qui suit les modèles que nous considérons comme étant les plus représentatifs de cette approche. Ces modèles seront utilisés par la suite pour construire le modèle orienté but d’expression des besoins que nous proposons. 5.1.1 GQM : Goal Question Metric Selon Basili [123]. GQM représente une approche systématique pour établir des Buts en accord avec les besoins spécifiques d’une organisation, pour les définir d’une manière opérationnelle et traitable en les raffinant en un ensemble de questions qui à leur tour impliquent un ensemble de métriques spécifiques et de données à collecter. Cette approche propose trois niveaux d’abstraction. 1. Niveau conceptuel (Goal) : Selon GQM, un but est défini de la manière suivante : un but est défini pour un objet, pour plusieurs raisons, par rapport à plusieurs modèles de qualité, depuis plusieurs points de vue et est relatif à un environnement particulier. Ex. Améliorer la qualité de l’enseignement des cours de base de données selon le directeur de l’université. – Objet d’étude : (Qualité d’enseignement): représente la partie de la réalité qui est observée et étudiée. – Raisons : (Améliorer): représente les motivations (les raisons) de l’étude de l’objet. – Modèles de qualité : (Base de données): représente les caractéristiques de l’objet qui sont considérées dans l’étude. – Points de vue : (Directeur de l’université): représente la personne ou le groupe de personnes intéressé par l’étude de l’objet. – Environnement : (Université): représente le contexte d’application où l’étude est réalisée. 2. Niveau opérationnel (Question) : un ensemble de questions est utilisé pour caractériser la façon d’évaluer un but spécifique. Le rôle d’une question est d’essayer de caractériser un objet à mesurer et essayer de déterminer sa qualité par rapport à un point de vue précis. Ex. Est ce que le créneau 305. Approches et méthodes pour l’expression des besoins Goal 1 Goal 2 Goal n Question 1 Question 2 Question 3 Question 4 Question 5 Question n Metric 1 Metric 2 Metric 3 Metric 4 Metric 5 Metric n Niveau conceptuel Niveau opérationnel Niveau quantitatif Améliorer la qualité de l'enseignement des cours de base de données selon le directeur de l'université. Est-ce que le créneau horaire de cours convient aux étudiants ? Le nombre d'étudiants inscrits au cours. Exemple Goal Question Metric Goal 1 Goal 2 Goal n Question 1 Question 2 Question 3 Question 4 Question 5 Question n Metric 1 Metric 2 Metric 3 Metric 4 Metric 5 Metric n Niveau conceptuel Niveau opérationnel Niveau quantitatif Améliorer la qualité de l'enseignement des cours de base de données selon le directeur de l'université. Est-ce que le créneau horaire de cours convient aux étudiants ? Le nombre d'étudiants inscrits au cours. Exemple Goal Question Metric Figure 2.6 – Approche GQM (Goal Question Metric). horaire de cours convient aux étudiants ? 3. Niveau quantitatif (Metric) : Un ensemble de données est associé à chaque question pour lui apporter une réponse dans un but quantitatif. La métrique est constituée d’une manière quantitative pour répondre à une question spécifique. Ex. Le nombre d’étudiants inscrits au cours. La figure2.6 présente la structure hiérarchique du l’approche GQM. Cette structure commence par déterminer un but spécifique, ensuite raffine le but en un ensemble de questions et chaque question est raffinée à son tour en plusieurs métriques. Une même métrique peut être utilisée pour répondre à différentes questions pour un même but. 5.1.2 KAOS KAOS est une méthodologie d’ingénierie des besoins dirigée par les buts, et signifie Keep All Objects Satisfied [43]. Le concept principal dans KAOS est le concept de But, dont la satisfaction nécessite la coopération d’agents pour configurer le système. Les buts sont liés entre eux par des relations de décomposition AND/OR. KAOS fournit quatre modèles. – Le modèle central est le modèle de buts qui décrit les buts du système et de son environnement. Ce modèle est organisé dans une hiérarchie obtenue grâce au raffinement de buts de plus haut niveau (les buts stratégiques) vers des buts de bas niveau (les exigences). 31Chapitre 2. L’expression des besoins : un état de l’art – Le modèle objet : il permet de décrire le vocabulaire du domaine. Il est représenté par un diagramme de classes UML. – Le modèle des responsabilités : il permet d’assigner les exigences (les buts feuilles) aux différents agents. Ces agents appartiennent au système à construire (agents internes) ou à son environnement (agents externes). – Le modèle des opérations : il représente les opérations du système en termes de leurs caractéristiques individuelles et de leurs liaisons avec les modèles de buts (liens d’opérationnalisation des exigences), objets (liens d’entrée-sortie) et responsabilités (liens d’exécution). – Le modèle des comportements : il résume tous les comportements que les agents doivent accomplir pour satisfaire les besoins. Ces comportements sont exprimés sous la forme d’opérations exécutées par les agents responsables. La figure 2.7 illustre un exemple de modèle de but selon KAOS. Le principal but qualité d’un article de publication est décomposé en plusieurs sous buts qui doivent tous être satisfaits pour satisfaire le but principal comme : la définition du comité de programme, la réception des articles, la lecture des articles, la sélection des articles acceptés et l’édition finale. Les buts qui sont des feuilles dans le graphe de but sont appelés des pré-requis. Ces derniers sont rendus opérationnels par des actions. Quality Papers Publication Program Committee Definition Papers Received Papers Reviewed Final Edition Accepted Papers Selection Review Form Definition Papers Reviewers Selection Review Proposal Sending Papers Registration Papers Submitted In a Format Papers with quality Review Proposal Accepted Author Submissions Control-Chair Papers with quality Review Proposal Refused AND Refining Goal OR Refining Conflict Expectation Responsibility Agent Requirement Assignment/Task Reviewer Quality Papers Publication Program Committee Definition Papers Received Papers Reviewed Final Edition Accepted Papers Selection Review Form Definition Papers Reviewers Selection Review Proposal Sending Papers Registration Papers Submitted In a Format Papers with quality Review Proposal Accepted Author Submissions Control-Chair Papers with quality Review Proposal Refused AND Refining Goal OR Refining Conflict Expectation Responsibility Agent Requirement Assignment/Task Reviewer Figure 2.7 – Exemple d’un modèle orienté buts KAOS [13]. 325. Approches et méthodes pour l’expression des besoins 5.1.3 iStar (i*) iStar (i*) acronyme de ’Intentional STratégic Actor Relationships’ est un framework de modélisation standardisé proposé par Eric Yu [129],[130] traitant la phase initiale d’analyse des besoins. Le framework i* distingue les deux phases suivantes dans l’IB. – Phase initiale : elle vise à analyser et à modéliser les intérêts des utilisateurs et la manière de les intégrer dans différents systèmes et environnements. – Phase finale: elle se concentre principalement sur la complétude, la consistance et la vérification automatique des besoins. i* est fondée sur les sept concepts suivants. – Acteur : un acteur représente un agent physique (par exemple une personne, un animal, une voiture) ou un agent logiciel. – But : un but représente un intérêt stratégique d’un acteur. i* distingue les buts fonctionnels (hardgoals ou goals) des buts non-fonctionnels (soft-goals). Les soft-goals sont utilisés pour modéliser des qualités du logiciel, tels que la sécurité, la performance et la maintenabilité. – Croyance : les croyances sont utilisées pour représenter les connaissances de chaque acteur sur le monde (l’environnement). – Plan (Task) : un plan représente une manière ou un ensemble d’actions à réaliser pour satisfaire un but. – Ressource : une ressource représente une entité physique ou informationnelle recherchée par un acteur et fournie par un autre acteur. – Capacité : la capacité représente l’aptitude d’un acteur à définir, choisir et exécuter un plan pour réaliser un but, dans un environnement donné. – Dépendance: une dépendance entre deux acteurs indique qu’un acteur dépend d’un autre acteur pour atteindre un but, exécuter un plan ou délivrer une ressource. Un exemple (une instance du méta-modèle) d’un modèle iStar est présenté dans la figure 2.8. Le but principal de l’acteur Auteur est la publication de son article ( Article be Published). Ce but est accompli par la tâche soumettre l’article ( Submit article in conference). Cette tâche est accomplie par deux sous-buts article à soumettre ( Article be Submitted) et version finale à transmettre(Camera Ready Be Transmitted). Les autres nœuds représentent les buts et les tâches nécessaires pour accomplir ces deux sous buts. 5.2 Approches à base de scénarii Dans les approches à base de scénarii, les besoins sont décrits à l’aide de scénarii visant à la compréhension du système par les participants. Les événements de scénarii sont des interactions entre l’utilisateur et le système. Un scénario peut être défini comme l’ordre des actions ou des événements pour un cas spécifique d’une certaine tâche générique qu’un système doit accomplir [105]. Il permet de capturer des scènes, des descriptions narratives du contexte et du fonctionnement du système, des cas d’utilisation et des exemples de comportement d’utilisateur. Les scénarios sont exprimés dans différents langages : informels (langage naturel), semi-formels (diagramme des cas d’utilisation (UML), tableaux, etc.) ou formels (langages basés sur des grammaires régulières, diagrammes d’états, etc.). Nous nous sommes intéressés plus particulièrement aux diagrammes des cas d’utilisation. Rappelons qu’il existe des outils 33Chapitre 2. L’expression des besoins : un état de l’art Article be Published Author Submit article in conference Article be Submitted Prepare Camera Ready Send Camera Ready Obtain Reviews Submit Article Article Obtain Reviews Send Inf Article Author Send Article Camera Ready Be Transmitted Effortless [submission] Security [submission] Hurt Goal Task Resource Soft-Goal Task-Decomposition link Means-ends link Actor Contribution to softgoals Actor Boundary Legend Article be Published Author Submit article in conference Article be Submitted Prepare Camera Ready Send Camera Ready Obtain Reviews Submit Article Article Obtain Reviews Send Inf Article Author Send Article Camera Ready Be Transmitted Effortless [submission] Security [submission] Hurt Goal Task Resource Soft-Goal Task-Decomposition link Means-ends link Actor Contribution to softgoals Actor Boundary Legend Figure 2.8 – Exemple d’un modèle orienté buts iStar (i*) [13]. comme Rational Rose 17 qui offrent des visualisations graphiques. Un cas d’utilisation est un moyen pour décrire les exigences fonctionnelles d’un système. D’après Jacobson et al, un cas d’utilisation est une description d’un ensemble de séquences d’actions, incluant des variantes, qu’un système effectue pour fournir un résultat observable et ayant une valeur pour un acteur[68]. Chaque cas d’utilisation contient un ou plusieurs scénarii qui définissent comment le système devrait interagir avec les utilisateurs (appelés acteurs) pour atteindre un but ou une fonction spécifique d’un travail. Un acteur d’un cas d’utilisation peut être un humain ou un autre système externe à celui que l’on tente de définir. Pour clarifier le diagramme, UML permet d’établir des relations entre les cas d’utilisation. Il existe principalement deux types de relations : les relations de dépendances (Inclusion, Extension) et la généralisation/spécialisation. – La relation d’inclusion : un cas A est inclus dans un cas B si le comportement décrit par le cas A est inclus dans le comportement du cas B : on dit alors que le cas B dépend de A. Par exemple, l’accès aux informations des étudiants inclut nécessairement une phase d’authentification avec un mot de passe (figure 2.9). Les inclusions permettent aussi de décomposer un cas complexe en sous-cas plus simples. – La relation d’extension : si le comportement de B peut être étendu par le comportement de A, on dit alors que A étend B. Une extension est souvent soumise à condition. Graphiquement, la 17. http://www-03.ibm.com/software/products/fr/enterprise/ 345. Approches et méthodes pour l’expression des besoins Gérer les étudiants Accéder aux informations des étudiants Scolarité Calculer la moyenne Admettre des étudiants Extension Points: exécuter les actions d’admission Condition: si moyenne > = 10 Extension Point: exécuter les actions de l’admission « Extend » « Includes » Cas d’utilisation Ajouter des étudiants Supprimer des étudiants S'authentifier Gérer les étudiants Accéder aux informations des étudiants Scolarité Calculer la moyenne Admettre des étudiants Extension Points: exécuter les actions d’admission Condition: si moyenne > = 10 Extension Point: exécuter les actions de l’admission « Extend » « Includes » Cas d’utilisation Ajouter des étudiants Supprimer des étudiants S'authentifier Figure 2.9 – Diagramme des cas d’utilisation (Use case). condition est exprimée sous la forme d’une note. La figure 2.9 présente l’exemple d’une scolarité où l’admission d’un étudiant n’intervient que si sa moyenne obtenue est supérieure ou égale 10 sur 20. – La relation de généralisation : un cas A est une généralisation d’un cas B si B est un cas particulier de A. Pour la figure2.9, Ajouter un étudiant est un cas particulier Gérer les étudiants. La relation de généralisation/spécialisation existe dans la plupart des diagrammes UML et elle est interprétée par le concept d’héritage dans les langages orientés objet. 5.3 Approches basées sur les automates et réseaux de Petri Dans cette section, nous nous concentrons que sur le modèle de traitements de méthodologie Merise [101] qui représente un bon exemple de méthode d’expression de besoins avec un réseau de Petri. Rappelons que Merise est un produit français, développé à l’initiative du Ministère de l’industrie en 1977 pour offrir aux entreprises publiques une méthodologie rigoureuse tout en intégrant les aspects nouveaux pour l’époque : les bases de données (modélisation entité association, le modèle relationnel, le déploiement sur des SGBD, etc.) et l’informatique répartie (le réseau, la fragmentation du schéma de la base de données, etc.). La principale caractéristique de cette méthode, est la séparation entre les données et les traitements. Un formalisme inspiré des réseaux de Pétri est proposé pour exprimer les traitements identifié lors de la phase des besoins (Figure 2.10). Le Modèle Conceptuel de Traitement (MCT) utilisé par la méthodologie de Merise est une succession de traitements déclenchés par des événements et qui donnent naissance à de nouveaux événements. Un traitement (opération) est une suite d’actions réalisées en vue d’obtenir un résultat[99]. Dans notre 35Chapitre 2. L’expression des besoins : un état de l’art Nom de traitement Règle d’émission 1 Résultat 1 Résultat 2 Synchronisation Evènement 1 Evènement 2 Action 1 Action 2 Action n (a) Formalisme graphique. Vérifier l’admission des étudiants Étudiant admis Étudiant ajourné ET Authentification Le système permet à la scolarité de vérifier l’admission des étudiants Calculer moyenne Moyenne < 10 (b) Exemple (gestion de scolarité). Règle d’émission 2 Moyenne = > 10 Acteur Scolarité Nom de traitement Règle d’émission 1 Résultat 1 Résultat 2 Synchronisation Evènement 1 Evènement 2 Action 1 Action 2 Action n (a) Formalisme graphique. Vérifier l’admission des étudiants Étudiant admis Étudiant ajourné ET Authentification Le système permet à la scolarité de vérifier l’admission des étudiants Calculer moyenne Moyenne < 10 (b) Exemple (gestion de scolarité). Règle d’émission 2 Moyenne = > 10 Acteur Scolarité Figure 2.10 – Exemple de modèle conceptuel de traitement. travail, nous nous intéressons à l’utilisation du MCT comme modèle des besoins des utilisateurs. (Voir figure 2.10.(a)). – Acteur : est une personne morale ou physique capable d’émettre ou de recevoir des informations. Par exemple la scolarité. – Évènement : C’est un fait réel qui, seul ou synchronisé avec d’autres évènements, a pour effet de déclencher une ou plusieurs actions. Un événement peut: – déclencher un traitement (ex : Le système permet à la scolarité de vérifier l’admission des étudiants déclenche le traitement Vérifier l’admission des étudiants (voir l’exemple de la figure 2.10.(b)). – être le résultat d’un traitement (ex : (Étudiant admis), et à ce titre être, éventuellement, un événement déclencheur d’un autre traitement. – Traitement (opération) : est un ensemble d’actions exécutées par le système suite à un événement, ou à une conjonction d’événements. – Règles d’émissions : représentent des conditions permettant l’expression des solutions alternatives et l’exécution conditionnelle du traitement. Par exemple (si la moyenne = > 10 alors (Étudiant admis). Sinon (Étudiant ajourné)). – Synchronisation : est une relation entre les événements déclencheurs qui est représentée par une condition booléenne grâce aux opérateurs logiques " Et ", " Ou " et " Non ". Le traitement n’est pas déclenché si la condition n’est pas réalisée. Notons que le MCT est intégré dans l’outil Power AMC18 de Sybase. 18. http://www.sybase.fr/products/modelingdevelopment/poweramc 366. Problématiques liées à l’expression des besoins Nous venons de présenter différentes approches pour exprimer les besoins des utilisateurs. Ces mé- thodes peuvent amener différents problèmes qui ont amené le travail réalisé dans cette thèse. Ces problèmes sont décrits dans la section suivante. 6 Problématiques liées à l’expression des besoins L’importance des besoins augmente dans le contexte des entreprises étendues. Ces dernières nécessitent la collaboration d’un grand nombre de concepteurs qui peuvent provenir de différents domaines, départements, laboratoires de recherche, etc. Dans cette situation, produire un document des besoins de qualité devient difficile dû à plusieurs problèmes. Nous pouvons citer : (1) l’hétérogénéité des réfé- rentiels (vocabulaires), (2) l’hétérogénéité au niveau des langages de modélisation des besoins, (3) les relations complexes entre les besoins des utilisateurs et (4) l’évolution des besoins. Ces problèmes sont déjà détaillés dans le chapitre 1. Les autres problèmes suivants peuvent conduire à des besoins ambigus, incomplets, incohérents, et incorrects [38]. – Problèmes de périmètre : si les frontières et les objectifs du système cible sont mal définis après l’analyse du contexte de l’organisation. Des besoins incomplets, non vérifiables, et inutilisables peuvent également être fournis. Cela conduit à l’inachèvement du projet, au dépassement de ses budgets, ou à la défaillance du système développé. – Une compréhension incomplète des besoins. – Une faible collaboration entre les différents utilisateurs ou concepteurs du système. – Une faible connaissance du domaine par les concepteurs. Dans le cadre d’une entreprise étendue impliquant un nombre important de concepteurs hétérogènes, une bonne étude des besoins nécessite trois phases principales : (i) l’expression des besoins, (ii) l’intégration des besoins et (iii) leur analyse. Nous avons déjà évoqué la première phase dans les sections précédentes, où nous avons montré la diversité des langages de modélisation des besoins. Dans la section suivante, nous allons détailler les travaux concernant deux dernières phases. 7 État des lieux sur l’intégration et l’analyse des besoins 7.1 L’intégration des besoins Un nombre important de travaux sur l’intégration de besoins ont été proposés que nous pouvons classer en deux catégories : les approches dirigées par des méthodes issues de la logique mathématique [83, 127] et les approches d’ingénierie dirigée par les modèles (IDM) [86, 94, 5, 121, 30]. 7.1.1 Exemples d’approches dirigées par des méthodes issues de la logique mathématique Nous prenons l’exemple du travail de Wieringa et al. [127]. La particularité de ce dernier est qu’il s’intéresse à l’intégration des besoins exprimés à l’aide de trois langages appartenant aux trois catégories, 37Chapitre 2. L’expression des besoins : un état de l’art à savoir formelles, semi-formelles et informelles. Pour ce faire, les auteurs proposent un Framework appelé TRADE (Toolkit for Requirements And Design Engineering), au sein duquel plusieurs techniques de spécification semi-formelles connues sont placées (par exemple, Class-Relationship Diagrame, CRD, Communication diagram et Function refinement tree). TRADE est basé sur une méthode de spécification structurée et orientée objet pour analyser les besoins. Dans ce travail, les auteurs combinent TRADE avec un langage formel de spécification (Albert II) [47]. Ce dernier a été développé et expérimenté depuis plusieurs années, il est destiné à la modélisation et la spécification des besoins exprimés par les utilisateurs. Les auteurs montrent que cette intégration conduit à une spécification cohérente des besoins formels et semi-formels. Cette approche a été illustrée par quelques exemples d’applications dans le domaine de la télécommunication distribuée. Un autre exemple de travaux traitant deux langages appartenant à deux catégories de langages de modélisation des besoins différentes, à savoir semi-formelle et formelle est celui de Laleau et al. [83]. Les auteurs de ce travail proposent une méthode intégrant le langage SysML considéré comme langage semiformel et la méthode B appartenant à la catégorie formelle. L’idée principale de ce travail est d’étendre le langage SysML avec les concepts appartiennent à des méthodes d’ingénierie des besoins existantes. L’approche s’effectue selon les étapes suivantes : (1) étendre le langage SysML par des concepts repré- sentant les concepts de base du modèle de but de la méthode KAOS. Cette extension est concrètement établie au niveau du méta-modèle à l’aide des techniques de méta-modèlisation. (2) définition des règles pour dériver une spécification formelle de B à partir de ce modèle étendu. Cette étape permet de fournir une sémantique précise aux éléments du modèle de besoins. 7.1.2 Approches dirigées par IDM L’IDM offre un cadre technique qui peut concerner les activités de l’IB autour de méta-modèles et les transformations de modèles, afin de fournir des spécifications des besoins qui soient correctes, complètes, cohérentes, sans ambiguïté, modifiables et faciles à lire et à sauvegarder. L’IDM peut s’appliquer dans différentes phases du processus d’IB, depuis l’élicitation jusqu’à la gestion des besoins. Elle est utilisée dans la modélisation, la persistance, l’intégration, la vérification, la traçabilité et la collaboration des besoins. Plusieurs travaux d’intégration des besoins, proposant l’utilisation des approches dirigées par les modèles, ont été proposés dans la littérature [86],[94],[5], [121], etc. Parmi ces travaux, voici une description de ceux étant les plus proches de nos préoccupations. – Lopez et al. [86] : proposent un méta-modèle comme un schéma conceptuel (défini à priori) pour intégrer certains types de diagrammes semi-formels des besoins dans une approche de réutilisation des besoins (Figure:2.11). Le métamodèle généré supporte six techniques de modélisation des besoins connues, qui se concentrent principalement sur les besoins fonctionnels : scénarii, cas d’utilisation, diagrammes d’activité, flux de données, document tâches et workflows. – Navarro et al. [94] : proposent une approche de modélisation des besoins qui permet l’intégration de l’expressivité de certaines techniques les plus pertinentes dans le domaine de l’IB, dans un Framework commun. Ce travail est basé sur les techniques de méta-modélisation de l’IDM comme un moyen d’intégration et de personnalisation. Pour établir cette intégration, les auteurs ont étudié cinq approches connues dans le domaine de l’IB : traditionnel (basées sur la norme IEEE 830-1998), Use Cases, Goal Oriented, Aspect Oriented et variability management. Les auteurs ont commencé par un ensemble limité de concepts, de manière à ce qu’il soit plus simple et 387. État des lieux sur l’intégration et l’analyse des besoins Modeling Unit Requirements Representation Model Complement Exception Subset Equivalence Extension Inclusion Dependency Association Generalization Unit Realationship source target 1 * 1 * Constraint Connector Goal State Activity Subject Semiformal Behavioural and Structural Model Behavioural Model Structural Model Compulsory Optional Alternative Multiple Model Realationship Domain Objective * * * * parent child characterize 1 1.0 Project 1.* 1.* Unit Model Relationship 1 1 * * * 2.* From System From User Action Job Person Autonomous System Company Unit Linear Joint Split Resource Constraint Temporal Constraint Physical Data Data Flows Diagram Docuement-Task Diagram Activity Diagram Sequence Specification Diagram Scenarii Diagram Use Cases Diagram Workflow Diagram Meta Level Model Level Modeling Unit Requirements Representation Model Complement Exception Subset Equivalence Extension Inclusion Dependency Association Generalization Unit Realationship source target 1 * 1 * Constraint Connector Goal State Activity Subject Semiformal Behavioural and Structural Model Behavioural Model Structural Model Compulsory Optional Alternative Multiple Model Realationship Domain Objective * * * * parent child characterize 1 1.0 Project 1.* 1.* Unit Model Relationship 1 1 * * * 2.* From System From User Action Job Person Autonomous System Company Unit Linear Joint Split Resource Constraint Temporal Constraint Physical Data Modeling Unit Requirements Representation Model Complement Exception Subset Equivalence Extension Inclusion Dependency Association Generalization Unit Realationship source target 1 * 1 * Constraint Connector Goal State Activity Subject Semiformal Behavioural and Structural Model Behavioural Model Structural Model Compulsory Optional Alternative Multiple Model Realationship Domain Objective * * * * parent child characterize 1 1.0 Project 1.* 1.* Unit Model Relationship 1 1 * * * 2.* From System From User Action Job Person Autonomous System Company Unit Linear Joint Split Resource Constraint Temporal Constraint Physical Data Data Flows Diagram Docuement-Task Diagram Activity Diagram Sequence Specification Diagram Scenarii Diagram Use Cases Diagram Workflow Diagram Meta Level Model Level Figure 2.11 – Méta-modèle des besoins modélisés en UML. [86]. facile de parvenir à un méta-modèle consensuel. En outre, ils fournissent quelques conseils pour étendre cet ensemble de concepts, de telle sorte qu’une cohérence sémantique appropriée puisse être maintenue. – ITU-T12. [5] : selon [Recommendation ITU-T Z.151], URN (User Requirements Notation) est un langage de modélisation qui permet l’élicitation, l’analyse, la spécification et la validation des besoins. URN combine deux langages de modélisation : le langage GRL (Goal-oriented Requirement Language) pour modéliser les acteurs et leurs besoins non-fonctionnels et la notation UCM (Use Case Maps) pour décrire les scénarios des besoins fonctionnels et les architectures. URN permet aux analystes des besoins de découvrir et de spécifier les besoins pour un système proposé ou un système évolutif, et d’analyser ces besoins pour détecter les incohérences et les ambigüités. – Vicente et al. [121] : proposent un méta-modèle des besoins appelé REMM (Requirements Engineering MetaModel). Ce travail est une première tentative pour apporter les avantages de l’approche IDM à la pratique de l’IB. Les auteurs notent que, se référant à [11], les éléments du métamodèle des besoins dépendent fortement du contexte. Ainsi, le méta-modèle REMM est conçu dans un contexte de réutilisation des besoins, même s’ils estiment que les concepts et les relations du méta-modèle sont généralement applicables dans les approches de l’IB. REMM supporte trois types de relations entre les besoins : DependenceTrace, InfluenceTrace, et ParentChildTrace. – Brottier et al. [30] : proposent un mécanisme dirigé par les modèles pour intégrer un ensemble de spécifications textuelles des besoins, écrites dans différentes syntaxes, dans un modèle global. 39Chapitre 2. L’expression des besoins : un état de l’art Ce mécanisme est intégré dans une plateforme appelée R2A qui signifie (Requirements to Analysis). L’élément central de R2A est son méta-modèle des besoins qui a été défini pour capturer les besoins du modèle global. Le processus est composé de deux étapes basées sur les techniques de l’IDM. La première analyse chaque spécification des besoins textuels pour produire un modèle de syntaxe abstraite. La deuxième étape, interprète la sémantique abstraite de chaque modèle dans un modèle de besoins intermédiaire, puis fusionne ces modèles dans un modèle de besoins global des besoins (Figure:2.12). Ces deux étapes emploient les techniques de l’IDM. Ce travail fournit un modèle global des besoins. Interpretation Fusion Parsing Specification model Specification model Global requirements model Core requirements Metamodel Input language Metamodel Intermediate model Intermediate model Textual specification (n) Textual specification (1) Input language Grammar 1 2 2a 2b Text world Model world Model transformation « Conforms to » Import Interpretation Fusion Parsing Specification model Specification model Global requirements model Core requirements Metamodel Input language Metamodel Intermediate model Intermediate model Textual specification (n) Textual specification (1) Input language Grammar 1 2 2a 2b Text world Model world Model transformation « Conforms to » Import Figure 2.12 – Etape de production d’un modèle global des besoins [30]. 7.2 L’analyse des besoins Nous rappelons que la phase d’analyse des besoins consiste à analyser la compréhension des besoins, de les exprimés et de les clarifier ainsi que de supprimer leurs incohérences, d’assurer la complétude de leurs description et déceler les redondances. Plusieurs travaux qui peuvent surgir d’analyse des besoins ont été proposés dans la littérature que nous détallions ci-après. – Mirbel et al. [92] : proposent une approche permettant de vérifier la cohérence dans le modèle orienté buts (Goal-oriented). L’approche vise à détecter des relations implicites entre les buts et à vérifier les incohérences possibles entre eux. Dans ce travail, les auteurs ont utilisé la technique de la théorie de l’argumentation pour formaliser les besoins (buts) et leurs relations, et pour détecter les incohérences. Cette approche peut être considérée comme une aide apportée aux acteurs afin 407. État des lieux sur l’intégration et l’analyse des besoins de les aider à atteindre une compréhension commune d’un ensemble des besoins basés sur les buts. – Heitmeyer et al. [65] : proposent une technique d’analyse formelle, appelée vérification de la cohérence pour la détection automatique des erreurs dans les spécifications des besoins. La technique est conçue afin d’analyser les spécifications des besoins exprimés par des notations tabulaires SCR (Software Cost Reduction). Pour fournir une sémantique formelle pour la notation SCR, un modèle formel de spécification est introduit. Ce dernier représente le système comme un automate à états finis. Il définit un état du système en termes d’entités, une condition en tant que prédicat sur l’état du système, et un événement d’entrée comme un changement qui déclenche un nouvel état du système. – Giorgini et al. [51] : proposent un framework de raisonnement sur les modèles de buts. Ces derniers utilisent des relations ET/OU, ainsi que des relations plus qualitatifs entre les buts comme par exemple les relations de contradiction. Le framework fournit une sémantique précise pour toutes les relations de but dans une forme qualitative et numérique en utilisant des algorithmes de propagation des étiquettes (Label propagation algorithms). L’analyste attribue des valeurs de contribution (+) et (-) pour les arêtes d’un graphe de buts. La valeur de contribution d’une arête représente le degré de la contribution positive ou négative entre deux buts. Ces valeurs quantitatives peuvent aider un analyste à reconnaître les conflits entre les buts. La principale limitation de ce framework est la définition des liaisons de contribution et l’affectation des étiquettes. C’est un problème que l’analyste peut rencontrer dans la modélisation de situations complexes où de nombreux buts sont liés entre eux, et lorsque différents points de vue doivent être pris en compte dans l’attribution des valeurs initiales aux buts. De plus, le framework de raisonnement présenté est très spécifique aux modèles de but. – Lamsweerde [84] : propose une approche pour raisonner sur les besoins alternatifs. Ils ont introduit des relations d’influence entre les besoins, en indiquant si un besoin a une influence positive ou négative sur un autre besoin. Les auteurs appliquent des techniques de raisonnement formel pour identifier les besoins qui ont un impact négatif. 7.3 Synthèse Dans cette section, nous avons fait un tour d’horizon sur les nombreuses phases de l’ingénierie des besoins. Cette étude nous a permis d’identifier certaines lacunes concernant l’intégration et l’analyse des besoins : (1) l’absence d’autonomie des concepteurs à cause de l’unique vocabulaire imposé pour l’expression des besoins, (2) l’indépendance des phases, en d’autres termes, l’expression (modélisation) et l’analyse des besoins sont faits d’une manière indépendante, d’où la présence de deux communautés de recherche distinctes, une qui traite la partie intégration et l’autre la partie analyse, malgré l’interdépendance des deux phases, (3) les relations entre les besoins (par exemple, les conflits) sont détectées trop tard ou pas du tout et (4) les besoins ne sont pas intégrés dans le cycle de vie de conception de bases de données avancées. Pour résumer, nous proposons une comparaison des travaux étudiés selon 7 critères qui sont : (1) l’intégration langages de modélisation des besoins (IL), (2) les classes de langages utilisés (informels, semi formels, formels) (CLU), (3) l’intégration vocabulaires (IV), (4) l’analyse (A), (5) la couverture de cycle de vie (CCV), (6) la présence des outils (PO), (7) l’évolution (E). (Voir Tableau 2.1) 41Chapitre 2. L’expression des besoins : un état de l’art Travaux / Critères IL CLU IV A CCV PO E Wieringa et al.[127] Oui informels, semi-formels, formels Non Oui Non Oui Non Laleau et al. [83] Oui semi-formels, formels Non Oui Non Non Non Lopez et al.[86] Oui semi-formels Non Non Non Non Non Navaro et al.[94] Oui semi-formels Non Oui Non Non Non ITU-T12.[5] Oui semi-formels Non Oui Non Oui Non Vicente et al.[121] Oui semi-formels Non Oui Non Oui Non Brottier et al.[30] Oui informels, semi-formels Non Oui Non Oui Non Mirbel et al.[92] Non formels Non Oui Non Non Non Heitmeyer et al.[65] Non informels Non Oui Non Oui Non Giorgini et al.[51] Non semi-formels Non Oui Non Oui Non Lamsweerde et al.[84] Non semi-formels Non Oui Non Non Non Table 2.1 – Comparaison des travaux étudiés. Cette comparaison nous montre l’intérêt de développer des approches unifiant les langages de modé- lisation des besoins et les vocabulaires et surtout "consolider" les besoins avec les phases de conception des bases de données avancées. 8 Conclusion Dans ce chapitre, nous avons d’abord montré le rôle crucial des besoins dans le cycle de vie de conception des bases de données avancées. Les traités indépendamment dans l’ensemble des phases de ce cycle pénalise l’application finale. Pour mieux comprendre la communauté de l’ingénierie des besoins, nous avons revu certaines définitions et concepts liés à leurs phases : élicitation, modélisation, analyse et validation. Nous avons longuement insisté sur les langages de modélisation des besoins et surtout leur diversité. Trois classes de langages sont présentées : les langages informels considérés comme les pionniers de langages, les langages semi-formels, et les langages formels. Dans chaque classe, une large panoplie de langages existe. Cette diversité rend difficile leur intégration. Dans le but d’intégrer les langages de modélisation des besoins hétérogènes, nous nous sommes focalisés sur la classe semi-formelle, où nous avons étudié trois familles de langages qui seront considérées dans notre étude de cas : approches dirigées par les buts, approches à base de scénarii et les approches basées sur des automates et réseaux de Petri (le cas du modèle de traitement de la méthode MERISE). L’analyse des travaux d’intégration et d’analyse des besoins présentés dans la section 7 nous a montré l’ignorance de l’hétérogénéité des vocabulaires. Pour réduire cette hétérogénéité, nous proposons l’utilisation des ontologies que nous allons détailler dans le chapitre suivant. Notre vision est d’étendre les besoins à tout le cycle de vie de conception de bases de données avancées plutôt que de les limiter à la phase initiale. 42Chapitre 3 Les ontologies au service de l’Ingénierie des Besoins Sommaire 1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 2 Ontologies de domaine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 2.1 Définitions et caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . 45 2.2 Une taxonomies des ontologies de domaine . . . . . . . . . . . . . . . . 46 2.2.1 Les Ontologies Linguistiques (OL) . . . . . . . . . . . . . . . 47 2.2.2 Les Ontologies Conceptuelles (OC) . . . . . . . . . . . . . . . 47 2.3 Les langages de définitions des ontologies . . . . . . . . . . . . . . . . . 48 2.3.1 Langages orientés gestion et échange de données . . . . . . . . 48 2.3.2 Langages orientés inférence . . . . . . . . . . . . . . . . . . . 50 2.4 Les éditeurs d’ontologies . . . . . . . . . . . . . . . . . . . . . . . . . . 52 2.5 Représentation formelle d’une ontologie . . . . . . . . . . . . . . . . . . 53 3 Ontologies et l’intégration : application aux sources de données hétérogènes . 54 3.1 Intégration sémantique a posteriori . . . . . . . . . . . . . . . . . . . . . 54 3.2 Intégration sémantique a priori . . . . . . . . . . . . . . . . . . . . . . . 56 4 Les ontologies dans l’IB : état de l’art . . . . . . . . . . . . . . . . . . . . . . 57 4.1 L’analyse des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 4.2 L’intégration des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . 60 4.3 Ontologies, besoins et le cycle de vie de conception . . . . . . . . . . . . 60 4.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 Résumé. Nous présentons dans ce chapitre un état de l’art portant sur l’utilisation des ontologies dans le domaine de l’IB. Nous abordons tout d’abord, la notion d’ontologie de domaine, ensuite la contribution des ontologies dans l’intégration des sources de données hétérogènes. Nous présentons également l’utilisation des ontologies dans le domaine de l’IB. Finalement, nous positionnons notre travail par rapport à l’état de l’art sur les travaux d’intégration des donnée à base ontologique. 431. Introduction 1 Introduction Au cours de ces dernières années, la notion d’ontologie s’est rapidement diffusée dans un grand nombre de domaines de recherche tels que les bases de données et l’intelligence artificielle (IA). Dans le domaine de base de données, elles ont contribué principalement à la conception de bases de données vu leur similarité avec les modèles conceptuels [49] et l’intégration de sources de données [20], tandis que dans le domaine de l’IA, les ontologies ont notamment offert des mécanismes de raisonnement et de déduction. Une ontologie est définie comme la représentation formelle et consensuelle au sein d’une communauté d’utilisateurs des concepts propres à un domaine et des relations qui les relient. Le but d’une ontologie est aussi de permettre de partager et de représenter formellement la sémantique des objets d’un domaine, ainsi que de supporter certains mécanismes de traitement automatique tel que le raisonnement. Compte tenu du caractère prometteur de cette notion, de nombreux travaux portent sur l’utilisation des ontologies dans des domaines aussi divers que le traitement automatiques de la langue naturelle, la recherche d’information, le commerce électronique, le web sémantique, la spécification des composants logiciels, l’ingénierie et l’intégration d’informations, etc. Récemment, les ontologies ont été utilisées dans le domaine d’IB afin de faciliter l’expression des besoins ainsi que pour détecter l’incohérence et l’ambiguïté sémantique entre les besoins utilisateurs. La fusion entre les deux domaines (ingénierie des besoins et ontologies) a suscité l’intérêt de la communauté de recherche depuis les années 80 et depuis, les ontologies ont démontré leur efficacité à résoudre d’autres problèmes comme l’indexation des données, le traitement de langage naturelle, l’échange et le partage des données, etc. En effet, l’ontologie peut servir de vocabulaire précis et partagé pour définir la sémantique des besoins à l’aide de concepts communs, formalisés et référençables. Nous présentons dans ce chapitre un état de l’art portant sur l’utilisation des ontologies dans le domaine de l’IB. Il est organisé en cinq sections. Dans la section 2, nous introduisons les ontologies, leurs principales définitions, caractéristiques, langages de définition, éditeurs, et formalisation. Nous donnons ensuite leur classification en se basant sur la nature de ce qu’elles décrivent. La section 3 est consacrée à l’utilisation des ontologies pour l’intégration des sources de données hétérogènes. La section 4 présente un état de l’art sur les travaux qui utilisent des ontologies dans le domaine de l’IB. La section 5 conclut ce chapitre. 2 Ontologies de domaine Dans cette section, nous définissons la notion d’ontologie tout en dégageant ses caractéristiques. Nous présentons ensuite ses principaux langages de définition, ses éditeurs et nous donnons sa représentation formelle. Enfin, nous présentons une taxonomie des ontologies de domaine, afin de bien préciser celles concernés par le travail réalisé dans le cadre de cette thèse. 2.1 Définitions et caractéristiques Plusieurs définitions d’ontologies ont été proposées dans la littérature [61],[71],[98], etc. Pierra dé- finit une ontologie de domaine comme "a domain conceptualization in terms of classes and properties that is formal, multilingual, consensual and referencable"[98]. Cette définition met en avant quatre ca- 45Chapitre 3. Les ontologies au service de l’Ingénierie des Besoins ractéristiques qui distinguent une ontologie de domaine des autres modèles informatiques (tels que les modèles conceptuels et les modèles de connaissances). 1. Formelle : signifie que l’ontologie est basée sur des théories formelles qui permettent à une machine de vérifier automatiquement certaines propriétés de consistance et/ou de faire certains raisonnements automatiques sur l’ontologie et ses instances. 2. Multilingue : les ontologies dans certains domaines comme l’ingénierie sont multilingues [73]. Cette caractéristique favorise leur utilisation dans les grandes entreprises. 3. Consensuelle : signifie que l’ontologie est une conceptualisation validée par une communauté. C’est aussi un accord sur une conceptualisation partagée. 4. Capacité à être référencée : signifie que tout concept de l’ontologie est associé à un identifiant unique permettant de le référencer à partir de n’importe quel environnement, afin d’expliciter la sémantique de l’élément référençant. Parmi les autres caractéristiques des ontologies qui distinguent une ontologie de domaine des autres modèles informatiques, nous pouvons citer les suivantes. – Capacité à raisonner : le caractère formel des ontologies permet d’appliquer des opérations de raisonnement sur les ontologies. En l’occurrence, dériver des faits qui ne sont pas exprimés dans l’ontologie en utilisant des langages tels que la logique de description (LD). Dans notre contexte, les ontologies offrent des capacités de raisonnement qui peuvent être utilisées pour détecter les incohérences et les ambiguïtés sémantiques des besoins des utilisateurs. En effet, dans la plupart des modèles d’ontologies (OWL, PLIB), pour une ontologie et une classe données, on peut calculer (1) toutes ses super-classes (directes ou non), (2) ses sous-classes (directes ou non), (3) ses propriétés caractéristiques (héritées ou locales), (4) toutes ses instances (polymorphes ou locales), etc. – Objectif de modélisation : une ontologie décrit les concepts d’un domaine d’un point de vue assez général, indépendamment d’une application particulière et de tout système dans lequel elle est susceptible d’être utilisée. A l’opposé, un modèle conceptuel de données prescrit l’information qui doit être représentée dans un système informatique particulier pour faire face à un besoin applicatif donné. – Atomicité des concepts : à la différence d’un modèle conceptuel de données, où chaque concept ne prend son sens que dans le contexte du modèle dans lequel il est défini, dans une ontologie, chaque concept est identifié et défini explicitement de façon individuelle et constitue une unité élémentaire de connaissance. Un modèle conceptuel de données peut donc extraire d’une ontologie seulement les concepts (classes et propriétés) pertinents pour son objectif applicatif. Il peut également, sous réserve de respecter leur sémantique (la subsomption par exemple), les organiser de façon assez différente de leur organisation dans l’ontologie, la référence au concept ontologique permettant de définir avec précision la signification de l’entité référençante. 2.2 Une taxonomies des ontologies de domaine Deux principales catégories d’ontologies de domaine ont émergé dans la littérature [98] : les ontologies linguistiques et les ontologies conceptuelles. Les ontologies linguistiques (OL) représentent les termes d’un domaine éventuellement selon différents langages naturels. Les ontologies conceptuelles 462. Ontologies de domaine (OC) représentent les catégories d’objet et leurs propriétés d’un domaine donné. Les OCs diffèrent cependant selon le modèle d’ontologie utilisé pour les définir. On distingue ainsi deux catégories d’OC basées sur les notions de concepts primitifs et de concepts définis énoncées par Gruber [61]. Les concepts primitifs définissent le premier noyau du domaine conceptualisé par l’ontologie. Les concepts définis sont des concepts dont la définition utilise d’autres concepts (primitifs ou définis). Par exemple, le prix total d’une commande est défini en fonction du prix unitaire et de la quantité commandée. 2.2.1 Les Ontologies Linguistiques (OL) Les ontologies linguistiques telle que WordNet 19 visent à définir le sens des mots et les relations linguistiques entre ces mots (synonyme, antonyme, hyperonyme, etc.). Ces relations servent à capturer de façon approximative et semi-formelle les relations entre les mots en utilisant des mesures de similarité. La construction de telles ontologies est souvent faite de façon semi-formelle par un processus d’extraction de termes dans un ensemble de documents du domaine qui est ensuite validé et structuré par un expert du domaine [116]. Plusieurs outils existent permettant de construire des ontologies à partir du texte. Nous pouvons citer Text2Onto [39] et Terminae [29], développé par le laboratoire d’Informatique de Paris-Nord. 2.2.2 Les Ontologies Conceptuelles (OC) Les ontologies Conceptuelles (formelles) constituent des spécifications explicites de conceptualisations de domaines indépendamment de leurs représentations dans un langage particulier. Elles permettent de définir formellement les concepts de ce domaine et les relations entre ces concepts. Les ontologies conceptuelles adoptent une approche de structuration de l’information en termes de classes et de proprié- tés et leur associent des identifiants réutilisable dans différents langages. Nous distinguons deux catégories d’ontologies conceptuelles : (1) les ontologies canoniques et (2) les ontologies non canoniques. 1. Les Ontologies Conceptuelles Canoniques (OCC) : sont des ontologies ne contenant que des concepts primitifs. Par exemple, on peut considérer une OCC contient une classe Personne caractérisée par deux propriétés Nom et Sexe (masculin ou féminin). Les OCC fournissent une base formelle pour modéliser et échanger les connaissances d’un domaine. Le modèle PLIB permet de définir des OCC. 2. les Ontologies Conceptuelles Non Canoniques (OCNC) : sont des ontologies contenant à la fois des concepts primitifs et des concepts définis. Par exemple, le concept primitif Personne qui se spécialise dans les deux concepts définis Homme et Femme, qui représentent les concepts d’une OCNC. Les OCNC fournissent des mécanismes permettant de représenter les connaissances d’un domaine par différentes conceptualisations. Les langages ontologiques issus du Web Sémantique (par exemple, OWL) permettent de définir des OCNC. 19. http://wordnet.princeton.edu/wordnet/ 47Chapitre 3. Les ontologies au service de l’Ingénierie des Besoins 2.3 Les langages de définitions des ontologies Plusieurs langages de définition des ontologies ont été développés dans la littérature. Ces langages offrent des constructeurs permettant l’expression des axiomes, des instances, des entités et des relations que l’on retrouve dans une ontologie. Ces langages peuvent être classés, selon les objectifs spécifiques visés par les différentes spécialités, en deux catégories: les langages orientés gestion et échange de données et langages orientés inférence. 2.3.1 Langages orientés gestion et échange de données Dans cette section, nous présentons les langages d’ontologie RDF/RDF-schéma et PLIB. Ces langages, offrent respectivement dans le domaine du Web et de l’ingénierie, des constructeurs permettant de représenter les données du domaine de manière à faciliter le partage et l’échange des ontologies et des instances associées. 2.3.1.1 RDF (Resource Description Framework) 20 : est un modèle standard pour l’échange de données sur le Web. Associé à une syntaxe, il permet (i) la représentation et le partage des données structurées et semi-structurées et leur partage à travers différentes applications et (ii) l’annotation des éléments du Web. RDF étend la structure de liaison du Web pour utiliser les URI (Uniform Resource Identifier) pour le nommage des ressources. Une ressource est une entité d’information pouvant être exprimée avec RDF et référencée dans un bloc, par un nom symbolique (littéral) ou un identificateur (URI). Notons que le triplet est la construction de base en RDF qui est spécifié à travers le langage de balisage XML. Un modèle RDF est défini à partir de quatre ensembles suivants. 1. Les ressources : tout élément référencé par un URI est appelé ressource. 2. Les littéraux : un littéral est une valeur typée par un des types de données primitifs (chaîne de caractères, entier, etc.) définis par XML schéma. 3. Les prédicats : un prédicat est tout ce qui peut être utilisé pour décrire une ressource (propriété, attribut, relation, etc.). 4. Les déclarations : une déclaration est un triplet de la forme (sujet, prédicat, objet) permettant la description d’un élément. Le sujet est une ressource. Le prédicat est une propriété et l’objet est soit une ressource, soit un littéral. Notons qu’un modèle RDF peut être représenté sous forme d’un graphe orienté où les nœuds sont des ressources ou des littéraux et les arcs représentent des prédicats. 2.3.1.2 RDF Schéma : Nous remarquons que RDF définit lui-même très peu de prédicats. De plus, il ne permet pas de définir les primitives pour modéliser un domaine en termes de classes et de propriétés. Par conséquent, il a été très rapidement complété par RDFS. En effet, RDFS est un langage de description de vocabulaire RDF permettant la description formelle de hiérarchies et de relations entre les ressources [114]. RDFS fournit les prédicats essentiels pour la représentation d’une ontologie. Ces constructeurs spécifiques sont les suivants : 20. http://www.w3.org/RDF/ 482. Ontologies de domaine – rdfs:class permettant la création d’une classe; – rdfs:subClassOf spécifiant la relation de subsomption entre classes; – rdfs:property permettant la spécification des propriétés caractéristiques d’une classe; – rdfs:subProperty spécifiant une organisation hiérarchique des propriétés; – rdfs:domain spécifiant le domaine d’une propriété; – rdfs:range qui permet de spécifier le co-domaine de valeur d’une propriété. La figure 3.1 montre un exemple d’ontologie présentée sous la forme d’un graphe. Cette ontologie comporte les classes Person, University et Student (sous-classe de Person). Notons que le dernier concept décrit l’ensemble des étudiants. Les ovales représentent les URI des instances tandis que les valeurs littérales sont représentées dans des rectangles. Un extrait de l’ontologie et des données suivant la syntaxe rdf/xml est ensuite présenté. Après avoir étudié les deux langages, nous concluons que : Person University Student string integer idUniv MasterDegreeFrom name Ontologie Données http://lias.../Person #01 http://lias.../University #01 MasterDegreeFrom 150 idUniv string name Légende classe héritage propriété instance Valeure de propriété Person University Student string integer idUniv MasterDegreeFrom name Ontologie Données http://lias.../Person #01 http://lias.../University #01 MasterDegreeFrom 150 idUniv string name Légende classe héritage propriété instance Valeure de propriété Figure 3.1 – Exemple d’ontologie exprimée en RDF Schéma. – RDF n’est pas considéré totalement comme un langage d’ontologies étant donné qu’il ne permet pas de définir des classes et des propriétés; – RDFS a enrichi RDF par l’ajout d’un ensemble de constructeurs permettant la définition des ontologies sur le Web. Malheureusement, RDFS n’offre aucune primitive pour la définition des équiva- 49Chapitre 3. Les ontologies au service de l’Ingénierie des Besoins lences conceptuelles, du fait que tous les concepts décrits avec RDFS sont des concepts primitifs. 2.3.1.3 PLIB : (Parts LIBrary) [2], [3] est un modèle d’ontologies qui définit les représentations canoniques (uniques), supposées consensuelles, pour l’ensemble des concepts existant dans un domaine donné. Chaque concept peut alors être représenté par l’appartenance à une classe de l’ontologie et par un ensemble de valeurs de propriétés. Chaque concept est identifié de manière unique par un GUI (Globally Unique Identifier) [98]. A l’origine, l’objectif de PLIB était de permettre une modélisation informatique des catalogues de composants industriels afin de les rendre échangeables entre fournisseurs et utilisateurs. Il repose sur un langage formel EXPRESS pour la description des catalogues sous forme d’instances de modèle. Un tel catalogue contient une ontologie décrivant les catégories et les propriétés qui caractérisent un domaine donné et les instances de celle-ci. Le modèle d’ontologie PLIB offre une relation d’extension particulière, appelée case-of (est-un-cas-de). Cette relation fournit un mécanisme de modularité entre ontologies PLIB en permettant à un concepteur de base de données de définir sa propre ontologie (ontologie "locale") à partir d’une ontologie partagée. 2.3.2 Langages orientés inférence Le besoin de réaliser des inférences sur les ontologies a conduit à la définition d’autres types de langages de modélisation d’ontologies. En particulier dans le domaine du Web, le pouvoir d’expression du langage d’ontologie RDFS a été étendu par un ensemble d’autres langages d’ontologies parmi lesquels OIL, DAMLONT, DAML-OIL, OWL et SWRL. Ceci afin de concevoir des ontologies permettant de réaliser davantage de raisonnement sur les ontologies, les données et les besoins des utilisateurs. Dans cette partie, nous proposons d’étudier deux langages (OWL et SWRL) manipulées dans ce manuscrit. 2.3.2.1 OWL : 21 un des langages les plus connus pour la définition d’ontologies est OWL (Ontology Web Language). OWL repose sur RDF Schema est inspiré de DAML+OIL. OWL offre un vocabulaire riche avec une sémantique formelle pour la description des propriétés et des classes, ainsi que les relations entre classes. Il intègre divers constructeurs sur les propriétés et les classes comme l’identité, l’équivalence (owl:equivalentClass), l’union (unionOf), le complément d’une classe (complementOf), l’intersection (intersectionOf), les cardinalités, la symétrie, la transitivité, la disjonction (owl:disjointWith), etc. L a figure 3.2 illustre un exemple d’ontologie de domaine universitaire exprimée en OWL. OWL définit les trois sous-langages OWL Lite, OWL-DL et OWL Full, allant du moins au plus expressif. – OWL Lite : est le langage le plus simple syntaxiquement. Il permet de définir des hiérarchies de classes et d’appliquer des contraintes simples. Par exemple une contrainte de cardinalité (minCardinality, maxCardinality) ne peut prendre que les valeurs 0 et 1. – OWL DL : possède un pouvoir expressif plus important qu’OWL Lite. OWL DL garantit la complétude des raisonnements (toutes les inférences sont calculables) et leur décidabilité (leur calcul se fait en une durée finie) [40]. – OWL Full : est le langage le plus expressif, mais ne garantit pas toujours la complétude des raisonnements ni leur décidabilité (OWL Full n’est pas un langage décidable). 21. http://www.w3.org/TR/owl-ref/ 502. Ontologies de domaine ….. ….. Figure 3.2 – Exemple d’ontologie exprimée en OWL. OWL est un langage basé sur la logique de description qui est un formalisme logique permettant la repré- sentation de la connaissance [12]. Une base de connaissances en LD est composée d’une TBox (Terminological Box) et d’une ABox (Assertionnal Box). La TBox définit les connaissances intensionnelles du domaine sous forme d’axiomes. Dans la TBox, un nouveau concept peut être défini sur la base d’autres concepts (concepts primitifs). Il existe aussi des concepts atomiques (ou définis), ce qui signifie qu’ils ne sont pas définis sur la base d’autres concepts. Par exemple, on peut définir le concept Student-Employee comme étant l’intersection des descriptions des concepts Student et Employee: Student-Employee ≡ Student ∩ Employee. La ABox définit les connaissances extensionnelles du domaine (les instances). Par exemple, le fait Student (Anne) fait partie de la ABox et permet d’indiquer que Anne est une étudiante (Student). 2.3.2.2 SWRL22 : (Semantic Web Rule Language) est un langage de règles qui enrichit la sémantique d’une ontologie définie en OWL, combinant le langage OWL-DL et le langage RuleML (Rule Markup Language). SWRL permet, contrairement à OWL, de manipuler des instances par des variables (?x, ?y, ?z). SWRL ne crée pas des concepts ni des relations, il permet simplement d’ajouter des relations suivant les valeurs des variables et la satisfaction de la règle. Les règles SWRL sont construites suivant ce schéma : antécédent -> conséquent. L’antécédent et le conséquent sont des conjonctions d’atomes. Un atome est une instance de concept, une relation OWL ou une des deux relations SWRL same-as (?x, ?y) ou different-from (?x, ?y). Le fonctionnement d’une règle est basé sur le principe de satisfiabilité de l’antécédent ou du conséquent. Pour une règle, il existe trois cas de figure : – l’antécédent et le conséquent sont définis. Si l’antécédent est satisfait alors le conséquent doit l’être; – l’antécédent est vide. Cela équivaut à un antécédent satisfait ce qui permet de définir des faits; 22. http://flashinformatique.epfl.ch/spip.php?article1212 51Chapitre 3. Les ontologies au service de l’Ingénierie des Besoins – le conséquent est vide. Cela équivaut à un conséquent insatisfait, l’antécédent ne doit pas être satisfiable. SWRL permet de raisonner sur les instances OWL, principalement en termes de classes et de propriétés. Par exemple, une règle SWRL définir le fait qu’une personne est considérée comme adulte. La règle en SWRL serait alors: Person(?p), hasAge(?p, ?age), swrlb : greaterT han(?age, 18)− > Adult(?p) Après avoir introduit les principaux langages d’ontologies, nous présentons dans la section suivante les outils permettant leur manipulation. 2.4 Les éditeurs d’ontologies Une autre particularité des ontologies est la présence d’outils facilitant leurs manipulation. Plusieurs éditeurs ont été proposés dans la littérature, citons à titre d’exemple OilEd 23, PLIBEditor 24, WebODE 25 et Protégé 26. Dans notre travail, nous avons choisi l’utilisation de l’éditeur des ontologies Protégé. Ce choix est justifié par le grand succès qu’a connu cet éditeur, du fait qu’il est fortement soutenu par les communautés de développeurs et d’universitaires dans différents domaines. 2.4.0.3 Protégé : est un éditeur d’ontologies distribué en open source développé par l’université en informatique médicale de Stanford. Il possède une interface utilisateur graphique (GUI) lui permettant de manipuler aisément tous les éléments d’une ontologie: classe, méta-classe, propriété, instance,etc. (figure 3.3). Protégé permet aussi de créer ou d’importer des ontologies écrites dans les différents langages d’ontologies tel que : RDF-Schéma, OWL, DAML, OIL, etc. Cette fonctionnalité est disponible grâce à l’utilisation de plugins qui sont disponibles en téléchargement pour la plupart de ces langages. Aujourd’hui, il regroupe une large communauté d’utilisateurs et bénéficie des toutes dernières avancées en matière de recherche ontologique. Des applications développées avec Protégé sont employées dans la résolution des problèmes et la prise de décision dans un domaine particulier. Protégé est aussi une plate-forme extensible, grâce au système de plug-ins, qui permet de gérer des contenus multimédias, interroger, évaluer et fusionner des ontologies, etc. Il offre ainsi la possibilité de raisonner sur les ontologies en utilisant un moteur d’inférence général tel que Fact++ 27, JESS 28 ou des outils d’inférence propres au web sémantique basés sur des logiques de description tels que RACER29 . Comme nous venons de le voir, différents modèles d’ontologies existent permettant de définir des ontologies grâce à un éditeur. Pour bien préciser les ontologies utilisées dans cette thèse, nous proposons dans la section suivante une représentation formelle que nous utilisons par la suite. 23. http://www.xml.com/pub/r/861 24. www.plib.ensma.fr 25. http://mayor2.dia.fi.upm.es/oeg-upm/index.php/en/technologies/60-webode 26. http://protege.stanford.edu/ 27. http://owl.man.ac.uk/factplusplus/ 28. http://www.jessrules.com/ 29. http://www.sts.tu-harburg.de/r.f.moeller/racer/ 522. Ontologies de domaine Figure 3.3 – L’éditeur d’ontologies Protégé. 2.5 Représentation formelle d’une ontologie Formellement, une ontologie O peut être définie comme un quintuplet [22]: O :< C, R, Re f(C), Re f(R), F >, où : – C représente les classes du modèle ontologique. – R représente les rôles (relationships) du modèle ontologique. Les rôles peuvent être des relations liant des classes à d’autres classes ou des relations liant des classes aux valeurs de données (comme Integer, Float, String, etc.) – Re f(C) : C → (operateur, Exp(C, R)) est une fonction définissant les classes de la TBOX. Ref(C) associe à chaque classe un opérateur (d’inclusion ou d’équivalence) et une expression, Exp sur d’autres classes et propriétés. Les expressions définies pour les ontologies OWL basées sur les logiques de description présentent à notre point de vue un ensemble d’opérateurs complet couvrant plusieurs formalismes ontologiques. Ces expressions utilisent les opérateurs suivants : opé- rateurs ensemblistes (intersectionOf ∩, unionOf ∪, complementOf ¬), restrictions de propriétés (AllValuesFrom ∀p.C, SomeValuesFrom ∃p.C, HasValue 3 p.C) et les opérateurs de cardinalités (≥ nR.C, ≤ nR.C). Exp peut être la fonction identité qui associe à une classe la même classe (la classe se définit par elle-même comme la plus grande classe de la hiérarchie "Thing"). Par exemple, Ref(Student)→ (⊆, Person ∩ ∀ takesCourse(Person, Course). 53Chapitre 3. Les ontologies au service de l’Ingénierie des Besoins – Re f(R) : R → (operateur, Exp(C, R)) est une fonction définissant les propriétés de la TBOX. Re f(R) associe à chaque propriété un opérateur (d’inclusion ou d’équivalence) et une expression sur d’autres classes et propriétés. Par exemple : Ref(GeneralHeadO f) → (≡, (headOf(Person, Person) ◦ headOfDepartement(Person, Department))) – F représente le formalisme du modèle ontologique adopté comme RDF, OWL, PLIB, etc. 3 Ontologies et l’intégration : application aux sources de données hétérogènes Comme nous l’avons évoqué dans le chapitre Introduction, les ontologies linguistiques et conceptuelles ont largement contribué à l’intégration des sources de données hétérogènes. Dans cette section, nous résumons les travaux d’intégration de sources de données utilisant les ontologies conceptuelles qui sont conformes aux solutions d’intégration que le laboratoire LIAS a proposées. Les ontologies ont été utilisées selon trois architectures principales [124] (Figure 3.4) : une architecture avec une seule ontologie, une avec des ontologies multiples et une hybride. Dans la première architecture, chaque source référence la même ontologie globale de domaine (le cas du projet OntoDaWA [128] développé à LIAS). Cette architecture a un sens dans les entreprises donneuses d’ordre (exerçant une autorité). Dans une architecture à multiples ontologies, chaque source a sa propre ontologie développée indépendamment des autres (cas du projet OBSERVER [91]). Dans ce cas, les correspondances inter-ontologies sont parfois difficiles à mettre en oeuvre. Le processus d’intégration des ontologies est fait soit manuellement soit automatiquement [14]. Pour surmonter les inconvénients des approches simples ou multiples d’ontologies, une architecture hybride a été proposée dans laquelle chaque source a sa propre ontologie, mais toutes les ontologies utilisent un vocabulaire partagé commun. Le projet KRAFT [122] est un exemple de cette architecture. Dans cette classification, [124] n’a pas considéré l’aspect temporel entre les ontologies locales et partagée. La prise en compte de ce facteur a fait naitre deux architectures ontologiques d’intégration de sources de données hétérogènes : (1) intégration sémantique a posteriori, et (2) intégration sémantique a priori. 3.1 Intégration sémantique a posteriori Dans l’intégration sémantique a posteriori, chaque source est conforme à une ontologie locale indé- pendante. Dans ce cas, les ontologies locales aux sources sont développées soit d’une manière totalement indépendante les unes des autres, soit indirectement à travers une ontologie qui sera partagée par toutes les ontologies locales. L’étape d’intégration sémantique est donc effectuée de façon manuelle ou semiautomatique. Dans ce contexte, deux architectures d’intégration d’ontologies sont possibles. 1. L’architecture en réseau : dans cette architecture, la correspondance entre deux ontologies locales est établie directement de l’une à l’autre (figure 3.5-(a)). Les correspondances entre les différentes ontologies sont difficiles à mettre en œuvre dans une telle architecture. Pour un système d’inté- gration contenant n ontologies locales, il faut donc créer [ n×(n−1) 2 ] correspondances. Ce nombre devient vite important et rend cette architecture impraticable si le nombre de sources à intégrer est 543. Ontologies et l’intégration : application aux sources de données hétérogènes (c) Ontologie hybride. (a) Ontologie unique. (b) Ontologies multiple. Ontologie partagée Ontologie Locale 1 Ontologie Locale 2 Ontologie Locale n Ontologie globale S1 S2 Sn Ontologie Locale 1 Ontologie Locale 2 Ontologie Locale n S1 S2 …. Sn …. …. S1 S2 Sn (c) Ontologie hybride. (a) Ontologie unique. (b) Ontologies multiple. Ontologie partagée Ontologie Locale 1 Ontologie Locale 2 Ontologie Locale n Ontologie globale S1 S2 Sn Ontologie Locale 1 Ontologie Locale 2 Ontologie Locale n S1 S2 …. Sn …. …. S1 S2 Sn Figure 3.4 – Différentes architectures d’intégration à base ontologique. Ontologie Locale 1 S1 Sn Ontologie Locale 2 Ontologie Locale n S2 Ontologie Locale 2 Ontologie Locale n Ontologie Locale 1 Sn S1 S2 (a) Architecture en réseau. (b) Architecture en étoile. ….. Relations sémantiques. Ontologie partagée (OP) Ontologie Locale 1 S1 Sn Ontologie Locale 2 Ontologie Locale n S2 Ontologie Locale 2 Ontologie Locale n Ontologie Locale 1 Sn S1 S2 (a) Architecture en réseau. (b) Architecture en étoile. ….. Relations sémantiques. Ontologie partagée (OP) Figure 3.5 – Architectures d’intégration sémantique a posteriori. important. Parmi les systèmes d’intégration qui reposent sur cette architecture, nous pouvons citer OBSERVER [91]. 2. L’architecture en étoile : dans cette architecture, la correspondance entre deux ontologies locales est établie indirectement via une ontologie référencée (figure 3.5-(b)). Cette ontologie est appelée l’ontologie partagée. Une ontologie locale n’est mise en correspondance qu’avec l’ontologie partagée, et seuls les concepts locaux intéressés par le système sont mis en correspondance avec les concepts de l’ontologie partagée. Pour un système d’intégration contenant n ontologies locales, 55Chapitre 3. Les ontologies au service de l’Ingénierie des Besoins il faut donc créer n correspondances. Ce nombre est nettement plus réduit que de l’architecture précédente. Parmi les systèmes d’intégration qui reposent sur cette approche, nous pouvons citer KRAFT[122]. 3.2 Intégration sémantique a priori Dans l’intégration sémantique a priori, il existe une ontologie globale qui peut être utilisée comme dénominateur commun à tout ce qui a été défini par les sources de données. Le processus d’intégration consiste soit à créer les ontologies locales qui ne sont pas conçues d’une manière indépendante réfé- rençant l’ontologie partagée tout en préservant une certaine autonomie, soit à mettre en correspondance directe les sources avec l’ontologie globale. Deux structures d’intégration d’ontologies sont possibles: (1) l’architecture avec une ontologie globale commune et (2) l’architecture en étoile a priori. 1. L’architecture avec une ontologie globale commune : dans l’architecture avec une ontologie globale commune (figure 3.6-(a)), il n’y a qu’une seule et unique ontologie appelée ontologie globale et chaque source doit référence celle-ci. L’inconvénient majeur de cette approche réside dans le fait qu’aucun nouveau concept ne peut être ajouté localement à une source sans exiger le changement de l’ontologie globale. Cette architecture peut être vue comme le cas particulier de l’architecture précédente où les ontologies locales et l’ontologie globale sont confondues. Elle peut être assimilée également au cas des bases de données réparties où toutes les sources seraient plus ou moins développées d’une manière similaire. Parmi les systèmes d’intégration qui reposent sur l’architecture avec une ontologie globale commune, nous pouvons citer le projet ONTOBROKER [44]. 2. L’architecture en étoile a priori : dans l’architecture en étoile a priori (figure 3.6-(b)), les ontologies locales sont construites à partir d’une ontologie globale de domaine en référençant a priori et localement ses concepts. Toutes les ontologies locales utilisent donc un vocabulaire partagé commun de l’ontologie partagée. L’inconvénient de cette approche est qu’elle n’intègre que les données dont la sémantique est représentée par l’ontologie globale. L’indépendance des sources de données ainsi est limitée, par contre, elle intégrer plus facilement une nouvelle source dans le système si la sémantique de cette source est couverte par l’ontologie globale. Le projet PICSEL (Production d’Interfaces à base de Connaissances pour des Services En Ligne)[53] est un exemple de système utilisant l’architecture en étoile a priori. Une intégration sémantique a priori peut assurer l’automatisation complète du processus d’intégration si les deux conditions suivantes sont satisfaites [20] : 1. Chaque source doit représenter explicitement la signification de ses propres données ; c’est la notion d’ontologie locale qui doit exister dans chaque source; 2. Il doit exister une ontologie partagée de domaine, et chaque ontologie locale doit référencer explicitement l’ontologie partagée pour tous les concepts qu’elle définit et qui sont déjà définis dans l’ontologie partagée. Ceci définit la totalité des relations sémantiques existant entre les concepts des ontologies locales et ceux de l’ontologie partagée (articulations). Sur la base de cette hypothèse, nous pouvons réaliser une intégration automatique des besoins hétérogènes des utilisateurs. Il s’agit d’utiliser des ontologies conceptuelles dans une perspective d’intégration sémantique a priori. 564. Les ontologies dans l’IB : état de l’art Ontologie Locale 1 S1 Sn Ontologie Locale 2 Ontologie Locale n S2 (a) Architecture avec une ontologie globale commune. (b) Architecture en étoile. ….. Ontologie globale (OG) S1 S Sn 2 ….. Ontologie globale (OG) Ontologie Locale 1 S1 Sn Ontologie Locale 2 Ontologie Locale n S2 (a) Architecture avec une ontologie globale commune. (b) Architecture en étoile. ….. Ontologie globale (OG) S1 S Sn 2 ….. Ontologie globale (OG) Figure 3.6 – Architectures d’intégration sémantique a priori. 4 Les ontologies dans l’IB : état de l’art Aujourd’hui, plusieurs approches utilisent des ontologies de domaine pour faire face aux problèmes de l’IB. Breitman et Leite [27] soutiennent que les ontologies devraient être un sous-produit de la phase de l’IB (figure 3.7). Durant la phase d’élicitation, l’ontologie permet d’assister le concepteur pour identifier les besoins des différentes parties prenantes. Dans la phase de modélisation, l’ontologie fournit une représentation formelle offrant des mécanismes suffisamment expressifs pour représenter le modèle des besoins. L’aspect formel des ontologies permet de modéliser explicitement les besoins des utilisateurs d’une manière automatique et interprétable par la machine. L’utilisation d’une ontologie de domaine dans la phase d’analyse des besoins contribue à assurer une spécification correcte, complète et vérifiable des besoins. Selon [32], les utilisations potentielles des ontologies dans le processus d’IB comprennent : (i) la représentation du modèle des besoins, en imposant et en permettant notamment leurs structuration, (ii) les structures d’acquisition des connaissances du domaine et (iii) la connaissance du domaine d’application. Les ontologies quelques soient leurs natures (linguistiques ou conceptuelles) ont contribué sur les deux phases de l’IB à savoir : l’analyse des besoins et l’intégration des besoins. Dans la section suivante, nous détaillons les travaux relatifs à ces deux aspects. 4.1 L’analyse des besoins Parmi les problèmes lies à l’IB cités précédemment se trouve le risque de présence des incohérences et des ambiguïtés sémantiques. Ces dernières apparaissent lors de l’identification, l’analyse et l’évolution des besoins provenant de multiples utilisateurs et de sources. Les travaux existants couvrant la phase d’analyse utilisent soit une ontologie linguistique soit une ontologie conceptuelle (cf. section 2.2). 1. Travaux dirigés par des ontologies linguistiques : dans ces travaux, nous pouvons citer les travaux suivants : 57Chapitre 3. Les ontologies au service de l’Ingénierie des Besoins Élicitation Modélisation Analyse Validation G e s t i o n Ontologie Élicitation Modélisation Analyse Validation G e s t i o n Ontologie Figure 3.7 – Contributions des ontologies dans l’IB. – Kaiya et al. [75] : proposent une méthode d’analyse sémantique des besoins basée sur une ontologie de domaine. Des correspondances sont établies entre les spécifications des besoins et l’ontologie représentant les composants sémantiques. Dans ce travail, le système d’ontologie se compose d’un thésaurus et règles d’inférence. Le thésaurus comprend des concepts et des relations convenables pour le traitement sémantique du domaine. Cette méthode permet : (1) la détection d’incomplétude et d’incohérence inclues dans un cahier des charges, (2) la mesure de la qualité d’un cahier des charges par rapport à sa signification et (3) la prévision des changements futures des besoins en se basant sur une analyse sémantique de l’historique des changements. – Sven et al. [81] : proposent une approche ontologique visant à améliorer le langage naturel pour spécifier les besoins. Les auteurs proposent un outil, appelé RESI (Requirements Engineering Specification Improver) pour aider les analystes des besoins à définir des besoins textuels. RESI identifie les lacunes linguistiques et propose un système de dialogue qui fait des suggestions afin d’améliorer la qualité des besoins en marquant les besoins ambigüs et erronés. Pour cette tâche, RESI utilise l’information sémantique supplémentaire donnée par l’ontologie. 2. Travaux dirigés par des ontologies conceptuelles : – Greenspan [60] : a proposé, dans le début des années 80, un langage de modélisation des besoins appelé RML (Requirements Modelling Language). Ce langage a donné lieu à de nombreux travaux d’utilisation des ontologies dans le domaine de l’IB. RML a été développé selon les principes suivants : (1) L’écriture des besoins et leurs spécifications fonctionnelles doivent 584. Les ontologies dans l’IB : état de l’art être fournies. (2) Les besoins doivent être élaborés et présentés sous forme de modèles. (3) En se basant sur les deux points précédents, des modèles conceptuels devraient être développés. (4) L’abstraction et le raffinement sont importants dans l’IB. (5) Les langages de modélisation formelle des besoins sont nécessaires. RML défini son propre langage ontologique pour la modélisation des besoins. En RML, les modèles sont construits et regroupés en classes, qui représentent des instances de méta-classes. – Motoshi et al : présentent un outil AGORA (Attributed Goal-Oriented Requirements Analysis) pour l’analyse des besoins orientés buts [110]. Une ontologie de domaine a été utilisée dans cet outil pour assister l’utilisateur afin de décomposer, raffiner, ajouter et supprimer des buts (Goals). L’utilisation d’une ontologie dans cet outil permet aussi de détecter les relations de conflits entre les buts. Nous savons que les ontologies conceptuelles fournissent une représentation formelle des connaissances et des relations entre concepts. Par conséquent, elles peuvent également être exploitées pour raisonner sur les objets du domaine concerné. Elles permettent ainsi des raisonnements automatiques ayant pour objet soit d’effectuer des vérifications de consistance, soit d’inférer de nouveaux faits. Afin de faciliter la phase de raisonnement, des éditeurs d’ontologies munis de moteurs d’inférence ont été proposés (Pellet, Racer, etc.). Ceci montre l’intérêt majeur porté au processus de raisonnement sur les ontologies conceptuelle et les dispositifs offerts pour la réalisation de ce dernier. Plusieurs travaux ont utilisé les ontologies conceptuelles pour raisonner sur les besoins des utilisateurs. Nous décrivons ci-dessous les principaux travaux sur ce thème. – Siegemund et al. [112] : proposent un méta-modèle ontologique orienté buts. L’idée présentée dans ce travail est d’utiliser une ontologie pour structurer les concepts et les relations sémantiques entre les buts lors de la phase d’élicitation. Cette phase permet de raisonner sur les buts en se basant sur la sémantique formelle. L’approche combine les capacités de raisonnement de l’ontologie OWL pour permettre la vérification de la cohérence et de la complétude des besoins aux cours du processus de l’IB. L’ontologie des besoins présentés dans ce travail est composée de deux concepts principaux: But et Besoin. Le principal inconvénient de cette approche est l’aspect consensuel qui caractérise les ontologies. L’ontologie des besoins présentée dans ce travail n’est pas générique par rapport au lanagage de modélisation utilisé et elle n’est pas consensuelle. – Dzung et al. [48] : proposent une méthode de raisonnement à base ontologique dans la phase d’élicitation des besoins. L’idée présentée dans ce travail est d’utiliser l’ontologie de domaine pour structurer les concepts et les relations sémantiques entre les besoins lors de la phase d’élicitation. Les auteurs commencent par la définition d’une structure ontologique qui contient les connaissances des besoins fonctionnels et les relations entre eux. Ensuite ils proposent un framework pour éliciter les besoins en utilisant l’ontologie. En premier lieu des correspondances (mapping) sont établies entre les fonctions des besoins et l’ontologie de domaine. Après cette étape, des règles d’inférence sont utilisées pour raisonner sur les besoins afin de détecter les incohérences entre eux. Dans ce travail, les auteurs proposent également un outil de vérification des besoins reposant sur cette méthode. – Goknil et al. [56, 55] : proposent un méta-modèle générique de besoins appelé core metamodel et une approche pour adapter ce méta-modèle afin de soutenir les différentes techniques de 59Chapitre 3. Les ontologies au service de l’Ingénierie des Besoins spécification des besoins. Le méta-modèle représente les concepts communs extraits de certaines approches courantes. Les auteurs présentent des définitions et une formalisation des relations sémantiques (requires, refines, conflicts et contains) dans le méta-modèle. Sur la base de cette formalisation, les analystes peuvent effectuer des raisonnements sur les besoins pour détecter les relations implicites et les incohérences. Un outil appelé (TRIC) 30 est développé basé sur une ontologie OWL. Les différentes règles de formalisations des relations sont implémentées avec Jena (un raisonneur OWL) afin de détecter les relations implicites et les incohérences entre les besoins. Nous notons que, dans ces études, les ontologies sont utilisées comme des référentiels de stockage des besoins et non comme des ontologies de domaine, où les concepteurs peuvent choisir leurs concepts et leurs propriétés afin de définir leurs besoins parmi l’ensemble des concepts définis dans l’ontologie (qui joue ainsi le rôle de dictionnaire ou catalogue) Une autre dimension ignorée par ces travaux est le passage à l’échelle des besoins dans leurs approches de raisonnement, ce qui peut être considérée comme un problème important dans les grandes entreprises. 4.2 L’intégration des besoins Le problème d’intégration des besoins est un nouveau domaine, de ce fait il n’existe pas beaucoup de travaux impliquant les ontologies. En explorant la literature, nous avons identifie que les ontologies conceptuelles qui ont été utilisées pour répondre à ce problème [85]. Les auteurs de ce travail proposent un Framework (Onto-ActRE) Ontology-based Active Requirements Engineering . Le framework adopte une approche intensive pour éliciter, représenter et analyser la diversité des facteurs associés aux systèmes étendus. Onto-ActRE soutient la collaboration entre plusieurs techniques de modélisation de l’IB (orientée but, scénarios, etc) en exploitant l’expressivité des ontologies de manière structurée afin de faciliter l’élicitation, la spécification et la modélisation des besoins. Ce framework fournit un moyen pour comprendre et évaluer les effets des fonctions et des contraintes du système en fonction des concepts, des propriétés et des relations entre les concepts. Une sémantique complémentaire est fournie par une ontologie dans un processus (Problem Domain Ontology, PDO) qui DONNE la définition d’un langage commun pour faciliter la collaboration entre les parties prenantes du système et pour permettre également l’interaction entre les différentes techniques de modélisation des besoins. Les inconvénients principaux de ce travail sont les suivants : (1) Ce framework n’offre pas une autonomie aux parties prenantes du système pour modéliser leurs besoins avec une technique souhaitée. (2) L’ontologie des besoins présentée dans ce travail est utilisée comme référentiel de stockage des besoins et non comme une ontologie de domaine et ne couvre donc pas toute la sémantique du domaine. 4.3 Ontologies, besoins et le cycle de vie de conception Dans cette section, nous mettons l’accent sur un travail récent [115] publié dans ACM Transactions on Database Systems concernant le rôle des ontologies dans la conception de bases de données. Ce travail est considéré comme le seul à avoir contribué sur les trois aspects que nous avons évoqués dans cette thèse : les ontologies, les besoins et le cycle de vie de conception de bases de données. 30. Tool for Requirements Inferencing and Consistency Checking (TRIC) from http://trese.cs.utwente.nl/tric/ 605. Conclusion Les auteurs de cette contribution ont proposé un véritable outil d’aide à la modélisation conceptuelle (une phase du cycle de vie de conception de bases de données avancées) à partir d’ontologies de domaine. L’approche proposée permet aussi la validation de modèles conceptuels existants par rapport à une ontologie du même domaine. L’approche suivie est une approche linguistique dans laquelle, à partir d’une expression en langage naturel du cahier des charges de l’application et du choix d’ontologie(s) de domaine, le système analyse les termes du cahier des charges (l’ensemble des besoins) et, par référence à l’ontologie, suggère différents éléments à introduire dans le modèle conceptuel. Afin de rendre la mé- thode plus efficace, les auteurs proposent d’ajouter à l’ontologie des contraintes d’intégrité existentielles permettant de raisonner sur le modèle conceptuel. 4.4 Synthèse L’IB a un grand impact sur le succès ou l’échec d’un projet informatique. Cependant, l’acquisition, la spécification et l’évolution des besoins de différents acteurs et d’une variété de sources conduit souvent à des besoins incomplets et ambigus. Par conséquent, la capacité à détecter et à réparer les besoins incohérents et incomplets est cruciale pour le succès de la modélisation et la spécification des besoins. Les ontologies sont bien adaptées pour résoudre les problèmes et les lacunes qui peuvent survenir lors de la mise en œuvre de l’IB. En effet, elles ont démontré leur efficacité pour la spécification, l’unification, la formalisation et le raisonnement sur les besoins. L’utilisation d’une ontologie de domaine est utile pour faciliter la communication et la collaboration entre les parties prenantes du système. En effet, l’ontologie peut servir de vocabulaire précis et partagé, pour définir la sémantique des besoins à l’aide de concepts communs, formalisés et référençables. Généralement, la plupart des études citées précédemment traitent un seul niveau d’hétérogénéité (vocabulaire ou langages de modélisation). Dans cette thèse, nous proposons de résoudre cette problé- matique en mettant en place une approche ontologique d’intégration des besoins hétérogènes. Cette hé- térogénéité concerne à la fois les vocabulaires et les langages de modélisation des besoins identifiés lors de la phase d’expression des besoins. La littérature nous a montré l’intérêt des ontologies et des besoins sur la modélisation conceptuelle de données [115], dans le cadre de cette thèse nous proposons d’étendre ces deux concepts à une autre phase, à savoir la modélisation physique. 5 Conclusion Dans ce chapitre, nous avons réalisé une étude approfondie sur les ontologies de domaine afin de définir et de déterminer précisément leurs apports dans le domaine de l’IB. Les ontologies étant des modèles permettant d’expliciter la sémantique d’un domaine d’étude, elles sont donc, une solution pertinente pour résoudre l’hétérogénéité sémantique entre les besoins des utilisateurs. En effet, l’ontologie peut fournir un vocabulaire précis et partagé pour définir la sémantique des besoins à l’aide des concepts communs, formalisés et référençables. D’une manière générale, les utilisations potentielles des ontologies dans le domaine de l’IB comprennent la représentation, la spécification et la collaboration. Une autre caractéristique des ontologies est leur capacité de raisonnement qui peut être utilisée pour identifier les besoins conflictuels et contradictoires. Dans notre travail, nous traitons les différents problèmes liés à l’hétérogénéité identifiée lors de la 61Chapitre 3. Les ontologies au service de l’Ingénierie des Besoins phase d’élicitation et de modélisation des besoins. Notre approche se basant sur l’intégration à l’aide d’ontologie, dont l’intérêt et la pertinence ont été bien illustrés à travers ce chapitre. Nous présentons un état de l’art sur cette technique dans le chapitre suivant. 62Deuxième partie Contributions 63Chapitre 4 Unification des vocabulaires et des langages de modélisation des besoins Sommaire 1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 2 Nos hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 3 Unification des vocabulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 3.1 Étude de cas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 3.1.1 Le modèle Orienté buts . . . . . . . . . . . . . . . . . . . . . . 70 3.1.2 Le modèle des cas d’utilisation . . . . . . . . . . . . . . . . . 72 3.1.3 Le Modèle Conceptuel de Traitements (MCT) . . . . . . . . . 73 3.2 Couplage des modèles utilisés avec l’ontologie . . . . . . . . . . . . . . 76 3.2.1 Méta-modèle de l’ontologie partagée . . . . . . . . . . . . . . 76 3.2.2 Couplage des trois langages proposés avec les ontologies locales 77 4 Unification des langages de modélisation des besoins . . . . . . . . . . . . . . 81 4.1 Proposition d’un modèle pivot des besoins . . . . . . . . . . . . . . . . . 82 4.2 Couplage de modèle pivot à l’ontologie . . . . . . . . . . . . . . . . . . 83 5 Un exemple d’utilisation de notre méthode d’intégration . . . . . . . . . . . . 85 6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 65Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins Résumé. Dans ce chapitre, nous détaillons notre première contribution consistant à unifier les vocabulaires et les langages hétérogènes [25]. Pour la partie vocabulaire, nous proposons aux concepteurs d’utiliser une ontologie de domaine qui joue le rôle d’un dictionnaire. Pour la partie langages, nous suivons une démarche par l’exemple. Cela est justifié par la diversité des langages de modélisation des besoins existants. Comme nous l’avons indiqué dans l’état de l’art, il existe trois catégories de langages : informels, semi formels, et formels. Dans chaque catégorie, une large panoplie de langages existe. Due à cette diversité, nous avons opté pour l’utilisation de la catégorie semi-formelle dans laquelle nous avons considéré trois langages : le modèle use case d’UML, le modèle orienté buts (goal-oriented) et le modèle de traitement (MCT) de la méthode Merise. Cela du fait qu’ils sont très utilisés dans le domaine industriel et académique. Après une étude approfondie de chaque langage, leurs méta modèles sont définis et le couplage avec un méta modèle de l’ontologie est établi. Finalement, un modèle pivot compilant les trois langages est dégagé avec le couplage de l’ontologie de domaine. 661. Introduction 1 Introduction Depuis la naissance des besoins d’intégration, l’hétérogénéité des modèles est devenue une des problématiques ayant suscité beaucoup de travaux de recherche. En effet, nous constatons que les concepteurs dans différents domaines (bases de données, services, etc.) n’ont pas pensé que leurs modèles seront un jour intégré (voir la figure 3.1). Le jour où les entreprises commencent à s’intéresser à l’intégration, les concepteurs se trouvaient face à des hétérogénéités de deux types : syntaxique/sémantique et langagière. Concernant les hétérogénéités de type syntaxique et sémantique, les ontologies de domaine ont largement contribué à les résoudre, notamment dans le cadre d’intégration des besoins. D’un autre coté, un ensemble de modèles pivots ont été proposés pour faire face à l’hétérogénéité langagière. Le rôle d’un modèle pivot est d’assurer une équivalence sémantique entre les différents modèles. Langage formel Concepteur (1) Langage de semiformel Vocabulaire (1) … … utilise utilise utilise Besoins des utilisateurs hétérogènes Incohérents Ambigus Incomplets Collection & Analyse Concepteur (2) Concepteur (n) Langage informel Vocabulaire (2) Vocabulaire (n) Non vérifiables … Multi-designer, Multi-vocabulary and Multi-Modeling language Langage formel Concepteur (1) Langage de semiformel Vocabulaire (1) … … utilise utilise utilise Besoins des utilisateurs hétérogènes Incohérents Ambigus Incomplets Collection & Analyse Concepteur (2) Concepteur (n) Langage informel Vocabulaire (2) Vocabulaire (n) Non vérifiables … Multi-designer, Multi-vocabulary and Multi-Modeling language Figure 4.1 – Hétérogénéité des vocabulaires et des langages de modélisation des besoins. Pour présenter nos contributions, nous commençons par définir quelques hypothèses suivies par l’analyse de trois modèles d’expression des besoins afin de comprendre leurs principes et fonctionnement. Cette analyse nous permet de méta-modéliser ces langages de besoins. Cette méta-modélisation permet d’instancier n’importe quel modèle de besoin exprimer à l’aide d’un langage étudié. Un modèle pivot est alors proposé à partir des trois modèles étudiés. Pour établir des ponts entre le modèle pivot et les trois modèles utilisés, des transformations de type modèle-vers-modèle sont définies. 67Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins Ce chapitre est organisé comme suit. Dans la section 2, nous présentons nos hypothèse afin d’élaborer notre approche d’intégration. Dans la section 3, nous présentons notre méthode unifiant les vocabulaires. Par la suite, dans la section 4, nous présentons notre méthodes afin d’unifier les langages de d’expression des besoins. Avant de conclure le chapitre, nous présentons un exemple d’utilisation de notre approche d’intégration. 2 Nos hypothèses Deux hypothèses majeures sont considérées pour l’élaboration de notre approche. 1. L’existence d’une ontologie partagée (OP) qui précède la conception de l’application cible. 2. Chaque concepteur extrait un fragment de l’ontologie partagée (appelée Ontologie Locale (OL)). Afin de garder son autonomie, le concepteur peut étendre son ontologie locale en ajoutant des concepts et des propriétés qui n’existent pas dans l’ontologie partagée [20]. L’extraction de l’ontologie locale se fait selon une méthode de modularité, qui permet d’extraire une ontologie à partir d’une autre, tout en assurant la complétude et la cohérence de l’ontologie extraite. Trois scénarii d’extraction sont possibles : 1. OL ≡ OP : l’ontologie partagée correspond exactement aux besoins des concepteurs. L’expression des besoins en termes de classes, de propriétés ainsi que des fonctions (Ref) coïncide exactement avec la description de l’ontologie globale. Autrement dit, la description de l’ontologie locale correspond parfaitement à la description de l’ontologie partagée. Formalisation 1 OLi :< COLi, ROLi,Re f(C)OLi,Re f(R)OLi,FOLi >, avec: – COLi ≡ COP. – ROLi ≡ ROP. – Re f(C)OLi ≡ Re f(C)OP. – Re f(R)OLi ≡ Re f(R)OP. 2. OL ⊆ OP : l’ontologie locale est extraite à partir de l’ontologie partagée et couvre tous les besoins des utilisateurs. En effet, la description des besoins en termes de concepts ontologiques décrit un fragment de l’ontologie globale. Plusieurs méthodes et mécanismes de modularité ont été proposés et définis selon le formalisme d’ontologie utilisé, comme l’opérateur Case-of pour le langage PLIB. Ainsi, OL ⊆ OP signifie que: Formalisation 2 OLi :< COLi, ROLi,Re f(C)OLi,Re f(R)OLi,FOLi >, avec: – COLi ⊆ COP. – ROLi ⊆ ROP. – Re f(C)OLi ⊆ Re f(C)OP. – Re f(R)OLi ⊆ Re f(R)OP. 683. Unification des vocabulaires 3. OL ⊇ OP : le sous-ensemble de concepts (classes et propriétés) importé de l’ontologie partagée ne couvre pas tous les besoins des utilisateurs. Ce sous-ensemble nécessite en général d’être enrichi et spécialisé pour répondre aux objectifs applicatifs spécifiques. Ainsi, le concepteur peut, si l’ontologie partagée ne couvre pas de façon suffisamment détaillée le domaine de son application, étendre l’ontologie locale par ajout de nouvelles classes et/ou de nouvelles propriétés. Les concepts et propriétés pourront aussi être renommés pour mieux refléter le contexte applicatif. Notons que ce renommage est sans conséquence car chaque concept de chaque ontologie est associé à un unique identifiant et que les relations formelles sont des relations entre identifiants. Ainsi, OL ⊇ OP signifie que : Formalisation 3 OLi :< COLi, ROLi,Re f(C)OLi,Re f(R)OLi,FOLi >, avec: – COLi ⊇ COP. – ROLi ⊇ ROP. – Re f(C)OLi ⊇ Re f(C)OP. – Re f(R)OLi ⊇ Re f(R)OP. Exemple 3 La figure 4.2 présente un exemple de définition d’une ontologie locale à partir de l’ontologie globale LUBM. Dans un premier temps, nous définissons OL par l’importation d’un ensemble de classes couvrant une partie des besoins du concepteur. Dans un deuxième temps, les besoins non couverts sont traités par l’ajout de nouveaux concepts. Par exemple, les concepts décrivant les étudiants diplômés (DegreeStudent), étudiants sans diplôme (Non-degreeStudent) et la propriété (Degree) ne sont pas dé- finis à travers l’ontologie globale (DegreeStudent, Non-degreeStudent, Degree) < CLUBM ∪ RLUBM. Par conséquent, ces deux classes et leurs propriétés, sont rajoutées au niveau de l’ontologie locale. De plus, la description de la classe étudiant (Student) est modifiée de manière à ce qu’elle soit dé- finie comme l’union des étudiants diplômés (DegreeStudent) et des étudiants sans diplôme (Non_- degreeStudent). L’ontologie locale sera complétée comme suit. – COL = {Person, Student, DegreeStudent, Non-degreeStudent} – ROL = {PersonId, Name, Age, Marks, Degree } – Re f(C)OL = {Ref(Student)→ (⊆, Person ∩ ∀ takesCourse(Person, Course))}. – la définition de la classe étudiant Student est modifiée de la manière suivante : S tudent ≡ DegreeS tudent ∪ Non − degreeS tudent. 3 Unification des vocabulaires Maintenant nous avons tous les ingrédients pour proposer notre méthode unifiant les vocabulaires. Pour cela, nous considérons une étude de cas de trois langages qui sera détaillée dans la section suivante. Pour chaque cas, nous donnerons une formalisation détaillée et un exemple. 69Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins Person Student Employee Person Student Name Marks PersonId Age Age Ontologie Globale (OG) Ontologie Locale (OL) Concept Concept importé Propriété importée Importer Héritage Concepteur PersonId Name Marks DegreeStudent Non-degreeStudent Degree Concept ajouté Propriété ajoutée Person Student Employee Person Student Name Marks PersonId Age Age Ontologie Globale (OG) Ontologie Locale (OL) Concept Concept importé Propriété importée Importer Héritage Concepteur PersonId Name Marks DegreeStudent Non-degreeStudent Degree Concept ajouté Propriété ajoutée Figure 4.2 – Exemple d’extraction de l’ontologie locale. 3.1 Étude de cas Comme nous l’avons déjà évoqué, nous considérons une étude de cas comprenant trois langages de modélisation des besoins appartenant à la famille semi formelles, à savoir orienté buts (Goal oriented), Cas d’utilisation UML, et MERISE (Modèle conceptuel de traitements, MCT). Pour rester dans le contexte d’une entreprise étendue, nous supposons que les trois langages de besoins sont exprimés respectivement par trois départements différents dont l’origine est l’Espagne, l’Angleterre et la France. L’ontologie partagée dans cette étude de cas représente l’ontologie du banc d’essai LUBM [62] (voir la figure 4.3). Elle comporte différentes classes relatives au domaine universitaire (Person, Student, Course, etc.). Pour faciliter la compréhension de notre proposition, nous détaillons dans les sections suivantes l’ensemble de trois modèles utilisés. 3.1.1 Le modèle Orienté buts Comme nous l’avons vu dans le chapitre 2, différents modèles orientés buts existent. Aussi, après une analyse des approches orientées buts, nous avons proposé notre modèle de besoin dirigé par les buts, qui se veut un modèle pivot des approches étudiées (KAOS, IStar, et Tropos) et qui repose sur le paradigme GQM (Goal/Question/Metric). Le modèle orienté but (Goal-oriented) pivot est formalisé comme suit : 703. Unification des vocabulaires Figure 4.3 – Une partie de l’ontologie University proposée par le benchmark LUBM. Formalisation 4 Goalmodel: < Actor, Goal, Goalrelationships >, où : – Actor : {actor1, actor2, ..., actorn} est l’ensemble des acteurs interagissant avec le système pour répondre au but. – Goal : {goal1, goal2, ..., goaln} est l’ensemble des buts exprimés par un acteur (ex: le concepteur). Un but représenté par le triplet : Goal: < T,R,M >, où : – T = {t1, t2, ..., tn} est l’ensemble des tâches qu’un système effectue pour atteindre un but. ∀ti ∈ T, ∃pj ⊆ P, tel que f(ti) = pj , où pj ∈ {p1, p2, ..., pn} est l’ensemble des propriétés satisfaites par un système. Ici, f(ti) = pj est une fonction qui représente l’ensemble des propriétés pj définissant ti . – R = {r1,r2, ...,rn} est l’ensemble des résultats réalisés par le système. – M = {m1, m2, ..., mn} est l’ensemble des métriques, formelles ou semi-formelles, selon lesquelles un résultat est quantifié. – Goalrelationships = {relation1,relation2, ...,relationn} est l’ensemble des relations entre les buts. Goalrelationships = (AND/OR decomposition, Contains, Requires, Refines, Conflicts and Equivalence). Exemple 4 La figure 4.4 présente un modèle de buts utilisé par le concepteur Espagnol pour exprimer ses be- 71Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins soins. Considérons le besoin : "El sistema permitirá a la administración para eliminar toda la información de los estudiantes mayores de 40 años", en Français "Le système doit permettre à l’administration de supprimer les informations des étudiants ayant plus de 40 ans". Ce but est décrit par les attributs suivants : un identifiant id (001), un nom (But G1.1), une description, un contexte (Universitaire) et une priorité. On distingue deux types de priorité : obligatoire et optionnelle. Eliminar toda la información de los estudiantes mayores de 40 años Eliminar la información personal Eliminar la información escolar Administración Eliminar el nombre Eliminar la edad Eliminar la fecha de nacimiento Eliminar notas name edad notas Eliminar curso curso Tâche Propriété Estudiante de edad > 40 años (Y (AND) Calcular la edad Universidad Sous But But nacimiento Eliminar toda la información de los estudiantes mayores de 40 años Eliminar la información personal Eliminar la información escolar Administración Eliminar el nombre Eliminar la edad Eliminar la fecha de nacimiento Eliminar notas name edad notas Eliminar curso curso Tâche Propriété Estudiante de edad > 40 años (Y (AND) Calcular la edad Universidad Sous But But nacimiento Figure 4.4 – Exemple de modèle orienté buts modélisant les besoins du concepteur Espagnol. Ce besoin est formalisé de la manière suivante. – Tâches (T) = {Eliminar notas, Eliminar curso, Eliminar el nombre, Eliminar la fecha de nacimiento, Eliminar la edad, Calcular la edad}, tel que les Propriétés (P) = {notas, curso, nombre, fecha de nacimiento, edad} sont satisfaites. – Resultats (R) = {Información estudiantes eliminados}. – Métriques (M) = {Edad > 40 años}. 3.1.2 Le modèle des cas d’utilisation Selon la définition donnée par Jacobson, Un cas d’utilisation est une description d’un ensemble de séquences d’actions, incluant des variantes, qu’un système effectue pour fournir un résultat observable et ayant une valeur pour un acteur[68]. 723. Unification des vocabulaires Le modèle des cas d’utilisation peut être formalisé comme suit : Formalisation 5 UCmodel: < Actor, UseCase, Relationship >, où : – Actor = {actor1,actor2,...,actorn} est l’ensemble des acteurs qui interagissent avec le système pour répondre au cas d’utilisation. – UseCase = {case1,case2,...,casen} est l’ensemble des cas d’utilisation (Use cases) exprimés par un acteur (ex : le concepteur). Un cas d’utilisation est représenté comme suit : U seCase:< A,R, Ep, Cdt >, où : – A = {a1, a2, ..., an} est l’ensemble d’actions qu’un système effectue pour fournir un résultat. ∀ai ∈ A, ∃pj ⊆ P, telle que f(ai) = pj , où pj ∈ {p1, p2, ..., pn} est l’ensemble des propriétés satisfaites par un système. Ici, f(ai) = pj est une fonction qui représente l’ensemble des propriétés pj définissant ai . – R = {r1,r2, ...,rn} est l’ensemble des résultats réalisés par le système. – Ep = {ep1, ep2, ..., epn} est l’ensemble des points d’extension. – Cdt = {cdt1, cdt2, ..., cdtn} est l’ensemble des conditions. – Relationships = {relation1,relation2,...,relationn} est l’ensemble des relations entre les cas d’utilisation. Ces relations sont de trois types: (i) les relations d’inclusion, (ii) les relations d’extension et (iii) les relations de généralisation. Exemple 5 La figure 4.5 présente un modèle des cas d’utilisation utilisé par le concepteur Anglais pour exprimer ses besoins. Considérons le besoin: "The system shall allow the administration to delete information of all students older than 40 years", en Français "Le système doit permettre à l’administration de supprimer les informations des étudiants ayant plus de 40 ans". Ce besoin est un cas d’utilisation dé- crit par les attributs suivants : un identifiant id (001), un nom (Ucas1.1), une description, un contexte (Universitaire) et une priorité. On distingue deux types de priorité: obligatoire et optionnelle. Suivant la formalisation précédente, ce besoin est décrit par : – Action (A) = {Delete marks, Delete courses, Delete name, Delete birth day, Delete age, Delete weight}, tel que les Propriétés (P) = {marks, courses, name, birth day, age, weight} soient satisfaites. – Résultat (R) = {Students information deleted}. – Point d’extension Ep = {Calculate age}. – Condition Cdt = {age > 40}. 3.1.3 Le Modèle Conceptuel de Traitements (MCT) Selon la définition donnée par Pierre [99], un Modèle Conceptuel de Traitements (MCT) est une succession de traitements déclenchés par des événements et qui donnent naissance à de nouveaux évé- nements. Un traitement (opération) est une suite d’actions réalisées en vue d’obtenir un résultat. Dans notre travail, nous nous intéressons à l’utilisation du MCT pour l’expression des besoins utilisateurs. Le modèle de traitements peut être formalisé comme suit : 73Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins « Include » Delete studies information - Delete age - Delete name - Delete birth day Delete information of all students older than 40 years - Delete marks - Delete courses Actions Administration Actions University Calculate age Delete personal information Extension Points: execute actions Condition: if age > 40 Extension Point: execute actions « Extend » - Delete weight « Include » Properties Properties Use case « Include » Delete studies information - Delete age - Delete name - Delete birth day Delete information of all students older than 40 years - Delete marks - Delete courses Actions Administration Actions University Calculate age Delete personal information Extension Points: execute actions Condition: if age > 40 Extension Point: execute actions « Extend » - Delete weight « Include » Properties Properties Use case Figure 4.5 – Exemple de modèle de cas d’utilisation modélisant les besoins du concepteur Anglais. Formalisation 6 MCTmodel: < Actor, Event, Traitement, Synchronization >, où : – Actor = {actor1,actor2,...,actorn} est l’ensemble des acteurs qui interagissent avec le système. – Event = {event1,event2,...,eventn} est l’ensemble des événements. – Traitement = {traitement1,traitement2,...,traitementn} est l’ensemble des traitements accomplies par le système. Un traitement est représenté par le triplet : T raitement:< A,R, Emr >, où : – A = {a1, a2, ..., an} est l’ensemble d’actions qu’un système exécute en réponse à un évé- nement. ∀ai ∈ A, ∃pj ⊆ P, telle que f(ai) = pj , où pj ∈ {p1, p2, ..., pn} est l’ensemble des propriétés satisfaites par un système. Ici, f(ai) = pj est une fonction qui représente l’ensemble des propriétés pj définissant ai . – R = {r1,r2, ...,rn} est l’ensemble des résultats créés par un traitement qui peut lui-même jouer le rôle d’événement. – Emr = {emr1,emr2,...,emrn} est l’ensemble des règles d’émission emission rules qui permettent d’exprimer des conditions de sortie des résultats. – Synchronization = {synch1,synch2,...,synchn} est l’ensemble des synchronisation (ET/OU) qui déclenchent un ou plusieurs traitements. 743. Unification des vocabulaires Exemple 6 La figure 4.6 présente un modèle conceptuel de traitements utilisé par le concepteur Français pour exprimer ses besoins. Considérons le besoin : "Le système doit permettre à l’administration de supprimer toutes les informations des étudiants ayant plus de 40 ans". Ce besoin est un événement décrit par les attributs suivants : un identifiant id (001), un nom (Event 1.1), une description, un contexte (Universitaire) et une priorité. On distingue deux types de priorité : obligatoire et optionnelle. Supprimer toutes les informations des étudiants ayant plus de 40 ans Supprimer les informations scolaires - Supprimer les notes - Supprimer les cours Supprimer les informations personnelles Âge = < 40 - Supprimer le nom - Supprimer la date de naissance - Calculer l’âge Informations personnelles supprimées Rejeté Actions Université Âge > 40 Informations scolaires supprimées Propriétés Rejeté OK OK ET Administration Evénement Supprimer toutes les informations des étudiants ayant plus de 40 ans Supprimer les informations scolaires - Supprimer les notes - Supprimer les cours Supprimer les informations personnelles Âge = < 40 - Supprimer le nom - Supprimer la date de naissance - Calculer l’âge Informations personnelles supprimées Rejeté Actions Université Âge > 40 Informations scolaires supprimées Propriétés Rejeté OK OK ET Administration Evénement Figure 4.6 – Exemple de modèle de traitements modélisant les besoins du concepteur Français. Suivant la formalisation précédente, ce besoin est décrit par : – Action (A) = {Supprimer le nom, Supprimer la date de naissance, Calculer l’âge, Supprimer les notes, Supprimer les cours}, tel que les Propriétés (P) = {nom, date de naissance, âge, notes, cours} soient satisfaites. – Résultat (R) = {Informations des étudiants supprimées}. – Règle d’émission (Emr) = {Âge > 40}. 75Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins 3.2 Couplage des modèles utilisés avec l’ontologie Pour réaliser le couplage entre les trois modèles étudiés et l’ontologie, nous utilisons les techniques de la méta-modélisation. Cette dernière nous permis de définir les concepts à utiliser pour modéliser les besoins des utilisateurs. Nous proposons d’étendre le méta-modèle d’ontologie par des méta-classes constituant le méta-modèle des besoins (voir la figure 4.7). Ensuite en liant les coordonnées de cette classe avec les méta-classes ontologiques (Concepts et propriétés). Nous utilisons le terme (Domaine) pour désigner les ressources de l’ontologie (concepts et propriétés) qui peuvent être utilisées pour définir le besoin. Ingénierie des Besoins (IB) Métamodèle des besoins Modèle des besoins Métamodèle d’ontologie Modèle d’ontologie Domaine de connaissance Instance de Instance de Ingénierie des Besoins (IB) Métamodèle des besoins Modèle des besoins Métamodèle d’ontologie Modèle d’ontologie Domaine de connaissance Instance de Instance de Figure 4.7 – Couplage des modèles des besoins avec le modèle d’ontologie. 3.2.1 Méta-modèle de l’ontologie partagée Le standard Meta-Object Facility (MOF) de l’Object Management Group (OMG) fournit un métamodèle OWL 31 décrivant les principaux constructeurs d’une ontologie OWL. La figure 4.8 représente un fragment de ce méta-modèle qui représente le méta-modèle de l’ontologie partagée. Dans ce métamodèle, une ontologie est représentée principalement par les classes suivantes : OWLClass, DataTypeProperty et ObjectProperty, représentant respectivement les classes, les propriétés de type attribut et les propriétés de type relations. La subsomption des classes est décrite par la relation réflexive subclassOf. Différentes classes existent dans le méta-modèle OWL pour définir les opérateurs entre les classes (IntersectionClass, UnionClass, etc.). 31. https://www.w3.org/2007/OWL/wiki/MOF-Based_Metamodel 763. Unification des vocabulaires Figure 4.8 – Méta-modèle d’ontologie OWL. 3.2.2 Couplage des trois langages proposés avec les ontologies locales Nous avons montré comment nous avons représenté les trois méta-modèles proposés, en utilisant une approche de méta-modélisation. Nous présentons maintenant le couplage entre ces méta-modèles et les ontologies locales. En étendant la première formalisation d’une ontologie (section 2.5 du chapitre 3), l’ontologie locale des besoins sera définie formellement de la manière suivante : OLB :< C, R,Re f(C),Re f(R),MB,F ormalisme > où MB est le modèle des besoins définis en utilisant les concepts et propriétés ontologiques MB∈ 2 CU2 R . Dans notre cas d’étude : MB = Goalmodel ⊕ UCmodel ⊕ MCTmodel où chacun des modèles est défini comme suit. (⊕ signifie OU exclusif.) Ontologie des buts (OntoGoal). Cette ontologie consiste essentiellement à connecter les buts sur l’ontologie locale. Concrètement, cette connexion se fait par la création de nouvelles méta-classes (Goal, Result, Metric, Task, Relationships, etc.), et en liant les coordonnées des buts (Action, Result et Metric) avec la méta-classe rdfs:Class de l’ontologie OWL. La figure 4.9 (a) représente un fragment du métamodèle d’ontologie auquel est connecté le méta-modèle de buts 4.9 (b). Les buts de concepteurs sont spécifiés au niveau ontologique où nous avons défini une connexion entre les coordonnées de chaque but (Task, Result and Metric) les concepts et les propriétés de l’ontologie locale. Une ontologie des buts (OntoGoal) représente la connexion entre le modèle de buts et le modèle ontologique. Formellement, OntoGoal sera définie de la manière suivante : 77Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins (a) (b) Figure 4.9 – Connexion entre le modèle ontologique et le modèle orienté buts. Formalisation 7 OntoGoal :< OLi , Goalmodel > est l’ontologie locale des buts, où : – OLi : < Ci , Ri , Re f(Ci), Re f(Ri), Fi > est l’ontologie locale. – Goalmodel: < Actor, Goal,Relationship >, où : – Goal:< T,R,M >, avec : – T = {t1, t2, ..., tn} est l’ensemble de tâches . ∀ti ∈ T, ∃dj ⊆ D, telle que f(ti) = dj , où dj ∈ (Domaine(t)) est l’ensemble des ressources de l’ontologie de domaine. – R = {r1,r2, ...,rn} est l’ensemble de résultats. – M = {m1, m2, ..., mn} est l’ensemble de métriques. – Relationships = {relation1,relation2,...,relationn} est l’ensemble des relations entre les buts. relationi ∈ Relationships ⊆ Ri , l’ensemble de relations (rôles) de l’ontologie locale. La figure 4.10 illustre un exemple d’instanciation de modèle d’ontologie (partie (a)) et le modèle orienté but (partie (b)). Le concepteur peut exprimer le but : "Le système doit permettre à l’administration de supprimer les informations des étudiants ayant plus de 40 ans" au niveau ontologique en utilisant les propriétés et les concepts de l’ontologie. Par exemple, les propriétés age, name, marks sont des propriétés ontologiques. Ontologie des cas d’utilisation (OntoUcase). Les besoins de concepteurs modélisés par les cas d’utilisation sont spécifiés au niveau ontologique où nous avons défini une connexion entre les coordonnées de chaque cas d’utilisation (Action, Résultat, Condition et Point d’extension) et les concepts et propriétés de l’ontologie locale (voir la figure 4.11). Une ontologie des cas d’utilisation (OntoUcase) 783. Unification des vocabulaires (a) (b) Figure 4.10 – Instanciation des modèles de l’ontologie et du modèle orientés buts. représente la connexion entre le modèle des cas d’utilisation et le modèle ontologique. Formellement, OntoUcase est définie de la manière suivante. Formalisation 8 OntoUcase :< OLi , UCmodel > est l’ontologie locale des cas d’utilisation, où : – OLi : < Ci , Ri , Re f(Ci), Re f(Ri), Fi > est l’ontologie locale. – UCmodel: < Actor, UseCase,Relationship >, avec : – UseCase:< A,R, Ep, Cdt >, où : – A = {a1, a2, ..., an} est l’ensemble des actions. ∀ai ∈ A, ∃dj ⊆ D, telle que f(ai) = dj , où dj ∈ (Domaine(a)) est l’ensemble des ressources de l’ontologie de domaine. – R = {r1,r2, ...,rn} est l’ensemble des résultats. – Ep = {ep1, ep2, ..., epn} est l’ensemble des points d’extension. – Cdt = {cdt1,cdt2,..., cdtn}, est l’ensemble des métriques. – Relationships = {relation1,relation2,...,relationn} est l’ensemble des relations entre les cas d’utilisation. relationi ∈ Relationships ⊆ Ri , l’ensemble de relations (rôles) de l’ontologie locale. 79Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins (a) (b) Figure 4.11 – Connexion entre le modèle ontologique et le modèle use case. Ontologie des traitements (OntoMCT). Les besoins de concepteurs modélisés par les traitements sont spécifiés au niveau ontologique où nous avons défini une connexion entre les coordonnées de chaque traitement (Action, Résultat et Règles d’émission ), les concepts et les propriétés de l’ontologie locale (voir la figure 4.12). Une ontologie de traitements (OntoMct) représente la connexion entre le modèle conceptuel de traitements et le modèle ontologique. Formellement, OntoMCT est définie de la manière suivante : Formalisation 9 OntoMCT :< OLi ,MCTmodel > est l’ontologie locale des traitements, avec : – OLi : < Ci , Ri , Re f(C)i , Re f(R)i , Fi > est l’ontologie locale. – MCTmodel: < Actor, Event,Traitement,Synchronization >, où : – Event= {event1,event2,...,eventn} est l’ensemble des événements. Pour chaque event ∈ Event, event∈ 2 CU2 R – Traitement:< A,R, C, Emr >, où : – A = {a1, a2, ..., an}, l’ensemble des actions. ∀ai ∈ A, ∃dj ⊆ D, telle que f(ai) = dj , où dj ∈ (Domaine(a)) est l’ensemble des ressources de l’ontologie de domaine. – R = {r1,r2, ...,rn} l’ensemble des résultats. – Emr = {emr1, nemr2, ..., emrn} est l’ensemble des règles d’émission. 804. Unification des langages de modélisation des besoins (a) (b) Figure 4.12 – Connexion entre le modèle ontologique et le modèle MCT. – Synchronization = {synch1,synch2,...,synchn}, est l’ensemble des relations de sychronisation entre les événements. synchi ∈ Relationships ⊆ Ri , l’ensemble de relations (rôles) de l’ontologie locale. Pour résumer, nous avons établi une connexion entre l’ontologie de domaine et les trois langages de modélisation des besoins. Cela réduit considérablement l’hétérogénieté syntaxique et sémantique. 4 Unification des langages de modélisation des besoins Comme nous l’avons indiqué, la solution pivot obtenue par des exemples est proposée pour unifier l’ensemble des langages de modélisation des besoins. Le modèle pivot est obtenu après l’analyse des concepts fondamentaux des trois langages étudiés. Soit D = {D1, D2, ..., Dn}, l’ensemble des concepteurs (Designers) impliqués dans le développement d’une application donnée. Chaque concepteur Di doit utiliser un langage de modélisation des besoins LBi et une terminologie (vocabulaire) Vi pour exprimer ses besoins B Di . Pour intégrer les différents langages des besoins, une solution naïve consiste à établir ( n×(n−1) 2 ) correspondances entre les n langages. Cette solution est coûteuse, car elle nécessite des efforts considérables pour établir les correspondances entre les différents langages des besoins, notamment si les langages utilisés sont nombreux. Pour réduire cette complexité, le langage pivot est approprié. Du 81Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins fait qu’il offre une représentation générique de différents langages. Plus précisément, lorsque un langage pivot est utilisé, le nombre de correspondance est réduit à n si n langages sont pris en considération. Les différentes correspondances établies entre les langages sont illustrées par la figure 4.13. Langage 1 Langage 2 Langage 3 Langage 4 Langage n Langage 4 Langage 1 Langage 2 Langage 3 Langage n Langage Pivot (b) Solution Pivot. (a) Solution Ad hoc. n(n-1)/2 Correspondances (n) Correspondances Langage 1 Langage 2 Langage 3 Langage 4 Langage n Langage 4 Langage 1 Langage 2 Langage 3 Langage n Langage Pivot (b) Solution Pivot. (a) Solution Ad hoc. n(n-1)/2 Correspondances (n) Correspondances Figure 4.13 – Intégration centralisée avec langage Pivot. Formellement, selon une approche pivot, un système d’intégration des besoins hétérogènes RIS (Requirements integration system) est représenté par un triplet : Formalisation 10 RIS :< P; LB;M > avec : – P : un schéma pivot (générique) exprimé par un langage (modèle) de modélisation donné LBP sur une terminologie (vocabulaire) VP; – LB = {LB1, LB2, ..., LBn}, l’ensemble de langages de modélisation des besoins utilisés par des concepteurs hétérogènes impliqués dans le développement du système complexe. Chaque LBi (1 ≤ i ≤ n) doit utiliser une teminologie VLB; – M = {M1,M2, ...,Mn}, l’ensemble des correspondances (mapping) entre les langages de modélisation LBi et le langage pivot P. Cela conduit à [n] correspondances si n langages sont pris en considération. 4.1 Proposition d’un modèle pivot des besoins Le Tableau 4.1 présente une comparaison entre les trois modèles des besoins (Goal-Oriented, Use case (UML) et MCT de MERISE) pour extraire les unités de modélisation (les concepts) communs. Cette comparaison nous a permis d’élaborer le modèle pivot qui est défini comme suit et illustré par la figure 4.14. 824. Unification des langages de modélisation des besoins Table 4.1 – Les concepts communs entre les modèles de besoins. Formalisation 11 Pivotmodel: < Actor,Requirement,Relationships >, où : – Actor = {actor1, actor2, ..., actorn} un ensemble d’acteurs (e.g. concepteur) – Requirement = {req1,req2, ...,reqn} un ensemble de besoins exprimés par un acteur. Nous définissons un besoin (requirement) comme suit : Requirementi : < A,R, C > un ensemble de besoins où : – A = {a1, a2, ..., an} est l’ensemble d’actions qu’un système effectue pour fournir un résultat. ∀ai ∈ A, ∃pj ⊆ P, telle que f(ai) = pj , où pj = {p1, p2, ..., pn} est l’ensemble des propriétés satisfaites par un système. – R = {r1,r2, ...,rn} est l’ensemble des résultats réalisés par le système. – C = {c1, c2, ..., cn} est l’ensemble des critères selon lesquels un résultat est quantifié. – Relationships = {relation1,relation2, ...,relationn} est l’ensemble de relations entre les besoins. 4.2 Couplage de modèle pivot à l’ontologie Après la construction du méta-modèle pivot, on relie les caractéristiques de chaque concept (Action, Résultat, Critère, etc. ) avec des classes et des propriétés ontologiques. Un modèle ontologique pivot (OntoPivot) représente la connexion entre le modèle pivot et le modèle de l’ontologie globale (figure 83Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins Figure 4.14 – Le méta-modèle pivot. 4.15). Formellement, OntoPivot est définie de la manière suivante : Formalisation 12 OntoPivot :< OP, Pivotmodel > est ontologie des besoins, où : – OP : < C, Ro, Re f(C), Re f(R), F > est l’ontologie partagée. – Pivotmodel: < Actor,Requirement,Relationships >, avec : – Requirement:< A,R, C >, où: – A = {a1, a2, ..., an} est l’ensemble des actions. ∀ai ∈ A, ∃dj ⊆ D, telle que f(ai) = dj , où dj ∈ (Domaine(a)) est l’ensemble des ressources de l’ontologie de domaine. – R = {r1,r2, ...,rn} est l’ensemble des résultats. – C = {c1, c2, ..., cn} est l’ensemble des critères. – Relationships = {relation1,relation2, ...,relationn} est l’ensemble des relations entre les besoins. relationi ∈ Relationships ⊆ Ro est l’ensemble de relations de l’ontologie de domaine. 845. Un exemple d’utilisation de notre méthode d’intégration DefinedBy DefinedBy DefinedBy (a) (b) Figure 4.15 – Connexion entre le modèle ontologique et le modèle pivot. 5 Un exemple d’utilisation de notre méthode d’intégration Pour faciliter la compréhension de notre approche, nous considérons le scénario d’utilisation indiqué par la figure 4.16, où les trois langages de modélisation des besoins sont considérés. Chaque concepteur extrait d’abord une ontologie locale référençant l’ontologie partagée qui satisfait ses exigences. Une fois l’ontologie locale extraite, le concepteur décrit ses besoins en fonction de celle-ci. Ces besoins sont ensuite transformés à l’aide des règles de transformation au modèle pivot. Nous rappelons que la transformation de modèles fait partie de l’approche IDM. Elle permet d’obtenir différents modèles cibles suite au traitement de différents modèles sources (figure 4.17). La transformation de modèle est également utilisée pour établir les correspondances (mapping) et les traductions entre différents langages de modélisation. Dans ce scénario, nous transformons les langages des besoins locaux (Ontologie Orienté-buts (OntoGoal), Ontologie des Cas d’utilisation (OntoUcase) et Ontologie des traitements (OntoMCT)) en un langage commun (Ontologie Pivot, OntoPivot). Cette transformation se fait par l’intermédiaire des fonctions qui décrivent les règles de transformation suivantes. 85Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins Ontologie partagée Modèle Pivot des besoins Couplage Transformation (Mappings) Modularité (Extractions des OLs) 1 Besoins validés Corrects Sans ambiguïté Consistants ….. OL 1 Concepteurs Sous-système (1) Orientés buts OL2 Cas d’utilisation OLn (MCT) MERISE Concepteurs Concepteurs Couplage 2 Intégration des besoins Sous-système (2) Sous-système (n) Couplage 2 Couplage 2 3 3 Méta-modèle Méta-modèle Méta-modèle Modèle Ontologique Pivot (OntoPivot) Ontologie partagée Modèle Pivot des besoins Couplage Transformation (Mappings) Modularité (Extractions des OLs) 1 Besoins validés Corrects Sans ambiguïté Consistants ….. OL 1 Concepteurs Sous-système (1) Orientés buts OL2 Cas d’utilisation OLn (MCT) MERISE Concepteurs Concepteurs Couplage 2 Intégration des besoins Sous-système (2) Sous-système (n) Couplage 2 Couplage 2 3 3 Méta-modèle Méta-modèle Méta-modèle Modèle Ontologique Pivot (OntoPivot) Figure 4.16 – Scénario d’intégration des besoins selon un langage pivot. T r a n s f 1 : Goal −−−−−> R e q ui r em e nt . T r a n s f 2 : UseCase −−−−−> R e q ui r em e nt . T r a n s f 3 : T r e atm e nt −−−−−> R e q ui r em e nt . T r a n s f 4 : M et ri c −−−−−> C r i t e r i o n . T r a n s f 5 : C o n d i t i o n −−−−−> C r i t e r i o n . T r a n s f 6 : Emi s si o n −r u l e −−−−−> C r i t e r i o n . Exemple 7 Goal001 (Méta-modèle OntoGoal) —> Requirement001 (Méta-modèle Ontologique Pivot). UseCase001 (Méta-modèle OntoUcase) —> Requirement002 (Méta-modèle Ontologique Pivot). Treatement001 (Méta-modèle OntoMCT) —> Requirement003 (Méta-modèle Ontologique Pivot). Task01 (Méta-modèle OntoGoal) —> Action (Méta-modèle Ontologique Pivot). Condition001 (Méta-modèle OntoUcase) —> Criteria001 (Méta-modèle Ontologique Pivot). Metric002 (Méta-modèle OntoGoal) —> Criteria0012 (Méta-modèle Ontologique Pivot). Emission-rule003 (Méta-modèle OntoMCT) —> Criteria003 (Méta-modèle Ontologique Pivot). 866. Conclusion Méta-métamodèle Métamodèles sources Métamodèles cibles Modèles sources (S) Modèles cibles (T) Métamodèle du langage de transformation Modèles de transformation est conforme à est conforme à est conforme à Importer Importer est conforme à est conforme à Méta-métamodèle Métamodèles sources Métamodèles cibles Modèles sources (S) Modèles cibles (T) Métamodèle du langage de transformation Modèles de transformation est conforme à est conforme à est conforme à Importer Importer est conforme à est conforme à Figure 4.17 – Principe de transformation. 6 Conclusion Dans ce chapitre, nous avons proposé une solution d’intégration de besoins hétérogènes, unifiant les vocabulaires et les langages de modélisation des besoins utilisés. Pour unifier les vocabulaires, nous avons proposé l’utilisation d’une ontologie de domaine supposée existante. Dans ce cas, chaque concepteur référence cette ontologie pour exprimer ses besoins. Pour unifier les langages de modélisation des besoins, nous avons étudié trois langages à savoir, Use case d’UML, le langage orienté buts, et le modèle de traitement de la méthode Merise. Cette étude nous a permis de définir un langage pivot factorisant l’ensemble de langages étudiés. Un couplage entre l’ensemble des méta-modèles utilisés et l’ontologie est établi ainsi qu’un scénario d’intégration des besoins est alors défini selon les spécifications de ce langage pivot. Chaque concepteur extrait d’abord une ontologie locale référençant l’ontologie partagée qui satisfait ses exigences. Une fois extraite, il décrit ses besoins en fonction de celle-ci. Les besoins sont ensuite transformés à l’aide des règles sur le modèle pivot. Dans ce scénario, nous avons utilisé des transformations de type Model-to-Model. Dans ce chapitre, nous avons constaté que l’intégration des différents langages de modélisation des besoins selon la solution du langage pivot devient complexe et coûteuse si le nombre de langages de modélisation des besoins augmente. Donc, elle nécessite des efforts considérables pour établir les correspondances entre les différents langages des besoins et le langage pivot via des transformation Modelto-Model. Pour réduire cette complexité, une deuxième solution d’intégration qui repose sur la définition d’un méta-modèle générique (unifié) représentant les besoins est proposée dans le chapitre suivant. 87Chapitre 5 Vers une Fusion de méta-modèles des langages de modélisation des besoins Sommaire 1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 2 Fusion des méta modèles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 3 Connexion du méta-modèle générique avec l’ontologie . . . . . . . . . . . . . 93 4 Raisonnement sur les besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 4.1 Scénarii de raisonnement . . . . . . . . . . . . . . . . . . . . . . . . . . 96 4.1.1 Scénario 1 : ship whole . . . . . . . . . . . . . . . . . . . . . . 96 4.1.2 Scénario 2 : reason as needed . . . . . . . . . . . . . . . . . . 97 4.2 Étude de cas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 4.3 Relations sémantiques entre les besoins : Définition & Formalisation . . . 99 4.4 Évaluation du processus de raisonnement . . . . . . . . . . . . . . . . . 102 5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 Résumé. Dans le chapitre précédent, nous avons proposé une approche d’intégration des langages de besoins basée sur un modèle pivot défini par un méta-modèle. L’inconvénient majeur de cette approche est le nombre de transformations faites du nombre de n, si n langages sont considérés. Pour réduire cette complexité, nous proposons une autre approche sémantique consistant à fusionner l’ensemble des langages de besoins (trois dans notre cas). Cette fusion donnera lieu à un modèle appelé générique, où chaque langage devient une instance de ce dernier. Une mécanisme de raisonnement est fourni afin d’identifier les besoins conflictuels et contradictoires d’une manière efficace [26]. 891. Introduction 1 Introduction Afin de réduire la complexité de la solution d’intégration proposée dans le chapitre précédent, nous proposons une nouvelle approche dirigée par la fusion des méta-modèles de langages de modélisation utilisés (figure 5.1). Le méta-modèle générique est également couplé à l’ontologie partagée. Au lieu de faire des transformations de type modèle-à-modèle, des instanciations sont faites. Dans cette approche, un concepteur donne seulement le nom de son langage d’expression de besoins et son ontologie locale et une instanciation est générée. Pour identifier les besoins contradictoires, un processus de raisonnement Modèle orientés buts Modèle des cas d’utilisation Modèle de traitements Concepts (orienté buts) Concepts (cas d’utilisation) Concepts (modèle de traitements) Méta-modèle générique « Instance de » « Instance de » « Instance de » Modèle orientés buts Modèle des cas d’utilisation Modèle de traitements Concepts (orienté buts) Concepts (cas d’utilisation) Concepts (modèle de traitements) Méta-modèle générique « Instance de » « Instance de » « Instance de » Figure 5.1 – Méta-modèle générique fusionnant les trois modèles étudiés. est effectué en exploitant la présence des ontologies (locales et partagée). Ce chapitre est organisé comme suit. Nous présentons d’abord une notre approche dirigée par la fusion des méta-modèles est proposée. Ensuite un mécanisme de raisonnement sur les besoins est proposé, incluant deux stratégies de raisonnement. Ces dernières sont implémentées et comparées en termes de temps de réponse. 2 Fusion des méta modèles Dans le chapitre précédent, nous avons proposé un méta-modèle pivot qui contient un ensemble de concepts communs entre les méta-modèles étudiés (orientés buts, cas d’utilisation et modèle de traitements). Le passage d’un de ces derniers vers notre méta-modèle pivot requiert des transformations, ainsi qu’une connaissance profonde du notre méta-modèle pivot. La solution que nous proposons dans ce chapitre est basée sur la fusion de l’ensemble des méta-modèles étudiés. Cette fusion est représentée par un méta-modèle générique qui va permettre aux concepteurs d’éviter le processus de transformation. En outre, les concepts présentés précédemment dans le méta-modèle pivot feront aussi partie de ce méta-modèle car chaque concept pivot va représenter un concept générique au sein du nouveau métamodèle. Chaque concept générique (super-classe) supervise les concepts correspondants des différents méta-modèles. En conséquence, l’instanciation de notre méta-modèle générique donne lieu à un modèle regroupant les besoins exprimés avec les différents langages. En effet, chaque instance est un ensemble de besoins, où chaque besoin peut être exprimé par un des langages étudiés. 91Chapitre 5. Vers une Fusion de méta-modèles des langages de modélisation des besoins La figure 5.2 présente notre méta-modèle générique fusionnant les trois méta-modèles de besoins développés dans le chapitre précédent. Chaque besoin (Requirement) est caractérisé par un identifiant (IdReq), un nom (NameReq), une description textuelle (DescriptionReq), un objet (PurposeReq) , un contexte ContextReq, une priorité PriorityReq (en prenant les valeurs : Mandatory, High, Medium)). Figure 5.2 – Métamodèle générique des besoins. Un besoin est décrit par les caractéristiques suivantes. – Résultat (Result) : il représente la finalité du besoin d’une manière générale. Par exemple le besoin suivant "Une entreprise a besoin d’un nombre prédéfini d’employés", le nombre prédéfini d’employés constitue le résultat du besoin. Result possède une propriété measure qui sert à quantifier (mesurer) le résultat à l’aide des fonctions statistiques dédiées (Sum, Max, Min, AVG, etc). – Action : elle reflète un ensemble de séquences d’actions qui permettent de réaliser un besoin. – Critère (Criterion) : il permet de filtrer éventuellement un besoin en lui associant des conditions à satisfaire, Ainsi, pour l’exemple précédent : Une entreprise a besoin d’un nombre prédéfini d’employés ne dépassant pas un certain âge", le critère précisé ici, est que l’âge des employés doit être inférieur à un seuil donné. – Type : il permet de spécialiser un besoin. Dans notre étude de cas un besoin peut être un but (Goal), un cas d’utilisation (Use case) ou un traitement (Treatement). – Acteur : chaque besoin est proposé par un Acteur (personne, entreprise, ou unité de système autonome). 923. Connexion du méta-modèle générique avec l’ontologie – Relations (Relationships) : les besoins peuvent être liés les uns aux autres à travers des relations (Requires, Conflicts, Contains, Equivalence, AND/OR, etc.). Deux catégories de besoins sont identifiées : les besoins fonctionnels et non-fonctionnels. Notons que les coordonnées d’un besoin à savoir : Result, Action, Criterion portent sur des objets cibles qui dépendent du contexte d’usage. Dans le contexte des bases de données sémantiques, ces objets peuvent être représentés par des Concepts dans PLIB, rdfs:Resources dans RDF, OWLClasses dans OWL, etc. Nous allons détailler ce point dans la section suivante expliquant la connexion entre le modèle des besoins et le modèle de l’ontologie. Formellement, le méta modèle générique est défini de la manière suivante. Formalisation 13 Genericmodel: < Actor,Requirement,Relationships >, où : – Actor = {actor1, actor2, ..., actorn} est l’ensemble d’acteurs (e.g. concepteur) – Requirement = {req1,req2, ...,reqn} est l’ensemble de besoins exprimés par un acteur. Nous définissons un besoin (requirement) comme suit: Requirementi : < A,R, C,T >, (1 ≤ i ≤ n) est un ensemble de besoins où : – A = {a1, a2, ..., an} est l’ensemble de séquences d’actions qu’un système effectue pour fournir un résultat. ∀ai ∈ A, ∃pj ⊆ P, telle que f(ai) = pj , où pj ∈ {p1, p2, ..., pn} est l’ensemble des propriétés satisfaites par un système. – R = {r1,r2, ...,rn} est l’ensemble des résultats réalisés par le système. – C = {c1, c2, ..., cn} est l’ensemble des critères selon lesquels un résultat est quantifié. – T = {t1, t2, ..., tn}, est l’ensemble des types de besoins. Dans notre cas d’étude, ti ∈ {Goal, U secase, T reatment}. – Relationships = {relation1,relation2, ...,relationn} , est l’ensemble de relations entre les besoins. Dans notre cas, Relationship = {Goalrelationships∪UseCaserelationships∪MCTrelationships} = (Contains, Requires, Refines, Conflicts, Equivalence, AND/OR decomposition, Generalization, Synchronization, etc.). 3 Connexion du méta-modèle générique avec l’ontologie Cette étape consiste essentiellement à étendre l’ontologie globale par des méta-classes constituant le méta-modèle générique de besoins. Ensuite en liant les coordonnées de chaque besoin (Requirement) Action, Result et Criterion avec des classes et propriétés ontologiques. (voir la figure 5.3) Dans la pratique, ces coordonnées peuvent porter non seulement sur un seul objet, mais également sur des expressions (entre autres relations arithmétiques) entre plusieurs objets cibles. Dans la figure 4.10 (section 3.2.2 du chapitre 4), le résultat du besoin porte sur un seul objet qui est la classe ontologique Student, comme il peut bel et bien porter sur une expression entre propriétés ontologiques, comme par exemple le besoin du calcul de la moyenne des étudiants où on aura affaire à un produit entre la propriété note et coefficient de la classe Course. D’autres exemples sont étudiés plus loin dans le chapitre 6. Au final , les besoins sont spécifiés au niveau ontologique où nous avons substitué les classes du modèle des besoins par son équivalent dans le modèle d’ontologie. Un modèle ontologique (OntoReq) 93Chapitre 5. Vers une Fusion de méta-modèles des langages de modélisation des besoins Méta-modèle d’ontologie Méta-modèle de besoins Person Student Employee name: String age: Integer salary : double class : String Student 1: Student name: ‘AAA’ age: 22 Employee 1: Employee name: ‘BBB’ age: 36 class: ‘A’ salary : 3000 $ Instances conforme à conforme à conforme à Modèle Méta-modèle conforme à conforme à Goal 1: Goal id: 001 NameGoal : ‘goal 01’ DescriptionGoal : ‘Le système doit permettre à l’administration de supprimer les informations des étudiants ayant plus de 40 ans’ Context : ‘universitaire’ conforme à Modèle de buts Méta-modèle d’ontologie Méta-modèle de besoins Person Student Employee name: String age: Integer salary : double class : String Student 1: Student name: ‘AAA’ age: 22 Employee 1: Employee name: ‘BBB’ age: 36 class: ‘A’ salary : 3000 $ Instances conforme à conforme à conforme à Modèle Méta-modèle conforme à conforme à Goal 1: Goal id: 001 NameGoal : ‘goal 01’ DescriptionGoal : ‘Le système doit permettre à l’administration de supprimer les informations des étudiants ayant plus de 40 ans’ Context : ‘universitaire’ conforme à Modèle de buts Figure 5.3 – Connexion entre le méta-modèle ontologique et le méta-modèle générique des besoins. représente cette connexion. OntoReq = Y Requirements (OG) Maintenant nous avons tous les ingrédients pour intégrer les besoins. En suivant les mêmes étapes du scénario d’intégration présenté dans le chapitre 4. Ici, chaque concepteur extrait d’abord une ontologie locale référençant l’ontologie partagée qui satisfait ses exigences. L’ontologie locale extraite représente le vocabulaire partagé et le langage d’expression demandé par le concepteur. Une fois l’ontologie locale est extraite, le concepteur décrit ses besoins en fonction de son ontologie locale. Ensuite, ses besoins sont transformés à l’aide des règles de transformation au modèle générique afin d’établir le mécanisme de raisonnement. 4 Raisonnement sur les besoins Dernièrement, l’inférence à base ontologique apparaît comme un moyen pertinent pour améliorer la gestion de l’information au cours de cycle de vie des applications informatiques. Les ontologies permettent des raisonnements automatiques ayant pour objet soit d’effectuer des vérifications de consistance, soit d’inférer de nouveaux faits. Fankam.[37] décrit, qu’il existe deux types d’ontologies : les ontologies 944. Raisonnement sur les besoins de stockage (Storage ontologies) et les ontologies d’inférence (Inference ontologies). Les ontologies de stockage sont utilisées pour la capture de l’information, le stockage, la classification et la réutilisation des sources hétérogènes. Contrairement au premier type, les ontologies d’inférence peuvent raisonner et inférer sur des informations. L’inférence est la capacité de faire des déductions sur les instances, les classes et les propriétés ontologiques. Ce mode de raisonnement est effectué par un moteur d’inférence. De nombreux langages et outils informatiques sont apparus pour un raisonnement à base ontologique. Nous pouvons citer OWL et SWRL. Le raisonnement, en générale, est un processus cognitif permettant soit d’obtenir de nouveaux ré- sultats soit de faire la vérification d’un fait. Le raisonnement à base de règles (rules based reasonning) s’inscrit dans une logique mathématique, en utilisant la déduction, l’abduction ou l’induction. Il présente certains avantages : tout d’abord, il est facile à comprendre et à interpréter. De plus, il est assez naturel car l’être humaine raisonne souvent sous forme de règles : (s’il pleut dehors, alors je vais prendre mon parapluie). Un autre atout de ce type de raisonnement est sa modularité, en effet, il est possible d’ajouter des règles ou d’en enlever simplement selon les besoins de l’utilisateur [72]. Pour raisonner à base de règles, il faut : – Une base de connaissance : les règles. Une règle est une connaissance qui sert à faire le lien entre des connaissances connues et d’autres connaissances que l’on peut déduire ou inférer. Une règle est une expression de la forme : "Si X est Y, alors V est Z ". Elle exprime une relation entre les variables X et Y. On appelle "X est Y" la prémisse de la règle, et "V est Z" la conclusion de la règle. En général, on estime que la connaissance exprimée par cette règle est valide. Le type de raisonnement utilisé est donc déductif car on essaye de déduire des connaissances sur les valeurs de sortie à partir des valeurs des entrées. Exemple. Cette règle modélise la connaissance suivante : (si un étudiant X est inscrit à un cours Y alors il existe un enseignant Z qui enseigne Y et qui enseigne à X). La traduction logique de cette règle (R) est: φ(R) = ∀x∀y((Etudiant(x) ∧ Cours(y) ∧ inscrit(x, y)) → ∃z(Enseigant(z) ∧ enseigne(z, y) ∧ enseigneA(z, x))) – Un ensemble de faits : les données. – Un moteur d’inférence : un processus de raisonnement qui s’appuie sur des connaissances acquises, et qui s’articule autour de règles fondamentales pour permettre d’obtenir de nouvelles connaissances. Pour simplifier, on peut considérer que l’inférence est un mode de raisonnement. Le couplage entre le modèle des besoins et l’ontologie permet de détecter les besoins incohérents et contradictoires. Le concepteur peut spécifier les besoins comme des individus (instances) dans l’ontologie. Les règles de vérification de la cohérence (consistency checking rules) sont exécutées sur cette ontologie (Fig 5.4). Plus formellement notre mécanisme de raisonnement OntoRR, (Ontological Reasoning about Requirements) est définit comme suit : Formalisation 14 OntoRR: < O,Requirementmodel,Rules >, où : – O : < C, R, Re f(C), Re f(R), F >, an ontology. – Requirementmodel = {model1, model2, ..., modeln}, est l’ensemble de modèles. Dans notre cas, Requirementmodel = Pivotmodel ⊕ Goalmodel ⊕ Ucasemodel ⊕ MCTmodel. – Rules = {rule1,rule2, ...,rulen}, l’ensemble des relations entre les besoins. Où rulei ⊆ Rules, 95Chapitre 5. Vers une Fusion de méta-modèles des langages de modélisation des besoins Ingénierie des Besoins Meta-modèle de besoins Module de besoins Moteur d'inférence Module de raisonnement Module d’ontologie Ontologie de domaine Meta-modèle d’ontologie Instance de Modèle de besoins Modèle d’ontologie Connexion Règle de raisonnement Instance de Connexion Ingénierie des Besoins Meta-modèle de besoins Module de besoins Moteur d'inférence Module de raisonnement Module d’ontologie Ontologie de domaine Meta-modèle d’ontologie Instance de Modèle de besoins Modèle d’ontologie Connexion Règle de raisonnement Instance de Connexion Figure 5.4 – Processus de raisonnement. Rules = {Containsrule, Requiresrule, Re f inesrule,Con f lictsrule andEqualsrule}. 4.1 Scénarii de raisonnement La présence de la connexion entre le modèle de l’ontologie et le modèle des besoins nous permet de proposer deux scénarii de raisonnement. 4.1.1 Scénario 1 : ship whole Dans ce scénario appelé ship whole, chaque concepteur envoie ses besoins sans aucun traitement local au modèle générique qui effectue le raisonnement pour identifier les besoins conflictuels. Cette phase est réalisée après la transformation des besoins locaux en modèle générique. Cette solution peut être coûteuse si le nombre de besoins est important.(figure 5.5). Ce scénario est défini formellement par : Formalisation 15 OntoRU: < OntoReq,Rules >, où : – OntoReq :< OP, Genericmodel >, ontologie des besoins. – Rules = {rule1,rule2, ...,rulen}, l’ensemble des relations entre les besoins. Où rulei ⊆ Rules, Rules = {Containsrule, Requiresrule, Re f inesrule, Con f lictsruleandEqualsrule}. 964. Raisonnement sur les besoins Modèle générique de besoins Connexion Ontologie partagée Concepteurs Sous-système (1) Méta-modèle Concepteurs Sous-système (2) Méta-modèle Concepteurs Sous-système (n) … Méta-modèle Transformation (Mapping) OLBn Raisonnement «ship whole » Modèle générique de besoins Connexion Ontologie partagée Concepteurs Sous-système (1) Méta-modèle Concepteurs Sous-système (2) Méta-modèle Concepteurs Sous-système (n) … Méta-modèle Transformation (Mapping) OLBn Raisonnement «ship whole » Figure 5.5 – Scénario (1) : ship whole. 4.1.2 Scénario 2 : reason as needed Pour pallier le problème de coût, nous proposons l’architecture reason as needed qui permet à chaque concepteur de raisonner localement autant qu’il le peut, puis d’envoyer ensuite des besoins valides au modèle générique, qui à son tour effectue d’autres raisonnements.(figure 5.6). Dans notre étude de cas, le raisonnement est effectué localement sur les ontologies locales des besoins (OntoGoal,OntoUcase et OntoMCT) et d’une manière globale après la phase de transformation sur l’ontologie de besoins globale (OntoReq). Ce scénario est défini formellement par : 1. Sur l’ontologie de buts, OntoGoal Formalisation 16 OntoRG: < OntoGoal,Rules >, où : – OntoGoal :< OLi , Goalmodel >, l’ontologie locale des buts. – Rules = {rule1,rule2, ...,rulen}, l’ensemble des relations entre les buts. Où rulei ⊆ Rules, Rules = {Containsrule, Requiresrule, Re f inesrule, Con f lictsruleandEqualsrule}. 97Chapitre 5. Vers une Fusion de méta-modèles des langages de modélisation des besoins Modèle générique de besoins Connexion Ontologie partagée Concepteurs Sous-système (1) Méta-modèle Concepteurs Sous-système (2) Méta-modèle Concepteurs Sous-système (n) … Méta-modèle Transformation (Mapping) OLBn Raisonnement Raisonnement Raisonnement Raisonnement Modèle générique de besoins Connexion Ontologie partagée Concepteurs Sous-système (1) Méta-modèle Concepteurs Sous-système (2) Méta-modèle Concepteurs Sous-système (n) … Méta-modèle Transformation (Mapping) OLBn Raisonnement Raisonnement Raisonnement Raisonnement Figure 5.6 – Scénario (2) : reason as needed. 2. Sur l’ontologie des cas d’utilisation, OntoUcase Formalisation 17 OntoRU: < OntoUcase,Rules >, où : – OntoUcase :< OLi , UCmodel >, l’ontologie locale des cas d’utilisation. – Rules = {rule1,rule2, ...,rulen}, l’ensemble des relations entre les besoins. Où rulei ⊆ Rules, Rules = {Containsrule, Requiresrule, Re f inesrule, Con f lictsruleandEqualsrule}. 3. Sur l’ontologie des traitement, OntoMCT Formalisation 18 OntoRU: < OntoMCT,Rules >, où : – OntoMCT :< OLi ,MCTmodel >, l’ontologie locale des traitements – Rules = {rule1,rule2, ...,rulen}, l’ensemble des relations entre les besoins. Où rulei ⊆ Rules, Rules = {Containsrule, Requiresrule, Re f inesrule, Con f lictsruleandEqualsrule}. Les deux scénarii s’appuient sur les relations sémantiques définis dans la section 4.3. 4.2 Étude de cas Pour évaluer notre processus de raisonnement, nous proposons l’utilisation d’un ensemble de besoins sur le domaine universitaire, avec des besoins concernant les étudiants, les départements, les cours, etc. 984. Raisonnement sur les besoins Cet ensemble est sélectionné du document de besoins concernant le système gestion des cours (CMS, Course Management System) 32. L’ensemble sélectionné contient 60 besoins. Nous supposons qu’ils sont collectés auprès de trois concepteurs différents qui utilisent nos modèles : 25 par le modèle (Goal), 15 par (Use case) et 20 par MCT. Nous avons utilisé l’ontologie LUBM contenant 45 classes et 38 propriétés (dont 31 Object properties, et 7 Data type properties). Nous avons sélectionné 10 besoins (R1, R2, ..., R10) de ce document, pour bien comprendre la définition et la formalisation des relations entre les besoins. Les besoins qui suit est une partie de ce document. - R1: The system shall allow the department to manage courses. - R2: The system shall allow the department to create courses. - R3: The system shall provide database course information. - R4: The system shall be able to store database course information. - R5: The system shall allow department to delete all studies and personal information of students more than 40 years old. - R6: The system shall allow department to delete all studies and personal information of students less than 40 years old. - R7: The system shall allow department to create entirely new courses. - R8: The system shall allow department to create courses. - R9: The system shall allow lecturers to create courses. - R10: The system shall allow lecturers to create courses. 4.3 Relations sémantiques entre les besoins : Définition & Formalisation Nous avons identifié cinq types de relations : Contains, Requires, Conflicts, Refines et Equals. Nous utilisons les définitions informelles définies par [55]. Dans le reste de cette section, nous donnons une définition formelle de ces relations. Nous utilisons le terme "domaine" pour désigner les ressources de l’ontologie (concepts et propriétés) qui peuvent être utilisés pour définir le besoin. 1. Relation "Contains" : Définition 1 Un besoin B1 contient des besoins {B2 ... Bn} si {B2 ... Bn} font parties de l’ensemble B1 (part-whole hierarchy). Cette relation permet de décomposer un besoin complexe en plusieurs parties. La relation contains est non réflexive, non symétrique et transitive. Soit: B1:< A1,R1,M1 >, B2:< A2,R2,M2 >,...,Bn:< An,Rn,Mn > des besoins où n ≥ 2. Domain(B1)=domain (A1)∪ domain (R1) ∪ domain (M1) Domain(B2)= domain (A2)∪ domain (R2)∪ domain (M2) Domain(Bn)= domain (An)∪ domain (Rn)∪ domain (Mn) Formalisation 19 Containsrule:B1 Contains B2,B3,...,Bn: domain(B2) ⊂ domain(B1), domain(B3) ⊂ domain(B1),..., domain(Bn) ⊂ domain(B1) 32. http://wwwhome.cs.utwente.nl/ goknila/sosym/Requirements_Document_for_CMS.pdf 99Chapitre 5. Vers une Fusion de méta-modèles des langages de modélisation des besoins Exemple 1: B1 : The system shall allow the department to manage courses. B2 : The system shall allow the department to create courses. – Domain(B1)= (department, Course, Add-course, Delete-course, Update-course, Select-course). – Domain(B2)= (department, Course, Add-course). Nous observons que (domain(B2) ⊂ domain(B1)). Nous concluons que B2 est l’une des besoins décomposés de B1. Donc, (B1 contains B2). 2. Relation "Requires" : Définition 2 Un besoin B1 requiert un besoin B2 si B1 n’est satisfait que lorsque B2 est satisfait. La relation requires peut être considérée comme pré-condition pour le besoin exigeant. La relation requires est non-réflexive, non symétrique et transitive. Soit: B1 : < A1,R1,M1 >, B2:< A2,R2,M2 > deux besoins des utilisateurs où : Domain(B1)= domain (A1)∪ domain (R1) ∪ domain (M1) Domain(B2)= domain (A2)∪ domain (R2)∪ domain (M2) Formalisation 20 Requiresrule : B1 requires B2: ∀x ∈ domain(B1): x ∈ domain(B2) ∧∃x ∈ domain(B2) :x < domain(B1) Nous expliquons la relation requires avec l’exemple suivant. Exemple 2 : B3 : The system shall provide database course information. B4 : The system shall be able to store database course information. – Domain(B3)= (Course, Provide-course, Stor-course). – Domain(B4)= (Course, Stor-course). Afin de fournir des informations sur les cours de base de données, le système a besoin de stocker des informations sur ces cours. Par conséquent, nous concluons que B3 requires B4 pour être satisfait. 3. relation "Conflicts with" : Définition 3 Un besoin B1 est en conflit avec un besoin B2 si la réalisation de B1 exclut la réalisation de B2 et vice versa. La relation de conflit adresse une contradiction entre les besoins. Notre approche de raisonnement peut exécuter des relations de conflits n-aires entre des besoins multiples. La relation de conflit binaire est symétrique, nonréflexive et elle n’est pas transitive. Formalisation 21 Con f lictsrule : B1 Conflicts with B2: (¬∃x : (x ∈ (domain(B1))∧ x ∈ (domain(B2)) ⇔ domain(B1) ∩ domain(B2) = ∅) ⇔ ∀x ∈ domain(B1) ⇒ ∃y ∈ domain(B2) ∧Contradict(x, y) . Nous expliquons la relation "conflicts with" avec l’exemple suivant. Exemple 4 : B5 : The system shall allow department to delete all studies and personal information of students with more than 40 years. B6 : The system shall allow department to delete all studies and personal information of students with less than 40 years. 1004. Raisonnement sur les besoins – Domain(B5)= (department, Student, Course, Person ∩ ∀ takesCourse(Person, Course), Name, Age, Marks, Birth date, More, Delet-name, Delet-Birthdate, Delet-course, Delet-marks, Age>=40, DisjointWith (More, Less),...). – Domain(B6)= (department, Student, Course, Person ∩ ∀ takesCourse(Person, Course), Name, Age, Marks, Birth date, Less, Delet-name, Delet-Birthdate, Delet-course, Delet-marks, Age<40, DisjointWith (More, Less), DisjointWith (Age<40, Age>=40)...). Nous observons que DisjointWith (More, Less) et DisjointWith (Age<40, Age>=40) sont des concepts conflictuels (une relation de contradiction entre les concepts). Donc, nous concluons que: B5 conflicts with B6. 4. Relation "Refines" : Définition 4 Un besoin B1 affine un besoin B2 si B1 est dérivé de B2 en ajoutant plus de détails à ses propriétés. Pareillement à la relation requires, le relation refines est non-réflexive, non symétrique et transitive. Formalisation 22 Re f inesrule: B1 Refines B2: domain(B2) ⊂ domain(B1) Nous expliquons la relation refines avec l’exemple suivant. Example 3 : B7 : The system shall allow department to create courses. B8 : The system shall allow department to create entirely new courses. – Domain(B7)= (department, Student, Course, Person ∩ ∀ takesCourse(Person, Course), Add-course,etc.). – Domain(B8)= (department, Student, Course, Person ∩ ∀ takesCourse(Person, Course), Add-New-course, etc.). Nous observons que (domain(B7) ⊂ domain(B8)). Le besoin B7 nécessité seulement d’une propriété pour la description du cours Course. Cependant, B8 explique en détails les cours par l’ajout d’une propriété New-course. Nous concluons que B8 affine B7. Par conséquent, on peut noter également que B8 requires B7. 5. Relation "Equals" : Définition 5 Un besoin B1 est égale à un besoin B2, si les propriétés de B1 sont exactement les mêmes que celles de B2 et vice versa. La relation égale est symétrique, reflexive et transitive. Formalisation 23 Equalsrule: B1 Equals B2: domain(B1) ≡ domain(B2) Nous expliquons la relation "Equals" avec l’exemple suivant. Example 5 : B9: The system shall allow lecturers to create courses. R10: The system shall allow lecturers to create courses. – Domain(B9)= (Lecturers, Student, Course, Person ∩ ∀ takesCourse(Person, Course),Add-course,etc.). – Domain(R10)= (Lecturers, Student, Course, Person ∩ ∀ takesCourse(Person, Course), Add-course, etc.). Nous observons que (domain(B9) ≡ domain(R10)). Donc, B9 est égale R10. 101Chapitre 5. Vers une Fusion de méta-modèles des langages de modélisation des besoins 4.4 Évaluation du processus de raisonnement Nous effectuons des expériences pour déterminer le nombre de relations inférées dans les deux scé- narii de raisonnement. Les résultats obtenus sont illustrés dans le tableau 5.1. Toutes les expérimentations ont été effectuées sur une machine Intel (R) Core (TM) i5 ayant un processeur d’une fréquence de 2.67 GHz, équipée d’une mémoire centrale de 4 Go, tournant sous le système d’exploitation Windows 7 professionnel. Les résultats montrent que le nombre de relations vérifiées dans le modèle générique (OntoReq) est plus que le nombre total de relations vérifiées dans les modèles de besoins locaux (OntoGoal, OntoUcase, OntoMCT). Enfin, pour mesurer l’efficacité des scénarii de raisonnement, nous avons calculé le temps Scénarii Modèles Nombre de relations Domain (C&R) Requires Conflicts Contains Refines Equals Totale Scénario (1) OntoGoal 2 1 2 2 0 7 38 OntoUcase 2 0 2 1 0 6 25 OntoMCT 2 4 2 0 0 9 34 OntoReq 4 2 2 2 2 12 40 Scénario (2) OntoReq 8 8 8 4 2 30 66 Table 5.1 – Nombre de relations vérifiées pendant le raisonnement. 0,39 0,52 0,75 1,65 0,65 0 0,5 1 1,5 2 2,5 3 OntoGoal OntoUcase OntoMCT OntoReq OntoReq Execution time (s) Scénario (2) Scénario (1) 0,39 0,52 0,75 1,65 0,65 0 0,5 1 1,5 2 2,5 3 OntoGoal OntoUcase OntoMCT OntoReq OntoReq Execution time (s) Scénario (2) Scénario (1) Figure 5.7 – Temps d’exécution de raisonnement. d’exécution (en secondes) nécessaire pour exécuter le raisonnement dans chaque scénario. (Figure 5.7). Les résultats obtenus montrent que le scénario 1 est plus performant que scénario 2. Cela montre l’intérêt de répartir les efforts de raisonnement au niveau local, puis de les raffiner au niveau global. Le 1025. Conclusion raisonneurs ne sont efficaces que sur les ontologies de petites tailles (les ontologies locales des besoins). Plus les ontologies sont grandes plus les performances diminuent. 5 Conclusion Dans ce chapitre, nous avons présenté une deuxième contribution. Elle consiste à exploiter la puissance de l’ingénierie dirigée par les modèles pour offrir un deuxième scénario d’intégration des besoins. Nous avons défini un méta-modèle générique représentant les besoins. Les trois modèles utilisés deviennent alors des instances de ce méta modèle. Nous nous somme basés sur les mêmes hypothèses que la première approche d’intégration concernant l’existence d’une ontologie partagée qui couvre la sémantique du domaine et la définition des ontologies locales qui référencent l’ontologie partagée pour fournir une autonomie aux concepteurs. Dans ce cas, chaque concepteur donne seulement son langage préféré pour concevoir une application, il extrait par la suite son langage de besoins couplé à son ontologie. Nous avons présenté également un mécanisme de raisonnement sur l’ensemble des besoins émis par les concepteurs. Deux scénarios d’implémentation de raisonnement sont proposées (i) ship whole et (ii) reason as needed. L’évaluation des deux solutions a montré l’intérêt du raisonnement, ainsi que la supériorité de la solution reason as needed sur la solution ship whole en termes de temps de traitement. Dans le chapitre suivant, nous allons étudier la contribution de la prise en compte des besoins dans la conception physique des entrepôts de données. 103Chapitre 6 Exploitation des besoins pour la conception physique Sommaire 1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 2 La conception physique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 3 Conception physique dirigée par les besoins . . . . . . . . . . . . . . . . . . . 109 3.1 La sélection des index . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 3.2 La fragmentation horizontale . . . . . . . . . . . . . . . . . . . . . . . . 111 4 Persistance des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 4.1 Le langage d’exploitation OntoQL . . . . . . . . . . . . . . . . . . . . . 112 4.2 Persistance des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 4.3 Génération des requêtes SQL . . . . . . . . . . . . . . . . . . . . . . . . 114 5 Expérimentation et évaluation de notre proposition . . . . . . . . . . . . . . . 116 5.1 Structures d’optimisation comme des services . . . . . . . . . . . . . . . 116 5.2 La sélection des index . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 5.3 La fragmentation horizontale . . . . . . . . . . . . . . . . . . . . . . . . 117 6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 Résumé. Dans les deux chapitres précédents, nous avons proposé deux approches d’inté- gration sémantique des besoins hétérogènes dans le contexte des entreprises étendues. Dans ce chapitre, nous allons étudier comment ces approches peuvent contribuer à la conception physique des entrepôts de données. Cette conception consiste à sélectionner des structures d’optimisation comme les index et la fragmentation [18, 79, 78]. Actuellement, la conception physique est réalisée à l’aide des requêtes extraites des fichiers de journalisation (logs) et supposent que la base/entrepôt de données est en cours d’utilisation. Ce processus augmente la charge de travail des administrateurs de ce type de bases de données. Comme processus alternatif, nous proposons une approche de conception physique qui se déroule pendant la modélisation conceptuelle, une fois les besoins identifiés. 1051. Introduction 1 Introduction La collecte des besoins est une pré-condition pour réussir un projet de conception de bases de données, du fait qu’elle contribue à chaque phase du cycle de vie de conception des bases de données avancées. Ce cycle est composé de six étapes principales : (a) la définition des besoins des utilisateurs, (b) la modélisation conceptuelle, (c) la modélisation logique, (d) la modélisation physique, (e) l’implémentation de la base de données et (f) son tuning. Dans ce chapitre, nous allons étudier la contribution de notre approche de gestion des besoins sur la conception physique. Nous avons choisi cette phase car elle est l’objet de nombreux travaux menés au sein de l’équipe Ingénierie des Données et des Modèles du laboratoire LIAS de l’ISAE-ENSMA. Ces travaux concernent la sélection des structures d’optimisation redondantes (du fait qu’elles dupliquent les données) comme les vues matérialisées, les index, la réplication, etc. et des structures d’optimisation non redondantes comme le partitionnement horizontale, l’ordonnancement des requêtes, etc. La sélection de ces structures se fait selon trois modes : statique, incrémental et dynamique. Dans la sélection statique, les entrées du problème sont un schéma d’un entrepôt de données ou d’une base de données, un ensemble de k requêtes les plus fréquemment utilisées (les requêtes sont donc connues a priori) et une contrainte particulière liée au problème traité. Le problème de sélection de structure d’optimisation consiste alors à trouver un ensemble d’instances d’optimisation réduisant le coût de la charge des requêtes et satisfaisant la contrainte. Dans la sélection incrémentale, on suppose à nouveau que certaines requêtes sont connues mais cette fois-ci, on traite le fait que d’autres requêtes puissent être posées sur le système. Dans la sélection incrémentale, on lève l’hypothèse sur la connaissance a priori des requêtes à optimiser. Les travaux existants ont montré la complexité de ces trois types de sélection. D’après l’analyse des travaux existants, nous avons identifié que les requêtes sont au coeur de la phase de la conception physique. Ces dernières peuvent être facilement extraites à partir des besoins identifiés dans la phase conceptuelle, que nous allons détailler dans ce chapitre. Cette démarche nous a amené à une nouvelle vision de la conception de bases de données, dans laquelle deux types d’acteurs sont présents tout au long du cycle de vie : le concepteur et l’administrateur. Jusqu’à présent, le concepteur a pour tâches de (i) proposer une bonne méthodologie de conception tout en identifiant les entités et les propriétés de l’univers de discours et (ii) réaliser un cahier des charges informatique pour évaluer la faisabilité et/ou le coût de passage de cette modélisation conceptuelle à une base de données. Tandis que l’administrateur est généralement responsable de plusieurs tâches qu’il doit assurer simultanément. Parmi ces tâches, nous pouvons citer la gestion du recouvrement des données, le tuning, le suivi des structures de données, la gestion de l’intégrité et des droits d’accès, etc. Fabio et al. [96] ont fait une étude sur le temps passé par l’administrateur pour assurer les tâches d’administration. La figure 6.1 présente le taux d’effort (en pourcentage de temps) consacré par l’administrateur pour les différentes tâches d’administration. Cette figure montre que la tâche de conception physique et de tuning consomme 17% du temps d’administration. Cet effort est dû au nombre important de choix qu’il doit effectuer. Vu que la conception physique se fait à l’aide des requêtes qui peuvent être identifiées à l’aide de l’expression des besoins, dans notre vision, cette tâche pourrait être déléguée aux concepteurs. Ce chapitre est organisé comme suit. Nous présentons d’abord la conception physique d’une manière générale dans la section 2. Puis, nous montrons comment les besoins peuvent être utilisés pour répondre à cette conception dans la section 3. Afin de pouvoir utiliser les besoins dans tout le cycle de vie d’un 107Chapitre 6. Exploitation des besoins pour la conception physique Recouvrement 19% Tuning 17% Structure de données 14% Gestion et surveillance de l'espace 10% Surveillance du système 10% Intégrité/vérifications statistiques 8% Modification de données 8% Surveillance de la performance 7% Codage 4% Mise à niveau du système 3% Figure 6.1 – Répartition de l’effort de l’administrateur. système de gestion de données, nous montrons dans la section 4 comment ils peuvent être persistés. Enfin, une étude de cas est présentée dans la section 5 montre que la conséquence de l’utilisation des besoins dans la conception physique est la réduction des tâches de l’administrateur. 2 La conception physique Dans les applications décisionnelles, la conception physique est devenue un enjeu important vu les exigences des décideurs en termes de temps de réponse de requêtes complexes, impliquant un nombre important de jointures entre des tables de faits extrêmement larges et des tables de dimension et des opé- rations d’agrégation [34]. Durant cette phase, l’administrateur doit sélectionner un ensemble de structures d’optimisation pour satisfaire ses requêtes (figure 6.2). Une large panoplie de structures d’optimisation a été proposée dans le contexte des entrepôts de données dont une majorité supportée par les systèmes de gestion de bases de données commerciaux et non commerciaux. Nous pouvons ainsi citer les vues maté- rialisées, les index avancés, la réplication, la fragmentation, le traitement parallèle, la compression, etc. Certaines structures sont issues des bases de données traditionnelles comme la fragmentation, la réplication, certains types d’index (par exemple, le B-tree), le regroupement, etc. Ces structures sont divisées en deux catégories que nous appelons les structures redondantes et les structures non redondantes [14]. Les structures redondantes optimisent les requêtes mais entraînent des coûts de stockage et de maintenance. Les vues matérialisées, les index, la fragmentation verticale sont trois principaux exemples de cette caté- gorie. Les structures non redondantes ne nécessitent ni coût de stockage, ni coût de maintenance. Deux exemples de cette catégorie sont la fragmentation horizontale et les traitements parallèles. 1083. Conception physique dirigée par les besoins Conception physique Tables (modélisation logique) Profils des tables Profils des requêtes Techniques d’optimisation sélectionnées Schéma de placement Ressources utilisées 1. Techniques d’optimisation 2. Contraintes liées à la sélection Figure 6.2 – La conception physique. Avant de définir le problème de sélection de structure d’optimisation, nous donnons quelques notations. Une famille de structures d’optimisation, comme les index, les vues matérialisées, le partitionnement, est dénotée par S O¯ = {VM, HF , I}. Une structure d’optimisation est une instance d’une famille donnée. Si par exemple, une classe S O ∈ S O¯ est VM, alors la structure d’optimisation représentera un ensemble de vues à matérialiser. A chaque classe de S O¯ est associé un ensemble de contraintes dénoté par contr(S O). Les contraintes liées aux index et aux vues matérialisées représentent le coût de stockage. Le problème de sélection de ces structures est défini comme suit. Entrées : – Charge de requêtes Q = {Q1, Q2, ·, Qk} ; – Ensemble des structures d’optimisation S O¯ ; – Ensemble des contraintes contr(S O). Sorties : un ensemble de structures optimisant le temps d’exécution de Q et satisfaisant les contraintes contr(S O). Ce problème est connu comme étant NP-difficile pour chaque instance. Une large panoplie d’algorithmes a été proposée pour résoudre cette complexité, en prenant en compte un ensemble de requêtes. Ces dernières sont souvent issues de l’ensemble des besoins identifiés dans la phase de recueil de besoins. Donc, on peut se demander pourquoi attendre la conception physique pour sélectionner des structures d’optimisation, si nous pouvons la faire lors de la phase de conception. 3 Conception physique dirigée par les besoins Les différentes techniques d’optimisation s’effectuent habituellement au niveau physique comme l’indexation ou la fragmentation horizontale qui reposent sur une charge de requêtes fréquentes et un ensemble de contraintes données (espace de stockage, coût de mise à jour, etc). Cette charge de requêtes n’est obtenue qu’après une période d’exploitation de la base de données. Or, il est probable que cette charge de requêtes soit incluse dans l’ensemble des besoins des utilisateurs qui eux sont disponibles dès le début de la conception puisqu’il sont fournis par la phase de collection et d’analyse des besoins. Par exemple, l’ensemble des contraintes (l’espace de stockage, le coût de mise à jour,etc.) est collecté auprès 109Chapitre 6. Exploitation des besoins pour la conception physique des parties prenantes du système sous forme de besoins non fonctionnels. Dans ce travail, nous proposons d’exploiter les besoins des utilisateurs pour effectuer une optimisation dès le niveau logique. Ainsi, nous envisageons de faire remonter ces tâches d’optimisation du niveau physique au niveau logique, et donc d’alléger un peu la lourde responsabilité de l’administrateur en délé- gant cette tâche au concepteur. Nous tentons ici de fournir un lien "humain" entre la conception logique et la conception physique et de réduire ainsi l’écart entre ces deux niveaux de conception. Le problème de sélection de ces structures est défini comme suit. Entrées : – Ensemble des besoins B = {B1, B2, ·, Bk} ; – Ensemble des structures d’optimisation S O¯ ; – Ensemble des contraintes contr(S O). Sorties : un ensemble de structures d’optimisation optimisant le temps d’exécution de Q et satisfaisant les contraintes contr(S O). Nous considérons dans ce chapitre deux cas d’étude : le problème de sélection des index I et celui de la fragmentation horizontale HF . Nous reformulons ces problèmes en prenant comme entrée les besoins des utilisateurs. 3.1 La sélection des index Afin d’offrir des solutions d’indexation adaptées au contexte des ED, de nouveaux index ont été proposés. On peut ainsi citer (a) les index binaires [33] qui optimisent les opérations de sélection définies sur des attributs appartenant à des tables de dimension. Ces index sont largement utilisés dans les bases de données XML [14] et dans la recherche d’information [14]. (b) Les index de jointures en étoile permettant de stocker le résultat d’exécution d’une jointure en étoile entre plusieurs tables. (c) Les index de jointure binaire (IJB) [97] quant à eux permettent d’optimiser à la fois les jointures en étoile et les opérations de sélections définies sur les tables de dimensions. Les index de jointure binaire sont supportés par la plupart des SGBD commerciaux. Nous distinguons deux types d’IJB : les IJB simples (mono-attribut) définis sur un seul attribut d’une table de dimension et les IJB multiples (multi-attributs) définis sur plusieurs attributs issus d’une ou plusieurs tables de dimensions. Pour faciliter l’exploitation et la gestion des IJB multiples volumineux, certains travaux ont proposé l’utilisation de la fragmentation verticale et horizontale [31]. La sélection d’index de jointure en étoile est un problème difficile [24]. Il est défini comme suit. – I = {I1, ..., In} un ensemble d’index candidats (obtenus à partir des prédicats de sélection des requêtes). – Q = {Q1, ..., Qk} un ensemble de requêtes. – S la taille de l’espace de stockage allouée pour les index. L’objectif du problème de sélection des index de jointure binaire est de trouver une configuration d’index réduisant le coût d’exécution des requêtes et satisfaisant la contrainte de stockage 33 . D’après cette formalisation, nous constatons la présence des requêtes et avec la présence des besoins, nous proposons une autre formalisation dirigée par les besoins : 33. Le stockage de l’ensemble des index ne doit pas dépasser la contrainte S 1104. Persistance des besoins – I = {I1, ..., In} un ensemble d’index candidats (obtenus à partir des besoins). – B = {B1, ..., Bm} un ensemble de besoins. – S la taille de l’espace de stockage allouée pour les index. Cette formalisation a le même objectif que la précédente. 3.2 La fragmentation horizontale La fragmentation horizontale (F H) est une technique d’optimisation considérant comme l’une des structures d’optimisation dans le cadre des entrepôts de données relationnels. Elle permet de décomposer une table en plusieurs sous ensembles disjoints appelés fragments horizontaux, chacun contient un sous ensemble de tuples. On distingue deux types de F H : (1) F H primaire définie sur une table de dimension en fonction de ses propres attributs, et (2) F H dérivée définie sur la table des faits en fonction des dimensions fragmentées. La fragmentation dérivée est adaptée au contexte des entrepôts de données relationnels. Le problème de sélection d’un schéma de F H est un problème difficile [16]. Traditionnellement, il est formalisé de la manière suivante. Étant donnés : – un schéma d’un entrepôt de données composé d’un ensemble de tables de dimensions D = {D1, D2, ..Dd} et une table de faits F ; – un ensemble de requêtes Q = {Q1, ..., Qk} ; – un seuil maximal de fragments finaux W de la table des faits. Ce seuil est fixé par l’administrateur. Le problème de la F H consiste alors à sélectionner un schéma de fragmentation optimisant le coût d’exécution des requêtes et satisfaisant le seuil W. D’une manière similaire à ce que nous avons proposé pour les index, une autre formalisation dirigée par les besoins peut être élaborée. Le passage d’une formalisation dirigée par des requêtes à une formalisation dirigée par des besoins nécessite une analyse approfondie des besoins pour extraire les requêtes. Pour ce faire, nous proposons d’abord de persister les besoins dans une base de données pour pouvoir ensuite les exploiter afin d’identifier les requêtes. 4 Persistance des besoins Rappelons que les besoins représente le coeur de toute conception. Pour cela, il est important de les stocker au sein de la base de données de manière à ce que les concepteurs puissent les trouver facilement via des procédures d’intégration. Il est à noter aussi que dans n’importe quel projet lié aux bases/entrepôts de données, aucune trace du modèle des besoins n’est sauvegardée. Etant donné que nos besoins sont sémantiques (liés à une ontologie), nous proposons une solution de stockage au sein d’une base de données à base ontologique conçue au laboratoire LIAS, appelée OntoDB [45] qui est implantée sur le SGBD (Système de Gestion de Base de Données) PostgreSQL 34. Comme illustré dans la Figure 6.3, l’architecture d’OntoDB se compose des parties suivantes : – Partie méta-base : souvent appelée system catalog, elle représente la partie traditionnelle des bases de données classiques qui contient les tables décrivant les tables (méta-base). Dans OntoDB, elle 34. http://www.postgresqlfr.org/ 111Chapitre 6. Exploitation des besoins pour la conception physique contient la description des structures définies dans les trois autres parties ; – Partie données : contient les instances des classes de l’ontologie, et les propriétés associées à ces dernières. Elle est stockée sous forme horizontale (Une table pour chaque classe); – Partie Ontologie : elle contient les concepts (classes, propriétés et relations) de l’ontologie, formalisés conformément au modèle d’ontologie PLIB; – Partie Méta-schéma : elle décrit le modèle d’ontologie utilisé, et donc le méta-schéma des instances ontologiques. Figure 6.3 – Architecture d’OntoDB. L’architecture d’OntoDB permet le support des évolutions du modèle d’ontologies PLIB et l’extension de ce modèle lorsque le besoin se présente. L’interrogation des données au niveau ontologique est assurée par le langage de requête OntoQL [70]. 4.1 Le langage d’exploitation OntoQL OntoDB est dotée du langage de requêtes OntoQL [70] qui permet d’interroger les données ainsi que l’ontologie et son modèle persisté sur OntoDB. Il étend le langage SQL pour pouvoir exploiter la partie ontologique. Il est basé sur un noyau commun aux différents modèles d’ontologie et du fait qu’il n’est pas statique, il peut être donc facilement étendu par des instructions dédiées. Ainsi, OntoQL est indépendant de la représentation de l’ontologie (formalisme) et de la représentation des données (logique). 4.2 Persistance des besoins Nous avons implémenté notre mécanisme de persistance des besoins dans la base de données à base ontologique OntoDB possédant une architecture de type III (figure 6.4). La structure d’OntoDB offre une 1124. Persistance des besoins ED sémantique Méta-modèle ontologie + méta-modèles de besoins Catalogue système Instanciation Instanciation Ontologie de besoins Traduction Modèle logique (MLD) Modèle de besoins ED sémantique Méta-modèle ontologie + méta-modèles de besoins Catalogue système Instanciation Instanciation Ontologie de besoins Traduction Modèle logique (MLD) Modèle de besoins Figure 6.4 – BDBO de type III étendu par les besoins des utilisateurs. grande flexibilité et permet son extension par le méta-modèle des besoins. Cette extension se fait selon un schéma horizontal où chaque classe du méta-modèle des besoins est représentée par une table Entity dans le métaschéma d’OntoDB. Cette extension se fait en utilisant le langage ontologique OntoQL, plus précisément via le Langage de Définition des Ontologies (LDO) [69] à travers la syntaxe suivante : CREATE E n t i t y # [ nom de l ’ e n t i t é ] ( [ nom d ’ a t t r i b u t , Type d ’ a t t r i b u t ( P r o p e r t y ) ] ) Le script suivant contient les requêtes OntoQL permettant la création du méta-modèle des besoins dans le méta-schéma : CREATE E n t i t y # Ge ne ricMet am o d el ( # Domain S t r i n g , #Name S t r i n g , # Date Date , # c o l l e c t s REF( # R e q ui r em e nt s ) ) CREATE E n t i t y # R e s u l t ( # i t s _ p r o p e r t i e s REF ( # P r o p e r t y ) A r r a y ) CREATE E n t i t y # A cti o n ( # i t s _ p r o p e r t i e s REF ( # P r o p e r t y ) A r r a y ) CREATE E n t i t y # C r i t e r i o n ( # i t s _ p r o p e r t i e s REF ( # P r o p e r t y ) A r r a y ) CREATE E n t i t y # R e q ui r em e nt ( # IdReq I nt , #NameReq S t r i n g , # D e s c r i p t i o n R e q S t r i n g , # C o nt e xtR e q S t r i n g , # P r i o r i t y R e q I nt , # d e f i n e d _ f o r REF( # R e s u l t ) , #ComposedOf REF( # A cti o n ) , #MesuredBy REF( # C r i t e r i o n ) , # I s R e s p o n s i b l e REF( # A ct o r ) ) CREATE E n t i t y # O p e r a t i o n UNDER # C r i t e r i o n CREATE E n t i t y # F u n cti o n UNDER # C r i t e r i o n CREATE E n t i t y # Goal UNDER # R e q ui r em e nt CREATE E n t i t y # UseCase UNDER # R e q ui r em e nt CREATE E n t i t y # T r e atm e nt UNDER # R e q ui r em e nt CREATE E n t i t y # F u n c t i o n a l _ R e q u i r e m e n t UNDER # R e q ui r em e nt CREATE E n t i t y # N o n F u n cti o n al _R e q ui r em e nt UNDER # R e q ui r em e nt 113Chapitre 6. Exploitation des besoins pour la conception physique 4.3 Génération des requêtes SQL Notre proposition consiste à identifier une charge de requêtes en s’appuyant sur les besoins exprimés avec notre modèle générique (voir section 2 du chapitre 5). Pour ce faire, nous devons parcourir les besoins et les transformer en requêtes SQL. Après analyse, il s’avère qu’il existe deux types de besoins : – Besoin « mesurable » (type requête) : C’est un besoin qui peut être mesurable, car il possède un résultat (souvent quantifiable), et éventuellement un critère, par exemple, le besoin qui « mesure le nombre des étudiants de sexe féminin », représente un besoin dont le résultat est le nombre des étudiants et le critère est le sexe féminin. Il est souvent lié aux besoins fonctionnels. – Besoin « non mesurable » (type programme) : C’est un besoin qui ne possède pas de résultat (pouvant être exprimé en fonction des concepts ontologiques) tel que nous l’avons défini dans notre modèle, Par exemple, le besoin qui s’inscrit dans la maintenance web du domaine universitaire «l’enseignant a besoin d’une interface contenant tel ou tel champs pour évaluer l’étudiant », ne possède pas de résultat, il décrit plutôt un programme informatique. Au niveau d’instances physiques, les besoins mesurables sont ceux qui possèdent une liaison avec la classe «Result » et éventuellement avec la classe «Criterion », contrairement aux besoins non mesurables qui se contentent d’avoir une description. En effet, seuls les besoins type requêtes peuvent être transformés en requêtes (d’où leurs noms d’ailleurs), en opérant une transformation de type Model To Text définie dans l’ingénierie dirigée par les modèles (IDM). Cette étape est réalisée à l’aide du langage de transformation Acceleo 35 disponible sous l’environnement Eclipse, pour la définition des règles de transformation appliquées sur chaque besoin ontologique comme décrit ci-après : SELECT [ R e s u l t . Measu re ] ( P r o p e r t y ) [ R e s u l t . De fi ne dB y ] FROM ( C l a s s ) [ R e s u l t . De fi ne dB y ] WHERE C r i t e r i o n . De fi ne dB y C r i t e r i o n . Opr C r i t e r i o n . L i t e r a l Prenons l’exemple du besoin suivant extrait des besoins décisionnels de la spécification de SSB : Ce besoin mesure l’augmentation des revenus des commandes engendrée par l’éliminiation de certaines réductions de commandes selon des quantités données dans une année donnée. Sachant que l’augmentation des revenus est égale au produit [Prix-étendu*remise 36]. Tout d’abord, ce besoin est modélisé suivant notre modèle générique des besoins comme suit : (figure 6.5) Notons qu’ici le Result est défini non pas par un seul concept comme c’est le cas pour les quatre critères, mais plutôt par une expression de concepts. Cette expression est composée de l’opérande gauche qui est la propriété lo_extendedPrice, l’opérande droit lo_discount et l’opérateur arithmétique *. Une fois ce besoin est persisté, nous pourrions le transformer en requêtes (si besoin est), en appliquant la règle de transformation d’Acceleo comme suit : – Action définit le type de la requête, si sa valeur est égale à Display, il s’agit d’une requête SELECT, sinon (Delete, Modify, Create) la clause SELECT est remplacée par la clause appropriée (DELETE, UPDATE, CREATE) avec les modifications nécessaires. 35. http://www.acceleo.org/pages/accueil/fr 36. Le prix étendu est représenté ontologiquement par la propriété lo_extendedPrice de la commande, représentée à son tour par la classe Lineorder. Quant à la remise, elle est représentée par la propriété lo_discount de Lineorder 1144. Persistance des besoins #Result Measure = Sum #Criterion 1 Opr : = Literal : 1993 #Criterion 2 Opr : < Literal : 3 #Criterion 3 Opr : < Literal : 1 #Criterion 4 Opr : < Literal : 25 #Expression Op : * LOp ROp DefinedBy #d-year DefinedBy DefinedBy DefinedBy DefinedBy #lo-discount #lo-quantity #lo-discount #Requirement 0001 #lo-discount #lo-extenderprice IdReq = 0001 DescriptionReq = ce besoins mesure l’… Context = Business context Priority = Mandatory TypeReq = Fuctional requirements … #Action Description : Display #Result Measure = Sum #Criterion 1 Opr : = Literal : 1993 #Criterion 2 Opr : < Literal : 3 #Criterion 3 Opr : < Literal : 1 #Criterion 4 Opr : < Literal : 25 #Expression Op : * LOp ROp DefinedBy #d-year DefinedBy DefinedBy DefinedBy DefinedBy #lo-discount #lo-quantity #lo-discount #Requirement 0001 #lo-discount #lo-extenderprice IdReq = 0001 DescriptionReq = ce besoins mesure l’… Context = Business context Priority = Mandatory TypeReq = Fuctional requirements … #Action Description : Display Figure 6.5 – Un besoin SSB modélisé suivant notre modèle générique des besoins. – La clause SELECT de la requête porte sur la valeur de l’attribut « measure » (SUM, AVG, etc. s’il existe) de la classe «Result », et les propriétés constituant l’expression liée à cette dernière. – La clause FROM, quant à elle, porte sur les classes constituant l’expression liée à la classe «Result ». – Enfin, pour la clause WHERE, elle est définie par la classe «Criterion », qui se compose dans l’ordre, d’une opérande gauche (Concept), d’un opérateur de comparaison, et d’une opérande droite (Litérale). Ainsi, notre besoin est transformé en la requête suivante : SELECT {somme ( l o _ e x t e n d e d p r i c e * l o _ d i s c o u n t ) } FROM { l i n e o r d e r , d a t e } WHERE { d _ y e a r = 1 9 9 3 , l o _ d i s c o u n t <3 , l o _ d i s c o u n t >1 , l o _ q u a n t i t y <25} 115Chapitre 6. Exploitation des besoins pour la conception physique 5 Expérimentation et évaluation de notre proposition Afin d’illustrer notre démarche, nous présentons une étude de cas basée sur le domaine des transactions commerciales. 5.1 Structures d’optimisation comme des services Pour évaluer nos propositions concernant la conception physique, nous avons développé une approche orientée service pour lier nos travaux à ceux des doctorants travaillant sur la conception physique au laboratoire. Plus précisément nous avons demandé à Amira Kerkad et Rima Bouchakri qui s’inté- ressent respectivement à la fragmentation horizontale et les index de jointure binaire de nous fournir un service qui reçoit en paramètre les entrées de chaque problème : le schéma de l’entrepôt de données, l’ensemble des besoins et les contraintes et qui retourne les résultats. Nous avons ensuite alimenté ce service avec les requêtes identifiées à partir des besoins. Par cette démarche, notre but est d’évaluer si l’approche de sélection des structures d’optimisation à partir des besoins permet d’obtenir des résultats proches de ceux obtenus par l’approche basée sur les requêtes. Pour le schéma nous avons utilisé les données du banc d’essai Star Schema Benchmark 37 (SSB), qui est basé sur le schéma de données du benchmark TPC-H. La figure 6.6 présente une partie de l’ontologie SSB sous la forme d’un diagramme de classes. Il comporte différentes classes relatives au domaine des transactions commerciales. La classe centrale est : Order, liée aux classes Customer, Supplier, Partproduct et Time. D’autres classes décrivent la localisation du client comme City, Nation et Region. Les classes Category et Brand décrivent le type et la marque du produit. Dans ce chapitre, nous considé- rons le schéma de données SSB comme l’ontologie globale couvrant la sémantique du domaine. Nous considérons également les besoins décisionnels (business questions) définis au niveau de la spécification du benchmark SSB comme les besoins exprimés par les concepteurs du système. Dans les sections suivantes, nous présentons les résultats des deux sélections dirigées par les besoins concernant les index de jointure binaire et la fragmentation horizontale. 5.2 La sélection des index Les expérimentations sont effectuées sur le schéma logique du benchmark SSB. L’ensemble des besoins décisionnels (13 besoins) spécifiés dans la spécification du banc d’essai SSB sont exploités (voir annexe 2.5). Les expérimentations ont donné les résultats résumés dans le tableau 6.1. Ce tableau présente les index générés et le taux d’optimisation du coût d’exécution de chaque besoin. Ces résultats sont confrontés aux index et aux coût d’optimisation obtenus à partir de la charge des requêtes finales (fournies au niveau de la spécification du banc d’essai SSB). Ces résultats confirment que les index proposés par les besoins couvrent les index proposés par les requêtes du banc d’essai. Les coûts d’optimisation sont également similaires. Ceci s’explique par le fait que les requêtes issues des besoins sont similaires aux requêtes du banc d’essai (sans les clauses group by et order by que nous n’avons pas pu générer). 37. http://www.cs.umb.edu/ poneil/StarSchemaB.PDF 1165. Expérimentation et évaluation de notre proposition Figure 6.6 – Ontologie du benschmark SSB. 5.3 La fragmentation horizontale Le service de la fragmentation horizontale utilise l’algorithme basé sur un recuit simulé [15]. Nous avons comparé les résultats de la fragmentation effectuée en utilisant 12 requêtes de la vraie charge de requêtes du banc d’essai SSB et les requêtes que nous avons obtenues à partir des besoins. La figure 6.7 illustre les résultats des expérimentations effectuées. Nous remarquons que les besoins apportent un gain en performance supérieur de 15% comparé aux requêtes. Cette amélioration s’explique par l’absence des Group By. Ces résultats sont encourageants dans le sens où nous montrons que les besoins permettent de fournir une optimisation par la F H pratiquement équivalente à une fragmentation effectuée lors de la phase physique. La tableau 6.2 illustre les gain en performance par requête. Ces deux études ont montré la faisabilité de la sélection des structures d’optimisation en se basant sur les besoins. Ce qui nous incite à penser un autre modèle économique de conception de bases de données (figure 6.8). Certaines tâches que les concepteurs peuvent faire leur seront alors attribués ce qui soulage le travail des administrateurs. Rappelons que plusieurs outils d’administration ont été proposés par les éditeurs commerciaux comme : Oracle SQL Tuning Advisor [42], DB2 Design Advisor [132] et Microsoft Database Tuning Advisor [9]. Par exemple Oracle SQL Tuning Advisor est un outil 117Chapitre 6. Exploitation des besoins pour la conception physique Stockage (GO) Besoins Requêtes Index Coût (%) Index Coût (%) 1 d_year 46.7 d_year 46.7 1.5 d_year, s_region 72.7 d_year, s_region 72.7 2 d_year, s_region, p_category 75.1 d_year, s_region, p_category 75.1 2.5 d_year, d_yearmonth, s_region 87.9 d_year, d_yearmonth, s_region 87.9 3 d_year, d_yearmonth, s_région 87.9 d_year, d_yearmonth, s_région 87.9 3.5 d_year, d_yearmonth, s_region, p_category 90.2 d_year, d_yearmonth, s_region, p_category 90.2 4 d_year, d_yearmonth, c_region, s_region, p_category 91.7 d_year, d_yearmonth, c_region, s_region, p_category 91.7 4.5 d_year, d_yearmonth, c_region, s_region, p_mfgr, p_category 92 d_year, d_yearmonth, c_region, s_region, p_mfgr, p_category 91.9 5 d_year, d_yearmonth, c_region, s_region, s_nation, p_category 92.7 d_year, d_yearmonth, c_region, s_region, s_nation, p_category 92.6 Table 6.1 – Index générés et taux d’optimisation du coût d’exécution des besoins par rapport aux requêtes Besoins Requêtes N° Gain (%) N° Gain (%) Q1 75 Q1 75 Q2 50 Q2 87,5 Q3 87,5 Q3 75 Q4 88 Q4 50 Q5 66 Q5 50 Q6 66 Q6 50 Q7 66 Q7 75 Q8 0 Q8 50 Q9 50 Q9 50 Q10 50 Q10 50 Q11 68 Q11 75 Q12 50 Q12 50 Table 6.2 – Index générés et taux d’optimisation du coût d’exécution des besoins par rapport aux requêtes 1186. Conclusion 28,458 10,620375 24,489 9,855401 0 5 10 15 20 25 30 Schéma initial Fragmentation horizontale Millions (I/O) Requêtes Besoins Figure 6.7 – Fragmentation horizontale à partir des besoins. permettant de générer des conseils pour optimiser une charge de requêtes afin d’améliorer leurs performances. Les conseils se présentent sous forme de recommandations, chacune avec le bénéfice qu’elle apporte. L’administrateur a le choix soit d’accepter les conseils soit de les compléter. Les recommandations concernent trois structures d’optimisation : les vues matérialisées, les index définis sur une seule table et la fragmentation horizontale primaire. Ces recommandations sont établies en utilisant les modèles de coût basés sur des statistiques sur la base de données. Cet outil utilise souvent une sélection isolée. DB2 Design Advisor est une amélioration de l’outil DB2 Index Advisor tool défini initialement pour automatiser la sélection des index. DB2 Design advisor permet de générer des recommandations sur quatre structures d’optimisation : les vues matérialisées, les index, la fragmentation horizontale primaire et le groupement. La fragmentation horizontale est limitée au mode de Hachage dans une architecture parallèle où plusieurs processeurs sont interconnectés à travers un réseau. L’outil Microsoft Database Tuning Advisor, par exemple fait partie intégrante de SQL Server 2005. Les recommandations géné- rées par cet outil concernent quatre techniques d’optimisation : la fragmentation horizontale primaire, la fragmentation verticale, les index et les vues matérialisées. Contrairement à l’outil d’Oracle, Database Tuning Advisor utilise l’optimiseur de requêtes pour évaluer la qualité des techniques sélectionnées et les différentes alternatives. Pour réduire le coût des appels à l’optimiseur, l’outil utilise des serveurs de tests pour estimer la qualité des différentes structures. D’autres outils académiques ont été également proposés, on peut citer l’exemple de l’outil PARINDA [89], développé à l’Ecole Polytechnique Fédérale de Lausanne. Pour conclure, notre travail soulève la question suivante : déléguer les tâches d’administration aux concepteurs remplacera t-il les advisors? 6 Conclusion Dans ce chapitre, nous avons montré la contribution de notre approche de gestion des besoins sur la phase physique des bases de données volumineuses comme les entrepôts de données. Au lieu de sé- lectionner les structures d’optimisation lors de la phase physique, nous avons proposé une méthodologie permettant de les sélectionner lors de la conception de la base de données. Cette démarche pourrait ré- 119Chapitre 6. Exploitation des besoins pour la conception physique Niveau ontologique Outils D’administration Concepteurs DBA Requêtes, rapports, statistiques … SELECT FROM WHERE Niveau conceptuel Requêtes utilisateurs Besoins Sources Niveau logique Niveau physique Niveau ontologique Outils D’administration Concepteurs DBA Requêtes, rapports, statistiques … SELECT FROM WHERE Niveau conceptuel Requêtes utilisateurs Besoins Sources Niveau logique Niveau physique Figure 6.8 – Nouvelle vision de conception des bases de données. duire considérablement les tâches de l’administrateur. Nous avons montré l’intérêt de notre approche sur deux structures d’optimisation, les index de jointure binaire et la fragmentation horizontale. Une validation sur le système de gestion de bases de données ontologique OntoQL est proposée en utilisant les données du banc d’essai SSB. Dans le chapitre suivant, nous proposons un prototype d’outil implémentant nos contributions. 120Chapitre 7 Prototype de validation Sommaire 1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 1.1 Langages et outils utilisés . . . . . . . . . . . . . . . . . . . . . . . . . . 123 2 Architecture fonctionnelle de OntoReqTool . . . . . . . . . . . . . . . . . . . 123 2.1 Les modules de la partie intégration . . . . . . . . . . . . . . . . . . . . 123 2.2 Les modules de la phase d’exploitation . . . . . . . . . . . . . . . . . . . 127 3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 Résumé. Dans ce chapitre, nous présentons un outil, appelé OntoReqTool assistant les concepteurs dans leur tâches d’intégration et d’exploitation des besoins. Il offre aux concepteurs la possibilité de visualiser l’ontologie de domaine partagée, l’extraction de leurs ontologies locales, l’expression des besoins selon leurs ontologies locales, la transformation de chaque langage de besoins vers le modèle pivot, et le raisonnement. Pour la partie exploitation, l’outil offre aux concepteurs la possibilité de persister les besoins et de les utiliser pour la conception physique. 1211. Introduction 1 Introduction Pour que les concepteurs d’une entreprise étendue s’approprient les concepts et les méthodes proposées, le développement d’un outil est une tâche primordial. L’une des caractéristiques de cet outil est sa simplicité. L’outil développé couvre les deux principales phases de nos contributions : l’intégration des besoins hétérogènes et leur exploitation. Pour la première contribution, l’outil doit d’abord offrir aux concepteurs la possibilité de charger une ontologie dans l’espace des ontologies et de la visualiser. L’af- fichage doit être ergonomique offrant diverses fonctionnalités de navigation comme l’accès à n’importe quelle hiérarchie de l’ontologie. Une fois chargée, un concepteur peut facilement identifier une partie de l’ontologie qui correspond à sa tâche et qui représentera son ontologie locale. Ensuite, il exprime ses besoins selon son langage favori. Une fois les besoins exprimés, l’ensemble des langages sont transformés sur le modèle pivot. Toutes les transformations sont visibles aux concepteurs. Le processus de raisonnement quant à lui, permet de montrer aux concepteurs l’ensemble des besoins conflictuels. Pour la partie exploitation, l’outil offre aux concepteurs la possibilité de visualiser l’ensemble des besoins valides, les persister, les transformer en requêtes et lancer le type d’optimisation (les index de jointure binaire ou la fragmentation horizontale) qu’il souhaite considérer durant sa conception physique. Dans les sections suivantes, nous commençons par détailler les langages et outils utilisés pour réaliser notre outil, baptisé OntoReqTool. Nous décrivons ensuite son architecture fonctionnelle et l’ensemble de ses modules et ses composants. 1.1 Langages et outils utilisés Nous avons travaillé avec l’éditeur d’ontologie Protégé 3.4.4 38 pour gérer des ontologies, quant à la partie raisonnement, nous avons utilisé le moteur JESS disponible sous l’éditeur d’ontologié Protégé. Pour la partie transformation Model-to-Model, nous avons utilisé l’outil Ecore et ATL 39(ATLAS Transformation Language) de l’environnement Eclipse. Eclipse est un environnement de développement intégré qui permet d’incorporer des plugins pour utiliser les techniques d’IDM. Pour persister les besoins, nous avons utilisé le système de gestion de bases de données OntoDB comme nous l’avons déjà évoqué dans le chapitre précédent. 2 Architecture fonctionnelle de OntoReqTool L’architecture générale de notre outil est composée de huit modules dont cinq concernant la partie intégration et trois la partie exploitation (Figure 7.1). 2.1 Les modules de la partie intégration les modules concernant la partie d’intégration des besoins se déclinent en cinq parties : (a) le chargement et la visualisation de l’ontologie, (b) le couplage de l’ontologie globale aux besoins, (c) l’extraction 38. http://protege.stanford.edu/download/registered.html 39. http://www.eclipse.org/atl/ 123Chapitre 7. Prototype de validation Projection des Besoins sur l’OG Module 2 Extraction des OLs des besoins Module 3 Transformation des besoins en modèle générique Module 4 Raisonnement sur les besoins Module 5 Persistance des besoins dans l’ED Module 6 Génération des requêtes SQL Module 7 Optimisation de l’ED Module 8 Étape I : Intégration des besoins Étape II : Exploitation des besoins Chargement et visualisation de l’OG Module 1 Fichier .owl Protégé Protégé ProSé plugin Protégé ATL plugin Eclipse Jess plugin Protégé OntoQL Acceleo plugin Eclipse OntoDB PostgreSQL ED sémantique Projection des Besoins sur l’OG Module 2 Extraction des OLs des besoins Module 3 Transformation des besoins en modèle générique Module 4 Raisonnement sur les besoins Module 5 Persistance des besoins dans l’ED Module 6 Génération des requêtes SQL Module 7 Optimisation de l’ED Module 8 Étape I : Intégration des besoins Étape II : Exploitation des besoins Chargement et visualisation de l’OG Module 1 Fichier .owl Protégé Protégé ProSé plugin Protégé ATL plugin Eclipse Jess plugin Protégé OntoQL Acceleo plugin Eclipse OntoDB PostgreSQL ED sémantique Figure 7.1 – Architecture fonctionnelle de l’outil (OntoReqTool). de l’ontologie locale, (d) la transformation des modèles de besoins vers le langage pivot, et (e) la partie raisonnement. 1. Chargement et visualisation de l’OG : Ce module permet de charger et de visualiser l’ontologie globale sous forme d’une arborescence. Grâce à l’utilisation de l’éditeur d’ontologie Protégé 3.4.4 qui possède une interface utilisateur graphique (GUI). Cette dernière permet de manipuler aisé- ment tous les éléments de l’ontologie : classe, méta-classe, propriété, instance, etc. La figure 7.3 illustre un exemple d’affichage de l’ontologie globale LUBM[62] décrivant le domaine universitaire. L’affichage de visualise les classes "Person", "Student", etc.), les propriétés ("name", "age", etc.) et les instances ontologiques. 2. Projection des besoins sur l’ontologie globale : ce module consiste essentiellement à étendre l’ontologie globale par des méta-classes constituant le méta-modèle générique des besoins. Le concepteur peut alors définir ses besoins à partir de l’ensemble des concepts et propriétés de l’ontologie. L’éditeur d’ontologies Protégé 3.4.4 permet de manipuler les méta-classes de l’ontologie locale afin d’ajouter d’autres méta-classes. La figure 7.3 présente l’ontologie des besoins (OntoReq) qui est définie par l’ajout des méta-classes constituant le méta-modèle générique. Pour chaque besoin, le concepteur sélectionne les cordonnées d’un besoin (action, résultat et critère) en choisissant les concepts et propriétés pertinents de l’ontologie globale. 1242. Architecture fonctionnelle de OntoReqTool OntoReqTool Figure 7.2 – Diagramme de cas d’utilisation de notre outil. 3. Extraction des ontologies locales (OL) : ce module consiste à extraire les ontologies locales à partir de l’ontologie globale. Chaque ontologie locale peut être vu comme un fragment (partiel ou total) de l’ontologie globale. Elle représente les concepts nécessaires utilisés pour spécifier les besoins au niveau ontologique. Son extraction s’effectue en utilisant le plugin de modularité ProSé disponible sous l’éditeur d’ontologies Protégé 3.4.4. Ce plugin permet aux concepteurs d’ajouter ou de supprimer des classes et des propriétés au cas où les OL définies ne couvrent pas tous leurs besoins, tout en assurant la cohérence et la complétude des ontologies définies. Dans notre étude de cas, nous avons généré trois ontologies locales correspondant aux trois langages de besoins utilisés (langage orienté buts, use case d’UML, et le modèle de traitements de Merise). La figure 7.4 présente un exemple d’une ontologie locale des buts (OntoGoal). 4. Transformation des besoins en modèle générique : l’objectif de ce module est d’assurer une transformation des instances ontologiques qui sont définies localement dans les ontologies locales des besoins (OntoGoal, OntoUcase et OntoMct) en un langage générique (Ontologie Pivot nommé (OntoPivot)). Cette transformation est réalisée par des règles décrivant les correspondances entre les entités des langages sources et celles de chaque langage cible. Plus concrètement, la transformation se situe entre les méta-modèles sources "OntoGoal-Metamodel", "OntoUcase-Metamodel" et "OntoMCT-Metamodel" et le méta-modèle cible "OntoReq-Metamodel" (Figure7.5). L’ensemble de règles de transformation sont décrits dans l’annexe 2.5. 125Chapitre 7. Prototype de validation (Besoins : Instances ontologique) (Méta-classes : besoins) (Classes du LUBM) Figure 7.3 – Projection des besoins sur l’OG (OntoReq). 5. Le raisonnement sur les besoins : ce module consiste essentiellement à raisonner sur l’ontologie de besoins afin d’identifier ceux qui sont contradictoires et ambigüs. Le mécanisme de raisonnement utilisé par notre méthode est implémenté en exploitant les règles de raisonnement décrivant les relations sémantiques entre les besoins. Ces règles sont définies en utilisant le langage SWRL 40 combinées au moteur d’inférence JESS comme illustré dans la figure 7.6. 40. http://flashinformatique.epfl.ch/spip.php?article1212 1262. Architecture fonctionnelle de OntoReqTool OntoMCT OntoUcase OntoGoal Ontologie de besoins (OntoReq) Figure 7.4 – Ontologie locale des buts (OntoGoal). 2.2 Les modules de la phase d’exploitation Deux modules caractérisent la phase d’exploitation : la persistance des besoins et la sélection des structures d’optimisation. 1. Persistance des besoins dans un entrepôt de données sémantique : dans ce module l’ensemble des besoins sont stockés dans une base de données sémantique développée au laboratoire. Cette base est dotée d’un langage de requêtes sémantique OntoQl [69]. Afin de permettre au concepteur de persister ses besoins, nous lui offrons une interface graphique (pour l’instanciation du méta-modèle en fonction des concepts ontologiques) (figure 7.8). Prenons un besoin simple afin de montrer la manipulation des besoins via notre prototype qui utilise OntoQL comme langage de requêtes. Cette manipulation doit assurer la création, la modifi- 127Chapitre 7. Prototype de validation Figure 7.5 – Transformation des besoins en modèle générique. cation, l’interrogation et la transformation en requête des besoins. Besoin : Le système doit permettre à l’administration de supprimer les étudiants du département "médecine" ayant une moyenne inférieure à 10. – Modélisation (instanciation) du besoin via l’interface du prototype : suivant la description du modèle des besoins détaillée dans le chapitre 5, notre besoin sera modélisé comme suit. – Result : suppression des étudiants. – Action : le résultat peut souvent être raffiné en plusieurs actions. Dans notre exemple, Il pourrait s’agir tout d’abord d’une suppression de ces entités étudiant, puis d’une suppression des entités ayant une relation avec ces dernières. OntoQL réalise ce processus implicitement via une seule requête (action). – Criterion : Le résultat peut également être contrôlé par une ou plusieurs métriques. Ici, deux critères sont mises en évidence : – Criterion 1 : les étudiants doivent appartenir au département de Médecine. – Criterion 2 : les étudiants doivent avoir une moyenne inférieure à 10. Autrement dit, on ne peut exécuter les actions (suppression) sur les entités étudiants, que s’ils remplissent ces deux critères. – Création des besoins : une fois les champs correspondants sont bien remplis, des requêtes OntoQL sont générées automatiquement afin de persister (créer) les besoins introduits par l’utilisateur dans la base de données (figure7.8). Pour cet exemple, les requêtes générées sont : 1282. Architecture fonctionnelle de OntoReqTool Besoins (Instance) Besoins conflictuels Règles de raisonnement Editeur des règles de raisonnement Jess Besoins (Instance) Besoins conflictuels Règles de raisonnement Editeur des règles de raisonnement Jess Figure 7.6 – Raisonnement sur les besoins. INSERT i n t o # R e s u l t ( # name , #On , # D e s c r i p t i o n ) VALUES ( ’ D el et e ’ , ( SELECT p . # oi d ) FROM # C l a s s p WHERE p . # name = ’ St u d e nt ’ ) , DELETE t h e s t u d e n t s o f m e di c al d e p a rt em e nt , owning an a v e r a g e l e s s e r t h a n 1 0 ’ ) INSERT i n t o # C r i t e r i o n ( # name , # r e l a t i o n , # s o u r c e , # t a r g e t ) VALUES ( ’ C r i t e r i o n 1 ’ , ’ e q u a l t o ’ , ( SELECT p . # oi d FROM # P r o p e r t y p WHERE p . # name = ’ name ’ AND p . # s c o p e . # name = ’ D e p a rt em e nt ’ ) , ’ Medecine ’ ) INSERT i n t o # C r i t e r i o n ( # name , # r e l a t i o n , # s o u r c e , # t a r g e t ) VALUES ( ’ C r i t e r i o n 2 ’ , ’ l e s s e r t h a n ’ , ( SELECT p . # oi d FROM # P r o p e r t y p WHERE p . # name = ’ a v e r a g e ’ AND p . # s c o p e . # name = ’ St u d e nt ’ ) , ’ 1 0 ’ ) UPDATE # C r i t e r i o n SET #andC = ( SELECT max ( c . # oi d ) ) FROM # C r i t e r i o n c ) WHERE # oi d = ( SELECT max ( c r . # oi d ) FROM # C r i t e r i o n c r WHERE c r . # name = ’ C r i t e r i o n 1 ’ ) INSERT i n t o # Goal ( # name , # d e s c r i p t i o n , # h a s R e s ult , # h a s C r i t e r i o n ) VALUES ( ’ Goal_0001 ’ , e t c ) INSERT i n t o # R e q ui r em e nt ( # IdReq , #NameReq , # D e s c ri pti o nR e q , # C o nte xtRe q , # P r i o r i t y R e q , # De finedBy , # Ac hie ve s , #ComposeOf , #MesuredBy , # I s R e s p o n s i b l e ) VALUES ( ’ 0 0 1 ’ , ’ Req_00000001 ’ , ’ The s y st em s h a l l all o w t h e a d m i n i s t r a t i o n t o d e l e t e t h e s t u d e n t s b e l o n g i n t o t h e m e di c al d e p a rt e m e nt and h a vi n g an a v e r a g e l e s s e r t h a n 1 0 ’ , ’ S c o l a r i t y ’ , 1 , St u d e nt , ( SELECT max ( r . # oi d ) FROM # R e s i l t r WHERE r . # name = ’ R e s ult 1 ’ ) , n u l l , ( SELECT max ( c . # oi d FROM # C r i t e r i o n c WHERE c . # name = ’ C r i t e r i o 1 ’ ) , Dean o f S t u d i e s ) Une fois les besoins persistés, nous avons la possibilité de les modifier, de les interroger ou de 129Chapitre 7. Prototype de validation Figure 7.7 – Interface graphique de la phase d’exploitation de l’ED. Figure 7.8 – Persistance des besoins dans l’ED. 1302. Architecture fonctionnelle de OntoReqTool les transformer principalement en requêtes SQL. – Modification des besoins : notre interface ne permet pas de modifier le besoin en tant que tel vu les différents paramètres pouvant être modifiés. Cependant le besoin peut être supprimé et réintroduit, ou modifié par la console via OntoQL. A ce propos, les requêtes suivantes montrent une modification du besoin initial, qui consiste à lui ajouter un critère (L’âge des étudiants concernés doit être supérieur à 40 ans) : INSERT i n t o # C r i t e r i o n ( # name , # r e l a t i o n , # s o u r c e , # t a r g e t ) VALUES ( ’ C r i t e r i o n 3 ’ , ’ g r e a t e r t h a n ’ , ( SELECT p . # oi d FROM # P r o p e r t y p WHERE p . # name = ’ age ’ AND p . # s c o p e . # name = ’ St u d e nt ’ ) , ’ 4 0 ’ ) UPDATE # C r i t e r i o n SET #andC = ( SELECT max ( c . # oi d ) ) FROM # C r i t e r i o n c ) WHERE # oi d = ( SELECT max ( c r . # oi d ) FROM # C r i t e r i o n c r WHERE c r . # name = ’ C r i t e r i o n 2 ’ ) – Interrogation des besoins : si l’utilisateur de notre prototype désire afficher les besoins persistés jusque là, soit par curiosité ou dans le but d’en modifier/supprimer certains. Les requêtes générées suivent le processus suivant : (a) Nous parcourons d’abord les besoins, via la requête OntoQL SELECT # oi d , #name FROM # R e q ui r em e nt (b) Pour chaque besoin (résultat retourné par la requête précédente), nous extrayons ses résultats comme suit : SELECT r . # A c hi e v e s FROM # R e q ui r em e nt WHERE r . # oi d = + r s u l t S e t . g e t I n t ( 1 ) ) ; (c) Pour chaque Result (résultat retourné par la requête précédente), nous extrayons les propriétés/concepts ontologiques sur lesquels il porte : SELECT r . # On FROM # R e s u l t r WHERE r . # oi d = "+ r s u l t S e t 2 . g e t I n t ( 1 ) ) ; De la même manière, nous traitons les critères (respectivement les actions) s’il en existe, sauf que nous prenons le chemin de Criteria (respectivement de Action et cela autant de fois qu’il y a de critères (respectivement d’actions composant le résultat). 2. Génération des requêtes SQL : les besoins des utilisateurs, seront traduits en requêtes ontologiques, i.e. manipulant des classes d’ontologie. Cette transformation est déjà détaillée dans la section du chapitre 6. Pour cet exemple, la transformation aboutit à la requête suivante : (figure7.9). DELETE{} FROM {STUDENT} WHERE { a v e r a g e < 10 AND nameDep = ’ Medecine ’ } 3. La sélection des structures d’optimisation : dans ce module, l’ensemble des requêtes générées sont prises en compte par les algorithmes de sélection des structures d’optimisation. Dans cette étude, nous avons considéré le problème de la sélection des index de jointure binaire et la fragmentation horizontale (figure 7.8). Ce module peut exécuter tout type de services permettant la sélection des structures d’optimisation. 131Chapitre 7. Prototype de validation Figure 7.9 – Requêtes SQL générées. 3 Conclusion Dans ce chapitre, nous avons présenté un outil, appelé, OntoReqTool, permettant d’assister les concepteurs dans leur tâche d’intégration et d’exploitation des besoins. Il offre des interfaces conviviales et simples pour permettre aux concepteurs de naviguer et de visualiser l’ensemble des tâches effectuées. Une autre caractéristique de l’outil est sa capacité à se connecter aux services de conception physique dans le but de sélectionner des structures d’optimisation à partir des besoins. Dans le chapitre suivant, nous établissons un bilan des contributions apportées et nous traçons diffé- rentes perspectives de recherche qui pourraient être menées ultérieurement, tant du point de vue théorique que pratique. 132Chapitre 8 Conclusion générale Sommaire 1 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 2 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 1331. Conclusion 1 Conclusion Dans cette thèse, nous avons étudié le problème de l’intégration et de l’exploitation des besoins dans le cadre des entreprises étendues. Dans cette section nous résumons les principaux apports de nos travaux. Nous avons d’abord positionné le rôle des besoins et leurs intérêts dans la conception d’applications avancées. Les besoins se trouvent au cœur des systèmes d’intégration, qui regroupaient initialement les données, les applications et les plateformes. Nous avons également identifié l’importance de les intégrer dans le cadre d’une entreprise étendue qui peut regrouper un grand nombre de participants pour élaborer un projet donné. Cette intégration pose énormément de problèmes d’hétérogénéité : hétérogénéité sémantique et syntaxique, diversité des langages de modélisation des besoins, identification des besoins conflictuels, etc. Après avoir fait le parallèle et surtout exploité les travaux d’intégration de sources de données, nous avons proposé une démarche d’intégration des besoins dirigée par des ontologies conceptuelles qui offrent un vocabulaire unifié à l’ensemble des concepteurs. Pour répondre au problème d’hé- térogénéité des langages de modélisation des besoins, une solution d’intégration basée sur un modèle pivot est proposée. Nous avons également montré l’intérêt des besoins pour le cycle de vie de conception des bases et des entrepôts de données, plus particulièrement lors de la phase physique. Ces contributions ont été motivées et expérimentées par l’utilisation des données issues de bancs d’essai utilisées par la communauté d’entreposage de données. 1.1 Bilan des contributions Vu la dimension multidisciplinaire de notre problème, nous avons été amené à faire deux états de l’art conséquents, le premier sur l’ingénierie des besoins et l’ingénierie dirigée par des modèles, le second sur les ontologies et leurs rôles dans la résolution des problèmes d’intégration des données et des besoins. Notre première contribution est la proposition d’une solution d’intégration des besoins hétérogènes unifiant les vocabulaires et les langages de modélisation des besoins utilisés. Pour unifier les vocabulaires, nous avons travaillé sous l’hypothèse de l’existence d’une ontologie de domaine. Cette hypothèse est tout à fait acceptable vu l’émergence des ontologies de domaine dans des univers aussi divers que l’ingénierie, la médecine, l’environnement, etc. Chaque concepteur référence cette ontologie pour exprimer ses besoins. Pour unifier les langages de modélisation des besoins et vu leur diversité, nous avons étudié trois langages, précisément: Use case d’UML, le langage orienté buts, et le modèle de traitement de la méthode Merise. Ce choix est motivé par leur popularité et leur utilisation intensive dans les projets industriels et académiques. Cette étude nous a permis de définir un langage pivot factorisant l’ensemble des langages étudiés. Un couplage entre l’ensemble des méta modèles utilisés et l’ontologie est établi. Un scénario d’intégration des besoins est alors défini selon ce langage pivot. Chaque concepteur extrait d’abord une ontologie locale qui référence l’ontologie globale satisfaisant ses exigences. Une fois extraite, il décrit ses besoins en fonction de son ontologie locale. Ensuite, ses besoins sont transformés à l’aide des règles sur le modèle pivot. Dans ce scénario, nous avons utilisé des transformations de type Model-to-Model. La deuxième contribution consiste à exploiter la puissance de l’ingénierie dirigée par les modèles pour offrir un autre scénario d’intégration. Au lieu d’utiliser des transformations Model-to-Model, nous 135Chapitre 8. Conclusion générale avons défini un méta-modèle représentant les besoins. Les trois modèles utilisés deviennent alors des instances de ce méta-modèle. Dans ce cas, chaque concepteur donne seulement son langage préféré pour concevoir une application, à la suite de quoi il extrait son langage des besoins couplé à son ontologie. La présence de l’ontologie permet également de raisonner sur l’ensemble des besoins émis par les concepteurs. Deux architectures d’implémentation de raisonnement sont considérées (i) ship whole et (ii) reason as needed. Dans le premier scénario chaque concepteur envoie ses besoins sans aucun traitement local au modèle générique qui effectue le raisonnement pour identifier les besoins conflictuels. Cette solution peut être coûteuse si le nombre de besoins est important. Pour pallier ce problème, nous avons proposé l’architecture reason as needed qui permet à chaque concepteur de raisonner localement autant qu’il le peut, puis d’envoyer ensuite des besoins valides au modèle générique, qui à son tour effectue d’autres raisonnements. L’évaluation des deux solutions a montré l’intérêt du raisonnement, ainsi que la supériorité de la solution reason as needed sur la solution ship whole en termes de temps de traitement. Notre troisième contribution a montré l’intérêt de l’utilisation des besoins dans la phase physique. Rappelons que cette dernière représente une tâche coûteuse auprès des administrateurs. Pour alléger cette tâche, ces derniers utilisent des advisors commerciaux. Notre vision est complètement différente, et consiste à déléguer certaines tâches de la conception physique aux concepteurs. Nous avons montré que le processus de sélection des structures d’optimisation se fait à l’aide d’un ensemble de requêtes extraites à partir des logs. Si nous analysons les besoins, nous pouvons facilement extraire ces requêtes. En conséquence, le processus de sélection peut se faire à l’aide des besoins. Nous avons montré l’intérêt et la faisabilité de notre approche sur la sélection de deux structures d’optimisation, une redondante qui représente les index de jointure binaire et l’autre non redondante représentant la fragmentation horizontale. Nous avons implémenté notre démarche sur le système de gestion de bases de données OntoDB développé au sein de notre laboratoire. Les besoins sont stockés au sein de cette base de données et des programmes de génération de requêtes à partir de ces besoins sont développés. Nous avons comparé nos algorithmes de sélection dirigés par les besoins sur les données du banc d’essai SSB avec ceux utilisés par les requêtes. Rappelons que le banc d’essai SSB offre des requêtes sous forme de besoins et SQL. Les résultats sont pratiquement similaires, ce qui montre que certaines tâches de conception physique peuvent être déléguées aux concepteurs. L’ensemble de nos contributions est prototypé afin d’assister les concepteurs dans leurs tâches d’expression, d’intégration et d’exploitation des besoins. 2 Perspectives De nombreuses perspectives tant à caractère théorique que pratique peuvent être envisagées. Dans cette section nous présentons succinctement celles qui nous paraissent être les plus intéressantes. 2.1 Autres langages de modélisation des besoins Nos propositions sont dirigées par trois langages de modélisation des besoins appartenant à la catégorie semi-formelle. Il serait intéressant de considérer d’autres types de langages appartenant à la catégorie formelle, telle que la méthode B, et d’évaluer leur impact sur la conception physique. 1362. Perspectives 2.2 Etude du passage à l’échelle de nos propositions Pour évaluer la robustesse de nos propositions concernant l’intégration de besoins, notamment la partie raisonnement, il est nécessaire de considérer un grand nombre de langage des besoins. Cette évaluation doit se faire en développant des modèles de coût impliquant les aspects économiques, le temps de calcul et le temps de transfert. Ces modèles de coût peuvent être utilisés pour développer d’autres stratégies de raisonnement. 2.3 Définition des architectures d’intégration Dans cette thèse nous n’avons pas pris en compte l’architecture de l’intégration des besoins. Rappelons qu’il existe deux principales architectures pour supporter un système d’intégration : la solution médiateur et la solution matérialisée. Dans l’architecture de type médiateur, l’intégration s’effectue en deux étapes : (i) le système d’intégration génère, à partir d’une requête utilisateur, autant de sous requêtes qu’il y a de partenaires à interroger, (ii) il construit alors la réponse finale à partir des résultats de sous requêtes et la présente à l’utilisateur. Cette architecture repose sur deux composants essentiels : le médiateur et l’adaptateur. Dans l’architecture matérialisée, l’intégration des données s’effectue également en deux étapes : (i) les besoins issus des différentes sources sont dupliqués dans un entrepôt de données, (ii) les requêtes des utilisateurs sont posées directement sur ce dernier. Dans les deux scénarii d’architecture, il serait intéressant d’étudier à quel niveau effectuer la partie raisonnement parmi les choix suivants: au niveau source, au niveau ETL (Extraction, Transformation, Loading) ou au niveau du schéma global. 2.4 Prise en compte de l’évolution Dans une entreprise étendue, l’évolution est le maître mot. Elle peut concerner l’ontologie et les besoins. L’étude de l’évolution des besoins des utilisateurs est un aspect important pour assurer la faisabilité de l’approche dans une vraie entreprise étendue. L’évolution des besoins ne peut pas être traitée sans prendre en compte l’architecture supportant le système d’intégration des besoins. Si l’architecture matérialisée est adoptée, l’évolution des besoins peut être traitée au niveau ETL. Cette évolution impactera directement la conception physique, et cet impact se ressentira immédiatement contrairement à l’approche classique, où l’administrateur attend que les fichiers logs de requêtes soient établis. L’étude de l’évolution des ontologies manipulées est un enjeu important qui doit être exploré. Cette évolution peut concerner différents aspects, comme l’évolution du schéma de l’ontologie ou l’évolution des instances ontologiques. 2.5 Elaboration d’un cycle de vie de conception d’applications avancées L’équipe ingénierie des données et des modèles réalise depuis quelques années des travaux sur le cycle de vie de conception d’application avancées, qui regroupent les bases de données, les entrepôts de données, et les bases de données sémantiques. Ces travaux couvraient la modélisation conceptuelle, la phase ETL, la modélisation logique, la modélisation physique, la personnalisation et la recommandation des requêtes. Le travail de cette thèse est fondamentale pour l’élaboration de ce cycle. La prise 137Chapitre 8. Conclusion générale en compte des besoins et des acteurs pourrait permettre de proposer facilement des solutions personnalisées aux utilisateurs. Un autre intérêt est lié au fait que les besoins sont stockés dans la base de données, nous pouvons donc facilement annoter les résultats d’exploitation qui pourraient être fournis par des algorithmes de fouille de données exécutés sur la base de données. En conséquence, nous pourrions associer à chaque connaissance trouvée la ou les personnes potentiellement intéressées. Un autre élément qui pourrait être étudier est le crowdsourcing, où l’ensemble des concepteurs peuvent contribuer à l’amélioration du produit final en interagissant sur toute la chaîne. 138Bibliographie [1] The standish group, chaos. http://www. standishgroup.com/chaos.html, 1995. [2] Industrial automation systems and integration - parts library - part 42: Description methodology: Methodology for structuring parts families. Technical report, 1998. [3] Industrial automation systems and integration - parts library - part 25: Logical resource: Logical model of supplier library with aggregate values and explicit content. Technical report, 2004. [4] The standish group, chaos summary for 2010. http://insyght.com.au/ special/2010CHAOSSummary.pdf, 2010. [5] User requirements notation (urn) - language definition. Technical report, 2012. [6] A. Abran, J.W. Moore, P. Bourque, and R.E. Dupuis. Guide to the Software Engineering Body of Knowledge. http://www.swebok.org/.IEEE Computer Society, 2004. [7] J.R. Abrial. The B-book: assigning programs to meanings. Cambridge University Press, New York, USA, 1996. [8] D. Agrawal, S. Das, and A. El Abbadi. Data Management in the Cloud: Challenges and Opportunities. Synthesis Lectures on Data Management. Morgan & Claypool Publishers, 2012. [9] S. Agrawal, S. Chaudhuri, L. Kollar, A. Marathe, V. Narasayya, and M. Syamala. Database tuning advisor for microsoft sql server 2005. In In Proceedings of the International Conference on Very Large Databases, (VLDB’04), pages 1110–1121, 2004. [10] Y. Aït Ameur, M. Baron, and P. Girard. Formal validation of hci user tasks. In the International Conference on Software Engineering Research and Practice (SERP’03), pages 732–738. CSREA Press, 2003. [11] G. Dahlstedt Asa and A. Persson. Requirements interdependencies - moulding the state of research into a research agenda. In Ninth International Workshop on Requirements Engineering: Foundation for Software Quality (REFSQ 2003), held in conjunction with (CAiSE 2003), pages 71–80, 2003. [12] F. Baader, D. Calvanese D. McGuinness, D. Nardi, and P. Patel-Schneider. The description logic handbook: theory, implementation, and applications. Cambridge University Press, New York, USA, 2003. [13] V. M. Werneck Bejamim, A. O. de Padua Antonio, and J. Cesar Sampaio do Prado. Comparing gore frameworks: istar and kaos. In Ibero-American Workshop of Engineering of Requirements, (WER’09), 2009. [14] L. Bellatreche. Contributions à la Conception et l’Exploitation des Systèmes d’Inté- gration de Données. PhD thesis, HDR, Habilitation à diriger les recherches, ENSMA, 2009. 139Bibliographie [15] L. Bellatreche. Optimization and tuning in data warehouses. In Encyclopedia of Database Systems, pages 1995–2003. 2009. [16] L. Bellatreche, K. Boukhalfa, P. Richard, and K.Y. Woameno. Referential horizontal partitioning selection problem in data warehouses: Hardness study and selection algorithms. International Journal of Data Warehousing and Mining (IJDWM), 5(4):1–23, 2009. [17] L. Bellatreche, A. Giacometti, P. Marcel, H. Mouloudi, and D. Laurent. A personalization framework for olap queries. In ACM Eighth International Workshop on Data Warehousing and OLAP (DOLAP’05), pages 9– 18, 2005. [18] L. Bellatreche, S. Khouri, I. Boukhari, and R. Bouchakri. Using ontologies and requirements for constructing and optimizing data warehouses. In Proceedings of the 35th International Convention (MIPRO), pages 1568–1573, 2012. [19] L. Bellatreche, G. Pierra, D. Nguyen Xuan, H. Dehainsala, and Y. Aït Ameur. An a priori approach for automatic integration of heterogeneous and autonomous databases. In 15th International Conference on Database and Expert Systems Applications (DEXA’04), pages 475–485, 2004. [20] L. Bellatreche, D. Nguyen Xuan, H., G. Pierra, and H. Dehainsala. Contribution of ontology-based data modeling to automatic integration of electronic catalogues within engineering databases. Computers in Industry Journal, Elsevier, 57(8-9):711– 724, 2006. [21] D. Beneventano, S. Bergamaschi, S. Castano, G.Malvezzi A. Corni, R. Guidetti, M. Melchiori, and M. Vincini. Information integration: The momis project demonstration. In the VLDB journal, pages 611–614, 2000. [22] N. Berkani, S. Khouri, and L. Bellatreche. Generic methodology for semantic data warehouse design: From schema definition to etl. In Intelligent Networking and Collaborative Systems (INCoS), pages 404–411, 2012. [23] Grady Booch, James Rumbaugh, and Ivar Jacobson. Unified Modeling Language User Guide, The (2nd Edition) (Addison-Wesley Object Technology Series). Addison-Wesley Professional, 2005. [24] R. Bouchakri and L. Bellatreche. On simplifying integrated physical database design. In Proceedings of the 15th International on Advances in Databases and Information Systems,(ADBIS’11), pages 333–346. SpringerVerlag, 2011. [25] I. Boukhari, L. Bellatreche, and S. Jean. An ontological pivot model to interoperate heterogeneous user requirements. In Proceedings of the 5th International Symposium on Leveraging Applications of Formal Methods, Verification and Validation (ISOLA 2012), pages 344–358. LNCS, Springer, 2012. [26] I. Boukhari, L. Bellatreche, and S. Khouri. Efficient, unified, and intelligent user requirement collection and analysis in global enterprises. In (To appear) in proceedings of the 15th International Conference on Information Integration and Web-based Applications & Services (iiWAS 2013), Vienna, Austria. LNCS, Springer, 2013. [27] K. K. Breitman and J.C. Sampaio Leite. Ontology as a requirements engineering product. In Proceedings of the 11th IEEE International Conference on Requirements Engineering, (RE’03), pages 309–319. IEEE Computer Society, 2003. [28] P. Bresciani, A. Perini, P. Giorgini, F. Giunchiglia, and J. Mylopoulos. Tropos: An agent-oriented software development me- 140thodology. Autonomous Agents and MultiAgent Systems, 8:203–236, 2004. [29] B. Brigitte, S. Sylvie, and Av.J.B. Clément. Terminae: A linguistics-based tool for the building of a domain ontology. In Knowledge Acquisition, Modeling and Management, volume 1621, pages 49–66. Springer Berlin Heidelberg, 1999. [30] E. Brottier, B. Baudry, Y.Traon, D. Touzet, and B. Nicolas. Producing a global requirement model from multiple requirement specifications. In Proceedings of the 11th IEEE International Enterprise Distributed Object Computing Conference, (EDOC’07), page 390. IEEE Computer Society, 2007. [31] G. Canahuate, T. Apaydin, A. Sacan, and H. Ferhatosmanoglu. Secondary bitmap indexes with vertical and horizontal partitioning. In Proceedings of the 12th International Conference on Extending Database Technology: Advances in Database Technology, (EDBT’09), pages 600–611, 2009. [32] V. Castaneda, L. Ballejos, M.Laura Caliusco, and M. Rosa Galli. The use of ontologies in requirements engineering. Global Journal of Researches in Engineering (GJRE), 10 Issue 6:2–8, 2010. [33] Chee-Yong Chan. Indexing Techniques in Decision Support Systems. PhD thesis, The University of Wisconsin-Madison, 1999. [34] S. Chaudhuri and V. Narasayya. Selftuning database systems: A decade of progress. In Proceedings of the 33rd International Conference on Very Large Data Bases (VLDB’07), pages 3–14. VLDB Endowment, 2007. [35] P. Chen. The entity relationship model - towards a unified view of data. ACM Transactions on Database Systems (TODS), 1(1):9– 36, 1976. [36] B. Chevallereau, A. Bernard, and P. Mévellec. Améliorer les performances de l’industrie logicielle par une meilleure compréhension des besoins. In CIGI, Conférence Internationale de Génie Industriel, France, 2009. [37] F. Chimene. Ontodb2: support of multiple ontology models within ontology based database. In Proceedings of the 2008 EDBT Ph.D. workshop, (Ph.D.’08), pages 21–27. ACM, 2008. [38] M. Christel and K. Kang. Issues in requirements elicitation. Technical report, 1992. [39] P. Cimiano and J. Völker. Text2onto. In Proceedings of the 10th International Conference on Applications of Natural Language to Information Systems, (NLDB), pages 227–238. Springer, 2005. [40] P. Coret, J. Richard, E. Talavet, and T. Trofi- moya. Introduction a owl, langage xml d’ontologies. Technical report, 2006. [41] K. Czarnecki and S. Helsen. Feature-based survey of model transformation approaches. IBM Systems Journal, 45(3):621–645, 2006. [42] B. Dageville, D. Das, K. Dias, K. Yagoub, M. Zait, and M. Ziauddin. Automatic sql tuning in oracle 10g. In Proceedings of the Thirtieth International Conference on Very Large Data Bases - Volume 30 (VLDB’04), pages 1098–1109. VLDB Endowment, 2004. [43] A. Dardenne, A.van Lamsweerde, and S. Fickas. Goal-directed requirements acquisition. Science. Computer. Program., 20:3–50, 1993. [44] S. Decker, M. Erdmann, D. Fensel, and R. Studer. Ontobroker: Ontology based access to distributed and semi-structured information. In Proceedings of the IFIP TC2/WG2.6 Eighth Working Conference on Database Semantics- Semantic Issues in Multimedia Systems, (DS-8), pages 351– 369, 1998. [45] H. Dehainsala, G. Pierra, and L. Bellatreche. Ontodb: An ontology-based data- 141Bibliographie base for data intensive applications. In Proceedings of the 12th International Conference on Database Systems for Advanced Applications (DASFAA’07), pages 497–508. Springer-Verlag, 2007. [46] A. Doan, A. Y. Halevy, and Z. G. Ives. Principles of Data Integration. Morgan Kaufmann, 2012. [47] P. du Bois. The ALBERT II Language. PhD thesis, Facultés Universitaires Notre Dame de la Paix, Namur, 1995. [48] D. V. Dzung and A. Ohnishi. Ontologybased reasoning in requirements elicitation. In IEEE International Conference on Software Engineering and Formal Methods(SEFM), pages 263–272, 2009. [49] Frederico T. Fonseca and James E. Martin. Learning the differences between ontologies and conceptual schemas through ontologydriven information systems. Journal of the Association for Information Systems, 8(2), 2007. [50] G. Gardarin. Intégration de données et applications via xml. http: //georges.gardarin.free.fr/Cours_ Total/X6-BusinessIntegration.ppt. [51] P. Giorgini, J. Mylopoulos, E. Nicchiarelli, and R. Sebastiani. Formal reasoning techniques for goal models. Journal of Data Semantics., 1:1–20, 2004. [52] Claude Girault and Rudiger Valk. Petri Nets for System Engineering: A Guide to Modeling, Verification, and Applications. Springer-Verlag New York, Inc., 2001. [53] F. Goasdoué, V. Lattés, and M. C. Rousset. The use of carin language and algorithms for information integration: The picsel system. International Journal of Cooperative Information Systems (IJCIS), 9(4):383–401, 2000. [54] C.H. Goh, S. Bressan, E. Madnick, and M.D. Siegel. Context interchange: New features and formalisms for the intelligent integration of information. ACM Transactions on Information Systems, 17(3):270–293, 1999. [55] A. Goknil, i. Kurtev, k. Berg, and j. Veldhuis. Semantics of trace relations in requirements models for consistency checking and inferencing. Softwar System Model., 10:31– 54, 2011. [56] A. Goknil, I. Kurtev, and K. Berg. A metamodeling approach for reasoning about requirements. In Proceedings of the 4th European conference on Model Driven Architecture: Foundations and Applications, (ECMDA-FA’08), pages 310–325. SpringerVerlag, 2008. [57] M. Golfarelli. From user requirements to conceptual design in data warehouse design - a survey. In Data Warehousing Design and Advanced Engineering Applications : Methods for Complex Construction, pages 1– 16. IGI Global, 2009. [58] M. Golfarelli and S. Rizzi. Data Warehouse Design: Modern Principles and Methodologies. McGraw Hill, 2009. [59] M. Golfarelli, S. Rizzi, and P. Biondi. myolap: An approach to express and evaluate olap preferences. IEEE Trans. Knowl. Data Eng., 23(7):1050–1064, 2011. [60] S.J. Greenspan. Requirements modeling: a knowledge representation approach to software requirements definition. PhD thesis, 1984. [61] T. R. Gruber. A translation approach to portable ontology specifications. In Knowledge Acquisition, volume 5, pages 199– 220, 1993. [62] Y. Guo, Z. Pan, and J. Heflin. Lubm: A benchmark for owl knowledge base systems. Journal of Web Semantics, pages 158–182, 2005. [63] A. Halevy, A. Rajaraman, and J. Ordille. Data integration: The teenage years. In Pro- 142ceedings of the 32Nd International Conference on Very Large Data Bases (VLDB), pages 9–16, 2006. [64] C. Hardebolle. Composition de modèles pour la modélisation multi-paradigme du comportement des systèmes. PhD thesis, Université Paris-Sud XI, 2008. [65] C. L. Heitmeyer, R. D. Jeffords, and B.G. Labaw. Automated consistency checking of requirements specifications. ACM Trans. Softw. Eng. Methodol., 5:231–261, 1996. [66] W.H. Inmon. Building the Data Warehouse. QED Information Sciences, Inc., 1992. [67] M. Jackson. Problem frames: analyzing and structuring software development problems. Addison-Wesley Longman Publishing Co., Inc., 2001. [68] I. Jacobson and l. Spence K. Bittner. Use Case Modeling. Addison Wesley Professional, 2002. [69] S. Jean. OntoQL, un langage d’exploitation des bases de données à base ontologique. PhD thesis, Université de Poitiers., 2007. [70] S. Jean, Y. Aít Ameur, and G. Pierra. Querying ontology based database using ontoql (an ontology query language). In Proceedings of the 2006 Confederated international conference on On the Move to Meaningful Internet Systems: CoopIS, DOA, GADA, and ODBASE, (ODBASE’06/OTM’06), pages 704–721. Springer-Verlag, 2006. [71] S. Jean, G. Pierra, and Y. Aït Ameur. Domain ontologies: A database-oriented analysis. In Proceedings of the Second International Conference on Web Information Systems and Technologies: Internet Technology / Web Interface and Applications, WEBIST (1), pages 341–351, 2006. [72] H. Jones. Raisonnement à base de règles implicatives floues-Inférence et Sémantique. PhD thesis, Université Toulouse III- Paul Sabataire, 2007. [73] M. Jun, L. Guofu, L. Hao, and X. Yanqiu. The knowledge sharing based on plib ontology and xml for collaborative product commerce. In Proceedings of the International Conference on Web Information Systems and Mining, (WISM’09), pages 518– 526. Springer-Verlag, 2009. [74] k. Pohl. Process-Centered Requirements Engineering. John Wiley & Sons, Inc., New York, NY, USA, 1996. [75] H. Kaiya and M. Saeki. Ontology based requirements analysis: Lightweight semantic processing approach. In Proceedings of the Fifth International Conference on Quality Software, (QSIC’05), pages 223–230. IEEE Computer Society, 2005. [76] C. M. Keet and P. R. Fillottrani. Toward an ontology-driven unifying metamodel for uml class diagrams, eer, and orm2. In the 32th International Conference, ER, pages 313–326, 2013. [77] C. M. Keet and Pablo R. Fillottrani. Structural entities of an ontology-driven unifying metamodel for uml, eer, and orm2. In 3rd International Conference on Model and Data Engineering (MEDI), LNCS, Springer, pages 188–199, 2013. [78] S. Khouri, L. Bellatreche, I. Boukhari, and S. Bouarar. More investment in conceptual designers: Think about it! In 15th International Conference on Computational Science and Engineering (CSE), IEEE, pages 88–93, 2012. [79] S. Khouri, I. Boukhari, L. Bellatreche, E. Sardet, S. Jean, and M. Baron. Ontologybased structured web data warehouses for sustainable interoperability: requirement modeling, design methodology and tool. Comput. Ind., 63(8):799–812, 2012. 143Bibliographie [80] R. Kimball, L. Reeves, W. Thornthwaite, M. Ross, and W. Thornwaite. The Data Warehouse Lifecycle Toolkit: Expert Methods for Designing, Developing and Deploying Data Warehouses with CD Rom. John Wiley & Sons, Inc., 1st edition, 1998. [81] J. Sven Körner and B. Torben. Natural language specification improvement with ontologies. International Journal of Semantic Computing, 3:445–470, 2009. [82] W. Labio, Y. Zhuge, J. L. Wiener, H. Gupta, H. Garcia-Molina, and J. Widom. The whips prototype for data warehouse creation and maintenance. In (SIGMOD Conference), pages 557–559, 1997. [83] R. Laleau, F. Semmak, A Matoussi, D. Petit, A. Hammad, and B.Tatibouet. A first attempt to combine sysml requirements diagrams and b. Innovations in Systems and Software Engineering (ISSE), 6(1-2):47–54, 2010. [84] A. Lamsweerde. Conceptual modeling: Foundations and applications. chapter Reasoning About Alternative Requirements Options, pages 380–397. Springer-Verlag, 2009. [85] S. Won Lee and R.A. Gandhi. Ontologybased active requirements engineering framework. In Proceedings of the 12th AsiaPacific Software Engineering Conference, (APSEC’05), pages 481–490. IEEE Computer Society, 2005. [86] O. López, M. A. Laguna, and F. J. G.Peñalvo. A metamodel for requirements reuse. In VII Jornadas de Ingeniería del Software y Bases de Datos (JISBD), pages 427–428, 2002. [87] M. Lubars, C. Potts, and C. Richter. A review of the state of the practice in requirements modeling. In Proceedings of IEEE International Symposium on Requirements Engineering (RE’93), pages 2–14, 1993. [88] E. m. Clarke and J. M. Wing. Formal methods: State of the art and future directions. ACM computer surveys, 28(4):626– 643, 1996. [89] C. Maier, D. Dash, I. Alagiannis, A. Ailamaki, and T. Heinis. Parinda: an interactive physical designer for postgresql. In Proceedings of the 13th International Conference on Extending Database Technology (EDBT’10), pages 701–704, 2010. [90] K. L. Mcgraw and K. Harbison. Usercentered requirements: the scenario-based engineering process. 1997. [91] E. Mena, V. Kashyap, A. Sheth, and A. Illarramendi. Observer: an approach for query processing in global information systems based on interoperation across pre-existing ontologies. In Proceedings of the First IFCIS International Conference Cooperative Information Systems, 1996., pages 14–25, 1996. [92] I. Mirbel and S. Villata. Enhancing goal-based requirements consistency: An argumentation-based approach. In 13th International Workshop in Computational Logic in Multi-Agent Systems (CLIMA) ., pages 110–127, 2012. [93] J. Mylopoulos. Conceptual modeling in the time of the revolution: Part ii. In Proceedings of the 28th International Conference on Conceptual Modeling,(ER’09), pages 25–25. Springer-Verlag, 2009. [94] E. Navarro, J.A Mocholi, P. Letelier, and I. Ramos. A metamodeling approach for requirements specification.pdf. Journal of Computer Information Systems (JCIS), 46:67–77, 2006. [95] B. Nuseibeh and S. Easterbrook. Requirements engineering: a roadmap. In Proceedings of the Conference on The Future of Software Engineering, (ICSE’00), pages 35– 46. ACM, 2000. 144[96] F. Oliveira, K. Nagaraja, R. Bachwani, R. Bianchini, R. Martin, and T.D. Nguyen. Understanding and validating database system administration. In Proceedings of the Annual Conference on USENIX ’06 Annual Technical Conference (ATEC’06), pages 19– 19. USENIX Association, 2006. [97] E. J. O’Neil, P. E. O’Neil, and K. Wu. Bitmap index design choices and their performance implications. In Proceeedings of the 11th Internationa Conference In Database Engineering and Applications Symposium, (IDEAS’07), pages 72–84, 2007. [98] G. Pierra. Context representation in domain ontologies and its use for semantic integration of data. pages 174–211. SpringerVerlag, Berlin, Heidelberg, 2008. [99] G. Pierre. Merise: Modélisation de systèmes d’information. 2005. [100] W. N. Robinson. Integrating multiple speci- fications using domain goals. Sigsoft Software Engineering Notes, 14(3):219–226, 1989. [101] A. Rochfeld and H. Tardieu. Merise: An information system design and development methodology. Information & Management, 6:143–159, 1983. [102] C. Rolland. Requirements engineering for cots based systems. Information and Software Technology (IST), 41(14):985–990, 1999. [103] C. Rolland. Ingènierie des besoins : L’approche l’ecritoire. Journal Techniques de l’Ingènieur, pages 1–45, 2003. [104] C. Rolland, G. Grosz, and R. Kla. Experience with goal-scenario coupling in requirements engineering. In Proceedings. IEEE International Symposium on Requirements Engineering, (RE 1999)., pages 74– 81, 1999. [105] C. Rolland, C. Souveyet, and C.B. Achour. Guiding goal modeling using scenarios. IEEE Transactions on Software Engineering, 24(12):1055–1071, 1998. [106] O. Romero, A. Simitsis, and A. Abelló. Gem: Requirement-driven generation of etl and multidimensional conceptual designs. In Proceedings of the 13th International Conference on Data Warehousing and Knowledge Discovery, (DaWaK 2011), pages 80–95, 2011. [107] D.T. Ross and K.E. Schoman. Structured analysis for requirements definition. IEEE Transactions on Software Engineering, 3(1):6–15, 1977. [108] D. Di Ruscio, R. Eramo, and A. Pierantonio. Model transformations. In International School on Formal Methods for the Design of Computer, Communication, and Software Systems (SFM): Formal Methods for ModelDriven Engineering, pages 91–136, 2012. [109] M.S. Russell. Assessing the impact of requirements volatility on the se process using bayesian. In Proceedings of the IInternational Symposium (INCOSE), Toulouse, 2004. [110] M. Saeki, S. Hayashi, and H. Kaiya. A tool for attributed goal-oriented requirements analysis. In 24th IEEE/ACM International Conference on Automated Software Engineering, pages 674–676, 2009. [111] K. Selma and L. Bellatreche. Dwobs: Data warehouse design from ontology-based sources. In 16th International Conference on Database Systems for Advanced Applications (DASFAA’ 2011), pages 438–441, 2011. [112] K. Siegemund, E. J. Thomas, Z. Yuting, J. Pan, and U. Assmann. Towards ontologydriven requirements engineering. In In 7th International Workshop on Semantic Web Enabled Software Engineering., 2011. [113] J. M. Spivey. Understanding Z: a specifi- cation language and its formal semantics. Cambridge University Press, 1988. 145Bibliographie [114] S. Staab, M. Erdmann, A. Maedche, and s. Decker. Knowledge media in healthcare. chapter An extensible approach for modeling ontologies in RDF(S), pages 234–253. IGI Publishing, 2002. [115] V. Sugumaran and V. C. Storey. The role of domain ontologies in database design: An ontology management and conceptual modeling environment. ACM Trans. Database Syst., pages 1064–1094, 2006. [116] H. V. Teguiak. Construction d’ontologies à partir de textes : une approche basée sur les transformations de modéles. PhD thesis, 2012. [117] T. J. Teorey, D. Yang, and J. P. Fry. A logical design methodology for relational databases using the extended entity-relationship model. ACM Comput. Surv., 18(2):197–222, 1986. [118] A. Tort and A. Olivé. An approach to testing conceptual schemas. Data Knowledge Engineering, 69(6):598–618, 2010. [119] Axel V. Lamsweerde. Goal-oriented requirements engineering: A guided tour. In Proceedings of the Fifth IEEE International Symposium on Requirements Engineering, (RE’01), pages 249–263. IEEE Computer Society, 2001. [120] Axel van Lamsweerde. Requirements engineering in the year 00: a research perspective. In Proceedings of the 22nd international conference on Software engineering ,(ICSE’00), pages 5–19. ACM, 2000. [121] C. Vicente-Chicote, B. Moros, and A. Toval. Remm-studio: an integrated modeldriven environment for requirements specification, validation and formatting. Journal of Object Technology, 6(9):437–454, 2007. [122] P.R.S. Visser, D.M. Jones, M. Beer, T.J.Bench-Capon, B. Diaz, and M.J. Shave. Resolving ontological heterogeneity in the kraft project. In Database and Expert Systems Applications (DEXA), 1999. [123] V.R.Basili, G. Gianluigi, and H.D. Rombach. The goal question metric approach. computer science technical report series cstr-2956. Technical report, 1992. [124] H. Wache, T. Vögele, U. Visser, H. Stuckenschmidt, G. Schuster, H. Neumann, and S. Hübner. Ontology-based integration of information - a survey of existing approaches. In Proceedings of the International Workshop on Ontologies and Information Sharing, pages 108–117, 2001. [125] G. Wiederhold. Mediators in the architecture of future information systems. IEEE Computer, 25(3):38–49, 1992. [126] K.E. Wiegers. More About Software Requirements. Microsoft Press, USA, 2006. [127] R. Wieringa, E. Dubois, and H. S. Huyts. Integrating semi-formal and formal requirements. In Proceedings of the 9th International ConferenceAdvanced Information Systems Engineering, (CAiSE’97), pages 19– 32, 1997. [128] D. N. Xuan, L. Bellatreche, and G. Pierra. Ontodawa, un système d’intégration à base ontologique de sources de données autonomes et évolutives. Ingénierie des Systèmes d’Information (ISI), 13(2):97–125, 2008. [129] E. Siu-Kwong. Yu. Modelling strategic relationships for process reengineering. PhD thesis, University of Toronto, 1996. [130] E. Siu-Kwong. Yu. Towards modeling and reasoning support for early-phase requirements engineering. In Proceedings of the 3rd IEEE International Symposium on Requirements Engineering, (RE’97), page 226. IEEE Computer Society, 1997. [131] K. Yue. What does it mean to say that a specification is complete? In Fourth Internatio- 146nal Workshop on Software Specification and Design (IWSSD-4)., 1987. [132] D.C. Zilio, J. Rao, S. Lightstone, G. Lohman, A. Storm, C. Garcia-Arellano, and S. Fadden. Db2 design advisor: Integrated automatic physical database design. In Proceedings of the Thirtieth International Conference on Very Large Data Bases (VLDB’04), pages 1087–1097. VLDB Endowment, 2004. 147Annexe A: L’annexe suivante présente les règles de transformation des besoins locales au modèle générique des besoins. 1. Règle 1 : OntoGoal-to-OntoReq. Cette règle décrit la transformation des besoins (instances ontologiques) exprimés par le modèle de buts en modèle générique de besoins comme le montre la figure suivante. Figure 1 – Règle 1 : transformation OntoGoal-to-OntoReq 2. Règle 2 : OntoUcase-to-OntoReq. Cette règle décrit la transformation des besoins (instances ontologiques) exprimés par le modèle des cas d’utilisation en modèle générique des besoins comme le montre la figure 2. 3. Règle 3 : OntoMCT-to-OntoReq. Cette règle décrit la transformation des besoins (instances ontologiques) exprimés par le modèle des traitements en modèle générique des besoins comme le montre la figure 3. 149Bibliographie Figure 2 – Règle 2 : transformation OntoUcase-to-OntoReq Figure 3 – Règle 3 : transformation OntoMCT-to-OntoReq 150Annexe B Les requêtes suivantes sont des requêtes typiques du banc d’essai Star Schema Benchmark 41. Dans nos études expérimentales, nous avons construit plusieurs ensembles de requêtes à partir de celles-ci, afin d’effectuer les différentes évaluations. Les trois premières requêtes Q1.1, Q1.2 et Q1.3, ont l’objectif de mesurer l’évolution ou l’augmentation des recettes selon les remises accordées, pour certains produits dans une période donnée. Q1 . 1 s e l e c t sum ( l o _ e x t e n d e d p r i c e * l o _ d i s c o u n t ) a s r e v e n u e from l i n e o r d e r , d a t e where l o _ o r d e r d a t e = d _ d at e k e y and d _ y e a r = 1993 and l o _ d i s c o u n t betwee n 1 and 3 and l o _ q u a n t i t y < 2 5; Q1 . 2 s e l e c t sum ( l o _ e x t e n d e d p r i c e * l o _ d i s c o u n t ) a s r e v e n u e from l i n e o r d e r , d a t e where l o _ o r d e r d a t e = d _ d at e k e y and d_yea rmonthnum = 199401 and l o _ d i s c o u n t betwee n 4 and 6 and l o _ q u a n t i t y betwee n 26 and 3 5; Q1 . 3 s e l e c t sum ( l o _ e x t e n d e d p r i c e * l o _ d i s c o u n t ) a s r e v e n u e from l i n e o r d e r , d a t e where l o _ o r d e r d a t e = d _ d at e k e y and d _wee k n umi n yea r = 6 and d _ y e a r = 1994 and l o _ d i s c o u n t betwee n 5 and 7 and l o _ q u a n t i t y betwee n 26 and 3 5; Les trois requêtes suivantes Q2.1, Q2.2 et Q2.3, décrivent le deuxième besoin décisionnel. Ce besoin permet d’avoir le revenue classé selon plusieurs critères comme les fournisseurs dans une région donnée, les classes de produits et par année. Q2 . 1 : s e l e c t sum ( l o _ r e v e n u e ) , d _ yea r , p _ b r a n d 1 from l i n e o r d e r , d at e , p a r t , s u p p l i e r where l o _ o r d e r d a t e = d _ d at e k e y and l o _ p a r t k e y = p _ p a r t k e y and l o _ s u p p k e y = s _ s u p p k e y 41. http://www.cs.umb.edu/∼poneil/StarSchemaB.PDF 151Bibliographie and p _ c a t e g o r y = ’MFGR#12 ’ and s _ r e g i o n = ’AMERICA’ group by d _ yea r , p _ b r a n d 1 order by d _ yea r , p _ b r a n d 1 ; Q2 . 2 s e l e c t sum ( l o _ r e v e n u e ) , d _ yea r , p _ b r a n d 1 from l i n e o r d e r , d at e , p a r t , s u p p l i e r where l o _ o r d e r d a t e = d _ d at e k e y and l o _ p a r t k e y = p _ p a r t k e y and l o _ s u p p k e y = s _ s u p p k e y and p _ b r a n d 1 betwee n ’MFGR#2221 ’ and ’MFGR#2228 ’ and s _ r e g i o n = ’ASIA ’ group by d _ yea r , p _ b r a n d 1 order by d _ yea r , p _ b r a n d 1 ; Q2 . 3 s e l e c t sum ( l o _ r e v e n u e ) , d _ yea r , p _ b r a n d 1 from l i n e o r d e r , d at e , p a r t , s u p p l i e r where l o _ o r d e r d a t e = d _ d at e k e y and l o _ p a r t k e y = p _ p a r t k e y and l o _ s u p p k e y = s _ s u p p k e y and p _ b r a n d 1 = ’MFGR#2221 ’ and s _ r e g i o n = ’EUROPE’ group by d _ yea r , p _ b r a n d 1 order by d _ yea r , p _ b r a n d 1 ; Les quatre requêtes suivantes Q3.1, Q3.2, Q3.3 et Q3.4, décrivent le troisième besoin décisionnel. Ce besoin mesure les revenues pour une région donnée dans une période de temps, selon la provenance des clients et des fournisseurs. Q3 . 1 s e l e c t c _ n ati o n , s _ n a t i o n , d _ yea r , sum ( l o _ r e v e n u e ) a s r e v e n u e from c u st om e r , l i n e o r d e r , s u p p l i e r , d a t e where l o _ c u s t k e y = c _ c u s t k e y and l o _ s u p p k e y = s _ s u p p k e y and l o _ o r d e r d a t e = d _ d at e k e y and c _ r e g i o n = ’ASIA ’ and s _ r e g i o n = ’ASIA ’ and d _ y e a r >= 1992 and d _ y e a r <= 1997 group by c _ n ati o n , s _ n a t i o n , d _ y e a r order by d _ y e a r a sc , r e v e n u e d e s c ; Q3 . 2 152s e l e c t c _ c i t y , s _ c i t y , d _ yea r , sum ( l o _ r e v e n u e ) a s r e v e n u e from c u st om e r , l i n e o r d e r , s u p p l i e r , d a t e where l o _ c u s t k e y = c _ c u s t k e y and l o _ s u p p k e y = s _ s u p p k e y and l o _ o r d e r d a t e = d _ d at e k e y and c _ n a t i o n = ’UNITED STATES ’ and s _ n a t i o n = ’UNITED STATES ’ and d _ y e a r >= 1992 and d _ y e a r <= 1997 group by c _ c i t y , s _ c i t y , d _ y e a r order by d _ y e a r a sc , r e v e n u e d e s c ; Q3 . 3 s e l e c t c _ c i t y , s _ c i t y , d _ yea r , sum ( l o _ r e v e n u e ) a s r e v e −nue from c u st om e r , l i n e o r d e r , s u p p l i e r , d a t e where l o _ c u s t k e y = c _ c u s t k e y and l o _ s u p p k e y = s _ s u p p k e y and l o _ o r d e r d a t e = d _ d at e k e y and ( c _ c i t y =’UNITED KI1 ’ o r c _ c i t y =’UNITED KI5 ’ ) and ( s _ c i t y =’UNITED KI1 ’ o r s _ c i t y =’UNITED KI5 ’ ) and d _ y e a r >= 1992 and d _ y e a r <= 1997 group by c _ c i t y , s _ c i t y , d _ y e a r order by d _ y e a r a sc , r e v e n u e d e s c ; Q 3 . 4 s e l e c t c _ c i t y , s _ c i t y , d _ yea r , sum ( l o _ r e v e n u e ) a s r e v e −nue from c u st om e r , l i n e o r d e r , s u p p l i e r , d a t e where l o _ c u s t k e y = c _ c u s t k e y and l o _ s u p p k e y = s _ s u p p k e y and l o _ o r d e r d a t e = d _ d at e k e y and ( c _ c i t y =’UNITED KI1 ’ o r c _ c i t y =’UNITED KI5 ’ ) and ( s _ c i t y =’UNITED KI1 ’ o r s _ c i t y =’UNITED KI5 ’ ) and d _ y ea rm o nt h = ’ Dec1997 ’ group by c _ c i t y , s _ c i t y , d _ y e a r order by d _ y e a r a sc , r e v e n u e d e s c ; Les trois dernières requêtes Q4.1, Q4.2 et Q4.3, décrivent le quatrième besoin décisionnel. Ce dernier est un besoin prévisionnel qui vise à calculer le profit moyen pour certaines classes de produits dans certaines régions et dans une période donnée. Q4 . 1 s e l e c t d _ yea r , c _ n ati o n , sum ( l o _ r e v e n u e − l o _ s u p p l y c o s t ) a s p r o f i t from d at e , c u st om e r , s u p p l i e r , p a r t , l i n e o r d e r where l o _ c u s t k e y = c _ c u s t k e y 153Bibliographie and l o _ s u p p k e y = s _ s u p p k e y and l o _ p a r t k e y = p _ p a r t k e y and l o _ o r d e r d a t e = d _ d at e k e y and c _ r e g i o n = ’AMERICA’ and s _ r e g i o n = ’AMERICA’ and ( p_m fg r = ’MFGR#1 ’ o r p_m fg r = ’MFGR# 2 ’ ) group by d _ yea r , c _ n a t i o n order by d _ yea r , c _ n a t i o n ; Q4 . 2 s e l e c t d _ yea r , s _ n a t i o n , p _ c at e g o r y , sum ( l o _ r e v e n u e − l o _ s u p p l y c o s t ) a s p r o f i t from d at e , c u st om e r , s u p p l i e r , p a r t , l i n e o r d e r where l o _ c u s t k e y = c _ c u s t k e y and l o _ s u p p k e y = s _ s u p p k e y and l o _ p a r t k e y = p _ p a r t k e y and l o _ o r d e r d a t e = d _ d at e k e y and c _ r e g i o n = ’AMERICA’ and s _ r e g i o n = ’AMERICA’ and ( d _ y e a r = 1997 o r d _ y e a r = 1 9 9 8 ) and ( p_m fg r = ’MFGR#1 o r p_m fg r = ’MFGR# 2 ’ ) group by d _ yea r , s _ n a t i o n , p _ c a t e g o r y order by d _ yea r , s _ n a t i o n , p _ c a t e g o r y ; Q4 . 3 s e l e c t d _ yea r , s _ c i t y , p _ b ra n d 1 , sum ( l o _ r e v e n u e − l o _ s u p p l y c o s t ) a s p r o f i t from d at e , c u st om e r , s u p p l i e r , p a r t , l i n e o r d e r where l o _ c u s t k e y = c _ c u s t k e y and l o _ s u p p k e y = s _ s u p p k e y and l o _ p a r t k e y = p _ p a r t k e y and l o _ o r d e r d a t e = d _ d at e k e y and c _ r e g i o n = ’AMERICA’ and s _ n a t i o n = ’UNITED STATES ’ and ( d _ y e a r = 1997 o r d _ y e a r = 1 9 9 8 ) and p _ c a t e g o r y = ’MFGR#14 ’ group by d _ yea r , s _ c i t y , p _ b r a n d 1 order by d _ yea r , s _ c i t y , p _ b r a n d 1 ; 154Table des figures 1.1 Différents niveaux d’intégration [50]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2 Résolution manuelle de l’hétérogénéité . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.3 Résolution semi-automatique de l’hétérogénéité . . . . . . . . . . . . . . . . . . . . . . 6 1.4 Les quatre niveaux d’intégration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.5 Aperçu des contributions de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.1 Les phases du cycle de vie d’un ED. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.2 Exemple de métamodèlisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.3 Processus d’ingénierie des besoins. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.4 Un besoin modélisé par un langage naturel. . . . . . . . . . . . . . . . . . . . . . . . . 27 2.5 Un besoin modélisé par un langage semi-formel (Cas d’utilisation). . . . . . . . . . . . 27 2.6 Approche GQM (Goal Question Metric). . . . . . . . . . . . . . . . . . . . . . . . . . 31 2.7 Exemple d’un modèle orienté buts KAOS [13]. . . . . . . . . . . . . . . . . . . . . . . 32 2.8 Exemple d’un modèle orienté buts iStar (i*) [13]. . . . . . . . . . . . . . . . . . . . . . 34 2.9 Diagramme des cas d’utilisation (Use case). . . . . . . . . . . . . . . . . . . . . . . . . 35 2.10 Exemple de modèle conceptuel de traitement. . . . . . . . . . . . . . . . . . . . . . . . 36 2.11 Méta-modèle des besoins modélisés en UML. [86]. . . . . . . . . . . . . . . . . . . . . 39 2.12 Etape de production d’un modèle global des besoins [30]. . . . . . . . . . . . . . . . . . 40 3.1 Exemple d’ontologie exprimée en RDF Schéma. . . . . . . . . . . . . . . . . . . . . . . 49 3.2 Exemple d’ontologie exprimée en OWL. . . . . . . . . . . . . . . . . . . . . . . . . . . 51 3.3 L’éditeur d’ontologies Protégé. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 3.4 Différentes architectures d’intégration à base ontologique. . . . . . . . . . . . . . . . . 55 3.5 Architectures d’intégration sémantique a posteriori. . . . . . . . . . . . . . . . . . . . . 55 155Table des figures 3.6 Architectures d’intégration sémantique a priori. . . . . . . . . . . . . . . . . . . . . . . 57 3.7 Contributions des ontologies dans l’IB. . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 4.1 Hétérogénéité des vocabulaires et des langages de modélisation des besoins. . . . . . . . 67 4.2 Exemple d’extraction de l’ontologie locale. . . . . . . . . . . . . . . . . . . . . . . . . 70 4.3 Une partie de l’ontologie University proposée par le benchmark LUBM. . . . . . . . . . 71 4.4 Exemple de modèle orienté buts modélisant les besoins du concepteur Espagnol. . . . . 72 4.5 Exemple de modèle de cas d’utilisation modélisant les besoins du concepteur Anglais. . . 74 4.6 Exemple de modèle de traitements modélisant les besoins du concepteur Français. . . . 75 4.7 Couplage des modèles des besoins avec le modèle d’ontologie. . . . . . . . . . . . . . . 76 4.8 Méta-modèle d’ontologie OWL. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 4.9 Connexion entre le modèle ontologique et le modèle orienté buts. . . . . . . . . . . . . . 78 4.10 Instanciation des modèles de l’ontologie et du modèle orientés buts. . . . . . . . . . . . 79 4.11 Connexion entre le modèle ontologique et le modèle use case. . . . . . . . . . . . . . . 80 4.12 Connexion entre le modèle ontologique et le modèle MCT. . . . . . . . . . . . . . . . . 81 4.13 Intégration centralisée avec langage Pivot. . . . . . . . . . . . . . . . . . . . . . . . . . 82 4.14 Le méta-modèle pivot. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 4.15 Connexion entre le modèle ontologique et le modèle pivot. . . . . . . . . . . . . . . . . 85 4.16 Scénario d’intégration des besoins selon un langage pivot. . . . . . . . . . . . . . . . . 86 4.17 Principe de transformation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 5.1 Méta-modèle générique fusionnant les trois modèles étudiés. . . . . . . . . . . . . . . . 91 5.2 Métamodèle générique des besoins. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 5.3 Connexion entre le méta-modèle ontologique et le méta-modèle générique des besoins. . 94 5.4 Processus de raisonnement. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 5.5 Scénario (1) : ship whole. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 5.6 Scénario (2) : reason as needed. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 5.7 Temps d’exécution de raisonnement. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 6.1 Répartition de l’effort de l’administrateur. . . . . . . . . . . . . . . . . . . . . . . . . . 108 6.2 La conception physique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 6.3 Architecture d’OntoDB. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 6.4 BDBO de type III étendu par les besoins des utilisateurs. . . . . . . . . . . . . . . . . . 113 6.5 Un besoin SSB modélisé suivant notre modèle générique des besoins. . . . . . . . . . . 115 1566.6 Ontologie du benschmark SSB. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 6.7 Fragmentation horizontale à partir des besoins. . . . . . . . . . . . . . . . . . . . . . . 119 6.8 Nouvelle vision de conception des bases de données. . . . . . . . . . . . . . . . . . . . 120 7.1 Architecture fonctionnelle de l’outil (OntoReqTool). . . . . . . . . . . . . . . . . . . . 124 7.2 Diagramme de cas d’utilisation de notre outil. . . . . . . . . . . . . . . . . . . . . . . . 125 7.3 Projection des besoins sur l’OG (OntoReq). . . . . . . . . . . . . . . . . . . . . . . . . 126 7.4 Ontologie locale des buts (OntoGoal). . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 7.5 Transformation des besoins en modèle générique. . . . . . . . . . . . . . . . . . . . . . 128 7.6 Raisonnement sur les besoins. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 7.7 Interface graphique de la phase d’exploitation de l’ED. . . . . . . . . . . . . . . . . . . 130 7.8 Persistance des besoins dans l’ED. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 7.9 Requêtes SQL générées. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 1 Règle 1 : transformation OntoGoal-to-OntoReq . . . . . . . . . . . . . . . . . . . . . . 149 2 Règle 2 : transformation OntoUcase-to-OntoReq . . . . . . . . . . . . . . . . . . . . . 150 3 Règle 3 : transformation OntoMCT-to-OntoReq . . . . . . . . . . . . . . . . . . . . . . 150 157Liste des tableaux 2.1 Comparaison des travaux étudiés. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 4.1 Les concepts communs entre les modèles de besoins. . . . . . . . . . . . . . . . . . . . 83 5.1 Nombre de relations vérifiées pendant le raisonnement. . . . . . . . . . . . . . . . . . . 102 6.1 Index générés et taux d’optimisation du coût d’exécution des besoins par rapport aux requêtes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 6.2 Index générés et taux d’optimisation du coût d’exécution des besoins par rapport aux requêtes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 159Glossaire ABox : Assertionnal Box API : Application Programming Interface ATL : ATLAS Transformation Language BD : Base de données BDBO : Base de données à base ontologique CC : Classe canonique CNC : Classe non canonique ED : Entrepôt de données EMF : EclipseModeling Framework GQM : Goal Question Metric IB : Ingénierie des Besoins IDM : Ingénierie Dirigée par les Modèles iStar : Intentional STratégic Actor Relationships KAOS : Ingénierie des Besoins LISI : Laboratoire d’Informatique Scientifique et Industrielle LO : Ontologie Locale MC : Modèle Conceptuel MDA : Model-Driven Architecture OC : Ontologie Conceptuelle OCC : Ontologie Conceptuelle Canonique OCNC : Ontologie Conceptuelle Non Canonique OL : Ontologie Linguistique OMG : Object Management Group OWL : Web Ontology Language PLIB : Parts Library - Norme ISO 13584 RDF : Ressource Description Framework SWRL : Semantic Web Rule Language TBox : Terminological Box UML : Unified Modeling Language URI : Uniform Resource Identifier URL : Uniform Resource Locator 161Intégration et exploitation de besoins en entreprise étendue fondées sur la sémantique. Présentée par : Ilyés BOUKHARI Directeurs de Thèse : Ladjel BELLATRECHE et Stéphane JEAN Résumé. L’ingénierie des besoins (IB) joue un rôle crucial dans le processus de développement d’un système d’information. Elle a pour but de fournir une spécification des besoins qui soit cohérente, non ambiguë, complète, vérifiable, etc. L’importance de la spécification des besoins augmente dans l’environnement distribué où se situent les systèmes complexes ce qui est en particulier le cas dans le contexte des entreprises étendues. Ces systèmes nécessitent, en effet, la collaboration d’un grand nombre de concepteurs qui peuvent provenir de différents domaines, départements, laboratoires de recherche, etc. En général, ces concepteurs sont libres d'utiliser le vocabulaire et les langages qu’ils préfèrent pour définir les besoins liés aux parties du système qui leur sont affectées. Dans ce contexte, fournir une interface unique, uniforme et transparente à l’ensemble des besoins définis sur un système est devenu nécessaire. Autrement dit, d’un point de vue technique, il devient crucial de proposer une démarche d’intégration des besoins via un schéma global. Dans ce travail, nous proposons une approche ontologique d’intégration de besoins hétérogènes. Cette hétérogénéité concerne à la fois les vocabulaires et les langages de modélisation identifiés lors de l’élicitation des besoins. Contrairement aux travaux existants qui traitent le problème d’intégration des besoins d’une manière isolée sans prendre en compte le système cible (une base/entrepôt de données, une interface homme machine, etc.), nos propositions apportent des solutions pour les phases de cycle de vie de conception du système cible. Pour illustrer cela, nous considérons la phase de conception physique d’un entrepôt de données. Durant cette phase, un ensemble de structures d’optimisation (les index, la fragmentation de données, les vues matérialisées, etc.) est sélectionné. Souvent cette sélection est effectuée à partir d’un ensemble de requêtes. Dans ce travail, nous proposons une approche de sélection dirigée par les besoins. Pour valider notre proposition, une implémentation dans un environnement de Base de Données à Base Ontologique nommé OntoDB est proposée. Mots-clés : Ingénierie des Besoins, Ontologies, Systèmes d’intégration, Entrepôts de données, Ingénierie Dirigée par les Modèles, BDBO, OntoDB. Abstract. Requirements engineering (RE) plays a crucial role in the process of developing information systems. It aims at providing a specification of requirements that is consistent, unambiguous, complete, verifiable, etc. With the development of distributed applications (such is the case of global enterprises) the importance of RE increases. Indeed, these applications require the collaboration of a large number of heterogeneous, autonomous and distributed designers. As a consequence, designers are free to use their own vocabularies and languages to express their requirements. In this setting, providing a unique, consistent and transparent interface to all requirements defined upon the system is needful. From a technical point of view, it becomes crucial to propose an approach for requirements integration through a global schema. In this work, we suggest a semantic approach for integrating heterogeneous requirements that takes into account the heterogeneity of both vocabularies and modeling languages identified in the requirements’ elicitation step in the context of data warehouse design. Unlike existing works which addressed requirements as an isolated integration issue without taking into account the phases of designing data warehouse, our proposals provide solutions to the main important life cycle phases for the data warehouse. To do so, we have mainly focused on the physical data of designing relational warehouse in which a set of optimized structures (indexes, data fragmentation, materialized views, etc.) are selected based on the integrated requirements. To prove the validity of our proposal, an implementation upon the environment of Ontological Database named OntoDB is proposed. Keywords: Requirements Engineering, Ontologies, Integration Systems, Data Warehousing, Model Driven Engineering, DBOB, OntoDB. Mod´elisation et score de complexes prot´eine-ARN Adrien Guilhot-Gaudeffroy To cite this version: Adrien Guilhot-Gaudeffroy. Mod´elisation et score de complexes prot´eine-ARN. Bioinformatics. Universit´e Paris Sud - Paris XI, 2014. French. . HAL Id: tel-01081605 https://tel.archives-ouvertes.fr/tel-01081605 Submitted on 10 Nov 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.UNIVERSITE´ PARIS-SUD E´ COLE DOCTORALE 427 : INFORMATIQUE PARIS-SUD LABORATOIRE : LABORATOIRE DE RECHERCHE EN INFORMATIQUE THESE ` INFORMATIQUE par Adrien GUILHOT-GAUDEFFROY Modelisation et score de ´ complexes proteine-ARN ´ Date de soutenance : 29 / 09 / 2014 Composition du jury : Directeurs de these : ` M. Jer´ ome Az ˆ e Professeur (LIRMM, Universit ´ e de Montpellier 2) ´ Mme Julie Bernauer Chargee de recherche (Inria, LIX, ´ Ecole Polytechnique) ´ Mme Christine Froidevaux Professeure (LRI, Universite Paris-Sud, invit ´ ee) ´ Rapporteurs : Mme Anne Poupon Directrice de Recherche CNRS (BIOS, INRA Tours) Mme Celine Rouveirol Professeure (LIPN, Universit ´ e Paris-Nord) ´ Examinateurs : M. Philippe Dague Professeur (LRI, Universite Paris-Sud) ´ Mme Beatrice Duval Ma ´ ˆıtre de conferences HDR (LERIA, Universit ´ e d’Angers) ´iiSommaire Sommaire iii Table des figures ix Liste des tableaux xi Introduction xv 1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xv 2 Structure des proteines et des ARN . . . . . . . . . . . . . . . . . . . . ´ xvi 2.1 Les acides amines . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xviii 2.2 Les acides nucleiques . . . . . . . . . . . . . . . . . . . . . . . . ´ xx 2.3 La structure primaire ou sequence . . . . . . . . . . . . . . . . . ´ xxi 2.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xxi 2.3.2 Determination . . . . . . . . . . . . . . . . . . . . . . . ´ xxiii 2.4 La structure secondaire . . . . . . . . . . . . . . . . . . . . . . . xxiii 2.4.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xxiii 2.4.2 Determination ´ a partir d’une solution . . . . . . . . . . . ` xxvi 2.4.3 Determination ´ a partir des coordonn ` ees atomiques . . ´ xxvii 2.4.4 Prediction . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xxvii 2.5 La structure tertiaire . . . . . . . . . . . . . . . . . . . . . . . . . xxvii 2.5.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xxvii 2.5.2 Determination . . . . . . . . . . . . . . . . . . . . . . . ´ xxviii 2.5.3 Prediction . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xxix Modelisation par homologie . . . . . . . . . . . . . . . . . ´ xxix Les methodes d’enfilage . . . . . . . . . . . . . . . . . . . ´ xxix La modelisation ´ ab initio . . . . . . . . . . . . . . . . . . . xxix Evaluation des pr ´ edictions : l’exp ´ erience C ´ ASP . . . . . . xxix iiiSommaire 2.6 La structure quaternaire . . . . . . . . . . . . . . . . . . . . . . . xxx 2.6.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xxx 2.6.2 Determination . . . . . . . . . . . . . . . . . . . . . . . ´ xxxi 2.6.3 Prediction . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xxxi 3 Les complexes proteine-prot ´ eine et prot ´ eine-ARN . . . . . . . . . . . . ´ xxxii 3.1 Fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xxxii 3.2 Detection exp ´ erimentale biochimique prot ´ eine-prot ´ eine . . . . . ´ xxxii 3.2.1 Le double-hybride sur la levure . . . . . . . . . . . . . . xxxii 3.2.2 Utilisation de marqueurs (TAP-tag et FLAP-tag) . . . . xxxii 3.3 Les methodes d’amarrage . . . . . . . . . . . . . . . . . . . . . . ´ xxxiv 3.3.1 Le probleme . . . . . . . . . . . . . . . . . . . . . . . . ` xxxiv 3.3.2 Les algorithmes . . . . . . . . . . . . . . . . . . . . . . xxxv 3.3.3 La transformation de Fourier . . . . . . . . . . . . . . . xxxvi 3.3.4 Algorithmes d’amarrage et partitionnement du probleme ` xxxvi 4 La tessellation de Vorono¨ı et ses deriv ´ ees pour l’amarrage . . . . . . . ´ xxxvii 4.1 Constructions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xxxvii 4.2 Mesures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xxxix 5 Fonctions de score . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xl 6 Apprentissage automatise . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xli 6.1 Paradigme de l’apprentissage supervise . . . . . . . . . . . . . . ´ xli 6.2 Criteres d’ ` evaluation . . . . . . . . . . . . . . . . . . . . . . . . . ´ xliii 6.2.1 Criteres d’ ` evaluation globaux . . . . . . . . . . . . . . . ´ xliii 6.2.2 Criteres d’ ` evaluation “locaux” . . . . . . . . . . . . . . . ´ xliv 1 Donnees 1 ´ 1.1 Jeux de donnees de complexes prot ´ eine-ARN . . . . . . . . . . . . . . ´ 1 1.1.1 Jeu de ref ´ erence des complexes prot ´ eine-ARN connus . . . . . ´ 1 1.1.2 Jeux d’evaluation des proc ´ edures d’amarrage : ´ Benchmarks . . 2 1.2 Nettoyage des donnees . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ 2 1.3 Utilisation des donnees . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ 3 1.3.1 Contexte biologique : definitions . . . . . . . . . . . . . . . . . . ´ 4 1.3.2 Ensemble des perturbations pour l’apprentissage . . . . . . . . . 4 1.3.3 Mesure de similarite : le RMSD . . . . . . . . . . . . . . . . . . . ´ 5 1.3.4 Etiquetage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ 6 1.3.5 Constitution des jeux d’apprentissage et de test . . . . . . . . . 7 iv1.4 Mesures d’evaluation locales . . . . . . . . . . . . . . . . . . . . . . . . ´ 8 2 Approche Rosetta et adaptation 11 2.1 Presentation de RosettaDock . . . . . . . . . . . . . . . . . . . . . . . . ´ 11 2.1.1 Amarrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.1.1.1 Gen´ eration des candidats . . . . . . . . . . . . . . . . . ´ 11 2.1.1.2 Tri des candidats . . . . . . . . . . . . . . . . . . . . . . 14 2.1.1.3 Amarrages gros-grain ou atomique . . . . . . . . . . . 15 2.1.2 Autres strategies . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ 16 2.1.2.1 Fonctions de score atomique : termes physico-chimiques 16 2.1.2.2 Termes physico-chimiques a l’ ` echelle gros-grain . . . . ´ 20 2.2 Evaluation de la fonction de score non optimis ´ ee . . . . . . . . . . . . . ´ 21 2.2.1 Mesures d’evaluation globales . . . . . . . . . . . . . . . . . . . ´ 21 2.2.2 Mesures d’evaluation locales . . . . . . . . . . . . . . . . . . . . ´ 23 2.3 Optimisation de la fonction de score . . . . . . . . . . . . . . . . . . . . 25 2.3.1 Estimation des poids par regression logistique . . . . . . . . . . ´ 26 2.3.2 Algorithmes evolutionnaires . . . . . . . . . . . . . . . . . . . . . ´ 27 2.3.3 Methodologie d’optimisation de la fonction de score atomique . . ´ 28 2.4 Evaluation de la fonction de score optimis ´ ee . . . . . . . . . . . . . . . . ´ 30 2.4.1 Pouvoir predictif en fonction des contraintes . . . . . . . . . . . . ´ 31 2.4.2 Fonction de score dedi ´ ee pour chaque type d’ARN . . . . . . . . ´ 32 2.4.3 Combinaison lineaire ´ a poids positifs . . . . . . . . . . . . . . . . ` 32 2.4.3.1 Pouvoir predictif de la fonction de score . . . . . . . . . ´ 33 2.4.3.2 Enrichissement du tri des candidats . . . . . . . . . . . 35 2.4.3.3 Detection d’entonnoir . . . . . . . . . . . . . . . . . . . ´ 35 2.4.3.4 Repartition des coefficients des termes de score . . . . ´ 38 2.4.4 Filtrage a priori des candidats du modele atomique . . . . . . . . ` 39 2.5 Conclusions sur la fonction de score atomique . . . . . . . . . . . . . . 41 3 Approche a posteriori 43 3.1 Modeles ` a posteriori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.1.1 Combinaison lineaire . . . . . . . . . . . . . . . . . . . . . . . . . ´ 44 3.1.2 Approches dites ”explicatives” : arbres et regles de d ` ecision . . . ´ 44 3.1.3 Approches dites non explicatives . . . . . . . . . . . . . . . . . . 47 3.1.4 Boˆıte a outils utilis ` ee pour apprendre les mod ´ eles . . . . . . . . ` 49 vSommaire 3.1.5 Methodologie d’optimisation des fonctions de score ´ a posteriori . 50 3.2 Evaluation des fonctions de score ´ a posteriori . . . . . . . . . . . . . . . 50 3.2.1 Repartition des candidats par terme de score . . . . . . . . . . . ´ 51 3.2.2 Weka . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 3.2.3 ROGER non lineaire . . . . . . . . . . . . . . . . . . . . . . . . . ´ 53 3.3 Conclusions sur la fonction de score a posteriori . . . . . . . . . . . . . 55 4 Approche multi-echelle 57 ´ 4.1 Principe de l’approche multi-echelle . . . . . . . . . . . . . . . . . . . . ´ 57 4.1.1 Representation g ´ eom ´ etrique gros-grain des acides amin ´ es et ´ des acides nucleiques . . . . . . . . . . . . . . . . . . . . . . . . ´ 57 4.1.2 Mesure des termes geom ´ etriques ´ a l’ ` echelle gros-grain . . . . . ´ 60 4.1.3 Termes geom ´ etriques ´ a l’ ` echelle gros-grain . . . . . . . . . . . . ´ 64 4.1.4 Donnees et fonctions de score ´ a l’ ` echelle gros-grain . . . . . . . ´ 65 4.2 Optimisation de la fonction de score gros-grain . . . . . . . . . . . . . . 66 4.2.1 Methodologie d’optimisation de la fonction de score gros-grain . ´ 66 4.3 Evaluation de l’interaction ´ a l’ ` echelle gros-grain . . . . . . . . . . . . . . ´ 67 4.3.1 Etude des valeurs des mesures g ´ eom ´ etriques . . . . . . . . . . ´ 68 4.3.2 Evaluation de la fonction de score gros-grain . . . . . . . . . . . ´ 73 4.3.2.1 Poids . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 4.3.2.2 Evaluation de la fonction de score gros-grain . . . . . . ´ 76 4.3.2.3 Comparaison avec contrainte a poids positifs . . . . . . ` 78 4.3.2.4 Comparaison avec valeurs de centrage . . . . . . . . . 79 4.4 Conclusions sur la fonction de score gros-grain . . . . . . . . . . . . . . 80 5 Discussion biologique 83 5.1 Limites inherentes ´ a la construction de fonctions de score obtenues par ` apprentissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 5.1.1 Une source de donnees exp ´ erimentales en constante ´ evolution . ´ 83 5.1.2 Influence du nettoyage des donnees . . . . . . . . . . . . . . . . ´ 84 5.1.2.1 Valeurs manquantes . . . . . . . . . . . . . . . . . . . . 84 5.1.2.2 Acides amines et nucl ´ eiques non standards . . . . . . ´ 84 5.1.2.3 Solvant et ions . . . . . . . . . . . . . . . . . . . . . . . 86 5.1.3 Influence du choix de la methode d’ ´ evaluation . . . . . . . . . . ´ 88 5.2 Flexibilite´ a l’interaction . . . . . . . . . . . . . . . . . . . . . . . . . . . ` 90 vi5.3 Limites du protocole de gen´ eration des candidats . . . . . . . . . . . . . ´ 91 6 Conclusion et perspectives 95 6.1 Integration de connaissances ´ a priori de contextes proches . . . . . . . 95 6.2 Extraction des donnees et complexit ´ es des mod ´ eles . . . . . . . . . . . ` 96 6.3 Predictions multi- ´ echelle . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ 97 Bibliographie 103 Annexes 121 viiSommaire viiiTable des figures 1 Du gene ` a la prot ` eine . . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xvii 2 Les differents niveaux de structure . . . . . . . . . . . . . . . . . . . . . ´ xix 3 Formes D et L d’un acide amine . . . . . . . . . . . . . . . . . . . . . . ´ xix 4 Les 20 acides amines usuels . . . . . . . . . . . . . . . . . . . . . . . . ´ xx 5 Les nucleotides . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xxi 6 Geom ´ etrie de la liaison peptidique . . . . . . . . . . . . . . . . . . . . . ´ xxii 7 Appariement des nucleotides et h ´ elice d’ADN . . . . . . . . . . . . . . . ´ xxii 8 Helice ´ α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xxiv 9 Brins β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xxv 10 Motifs de structure secondaire d’ARN . . . . . . . . . . . . . . . . . . . xxvi 11 Predictions issues d’une session de C ´ ASP . . . . . . . . . . . . . . . . . xxx 12 Schema de principe de d ´ etection des interactions prot ´ eine-prot ´ eine par ´ double-hybride chez la levure . . . . . . . . . . . . . . . . . . . . . . . . xxxiii 13 Le probleme de l’amarrage . . . . . . . . . . . . . . . . . . . . . . . . . ` xxxiv 14 Tessellation de Vorono¨ı et constructions deriv ´ ees . . . . . . . . . . . . . ´ xxxviii 15 Exemples de courbe ROC et explications . . . . . . . . . . . . . . . . . xlv 1.1 Diagramme de Venn du nombre de complexes par jeu de donnees externe ´ 3 1.2 Representation sch ´ ematique du calcul de l’alignement pour le L ´ RMSD et le IRMSD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.3 Exemple de diagramme d’EvsRMS . . . . . . . . . . . . . . . . . . . . . 9 1.4 Illustration du score d’enrichissement sur une courbe EvsRMS . . . . . 10 2.1 Espace de recherche des candidats d’une interaction entre 2 molecules ´ 12 2.2 Coordonnees torsionnelles pour la manipulation des structures 3D . . . ´ 14 2.3 Presentation g ´ en´ erale des scores physico-chimiques . . . . . . . . . . . ´ 18 2.4 Presentation de l’ ´ energie de Van der Waals . . . . . . . . . . . . . . . . ´ 19 2.5 Exemples de diagrammes d’EvsRMS pour ROS . . . . . . . . . . . . . 24 2.6 Meilleurs exemples de diagrammes d’EvsRMS pour ROS . . . . . . . . 24 2.7 Illustration de l’algorithme gen´ eral de R ´ OGER . . . . . . . . . . . . . . . 29 2.8 Methodologie d’optimisation de la fonction de score atomique . . . . . . ´ 30 2.9 Repartition de la valeur des coefficients par poids et contrainte . . . . . ´ 33 2.10 Repartition de la valeur des coefficients par poids . . . . . . . . . . . . . ´ 34 2.11 Courbes ROC de ROS et POS sur la PRIDB et les Benchmarks . . . . . 36 2.12 Courbes ROC de POS sur la PRIDB . . . . . . . . . . . . . . . . . . . . 37 ixTable des figures 2.13 Diagrammes d’EvsRMS d’interactions differentes propos ´ ees par POS . ´ 38 2.14 Diagrammes d’EvsRMS d’interactions alternatives proposees par POS . ´ 38 3.1 Exemple d’arbre de decision . . . . . . . . . . . . . . . . . . . . . . . . ´ 45 3.2 Arbre de decision appris avec J48 sur la P ´ RIDB . . . . . . . . . . . . . . 54 4.1 Modele gros-grain : exemple de l’uracile . . . . . . . . . . . . . . . . . . ` 58 4.2 Illustration de la construction intuitive d’un diagramme de Vorono¨ı . . . . 61 4.3 Exemple de triangulation de Delaunay, dual du diagramme de Vorono¨ı . 61 4.4 Construction d’une triangulation de Delaunay . . . . . . . . . . . . . . . 62 4.5 L’interface d’une tessellation de Vorono¨ı . . . . . . . . . . . . . . . . . . 63 4.6 Le solvant a l’interface d’une tessellation de Vorono ` ¨ı . . . . . . . . . . . 63 4.7 Mesure des parametres gros-grain ` a partir du diagramme de Vorono ` ¨ı . 64 4.8 Diagrammes d’EvsRMS pour POS avec entonnoirs . . . . . . . . . . . . 67 4.9 Interaction avec le solvant explicite du modele gros-grain . . . . . . . . ` 68 4.10 Courbes de densite des termes de score P1 et P2 . . . . . . . . . . . . ´ 70 4.11 Courbes de densite des termes de score P3 d’acides amin ´ es . . . . . . ´ 71 4.12 Courbes de densite des termes de score P3 des acides nucl ´ eiques . . . ´ 73 4.13 Coefficients de P1 et P3 : la surface d’interaction et le nombre d’acides amines et nucl ´ eiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ 74 4.14 Coefficients de P3 : les proportions d’acides amines et nucl ´ eiques . . . ´ 75 4.15 Coefficients de P4 : les volumes medians . . . . . . . . . . . . . . . . . ´ 76 4.16 Exemple de fonction avec valeurs de centrage . . . . . . . . . . . . . . 80 5.1 Structure 3D de 3 complexes proteine-ARN : ´ etude de cas des partenaires ´ 86 5.2 Diagramme EvsRMS des 3 complexes de l’etude de cas des partenaires ´ 87 5.3 Structure 3D de 3 complexes proteine-ARN : ´ etude de cas du solvant et ´ des ions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 5.4 Diagramme EvsRMS des 3 complexes de l’etude de cas du solvant et ´ des ions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 5.5 Diagramme EvsRMS de 3 complexes avec faible score d’enrichissement 90 5.6 Diagramme EvsRMS de 3 complexes . . . . . . . . . . . . . . . . . . . 92 5.7 Structure 3D d’une interaction de type clef-serrure . . . . . . . . . . . . 93 S1 Diagrammes par complexe de l’energie en fonction du I ´ RMSD (EvsRMS) 123 S2 Diagrammes EvsRMS pour les Benchmarks I et II . . . . . . . . . . . . 137 S3 Diagrammes EvsRMS des complexes avec proteine non li ´ ee . . . . . . ´ 142 xListe des tableaux 1 Matrice de confusion a deux classes . . . . . . . . . . . . . . . . . . . . ` xliii 1.1 Structures 3D, provenance et utilisation pour chaque jeu de donnees . . ´ 7 2.1 Evaluation globale de ROS sur la P ´ RIDB, au seuil du meilleur Fscore . . 22 2.2 Evaluation globale de ROS sur la P ´ RIDB, au seuil du top10 . . . . . . . 23 2.3 Evaluation des contraintes sur les poids compar ´ es´ a la fonction de score ` par defaut . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ 32 2.4 Evaluation du mod ´ ele de pr ` ediction d ´ edi ´ e par cat ´ egorie de complexes . ´ 35 2.5 Exemples types de coefficients des termes de score hbond elev ´ es . . . ´ 39 2.6 Les complexes les plus difficiles a pr ` edire pour POS, avec filtre . . . . . ´ 40 3.1 Repartition des valeurs de chaque terme de score . . . . . . . . . . . . ´ 52 3.2 Evaluation des classifieurs Weka compar ´ es´ a R` OGER lineaire . . . . . . ´ 53 3.3 Evaluation des classifieurs R ´ OGER non lineaire compar ´ es´ a R ` OGER lineaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ 55 4.1 Repartition de termes g ´ eom ´ etriques sur les structures natives de la P ´ RIDB 69 4.2 Resultats gros-grain VOR pour la P ´ RIDB : 12 exemples . . . . . . . . . . 77 4.3 Resultats gros-grain VOR pour la P ´ RIDB : 6 exemples . . . . . . . . . . 78 4.4 Resultats gros-grain positifs pour la P ´ RIDB : 6 exemples . . . . . . . . . 79 4.5 Resultats gros-grain avec valeurs de centrage pour la P ´ RIDB : 6 exemples 81 S1 Resultats globaux des complexes de la P ´ RIDB, seuil du Fscore . . . . . 145 S2 Resultats globaux des complexes de la P ´ RIDB, seuil du top10 . . . . . . 148 S3 Resultats globaux des ´ Benchmarks I et II . . . . . . . . . . . . . . . . . 149 S4 Resultats globaux des complexes avec prot ´ eine non li ´ ee . . . . . . . . . ´ 150 S5 Resultats pour les complexes des ´ Benchmarks I et II . . . . . . . . . . . 151 S6 Resultats pour les complexes avec prot ´ eine non li ´ ee des ´ Benchmarks . 152 S7 Resultats gros-grain pour les complexes de la P ´ RIDB . . . . . . . . . . . 155 S8 Resultats gros-grain positifs pour les complexes de la P ´ RIDB . . . . . . 158 S9 Resultats gros-grain non lin ´ eaire pour les complexes de la P ´ RIDB . . . . 161 S10 Details sur les complexes prot ´ eine-ARN issus de la P ´ RIDB . . . . . . . . 165 S11 Details sur les complexes prot ´ eine-ARN issus des ´ benchmarks I et II . . 167 S12 Resultats atomiques pour les complexes de la P ´ RIDB . . . . . . . . . . 171 xiListe des tableaux xiiRemerciements Ce manuscrit doit son existence a l’interaction entre une multitude de personnes ` evoluant pour une grande part au sein de l’ ´ equipe-projet Inria AMIB (Algorithmes et ´ Modeles pour la Biologie Int ` egrative), qui comprend l’ ´ equipe bioinformatique du LRI ´ (Laboratoire de Recherche en Informatique) de l’Universite Paris-Sud et l’ ´ equipe bioin- ´ formatique du LIX (Laboratoire d’Informatique de Polytechnique) de l’Ecole Polytech- ´ nique. Je souhaite ici dresser un panorama de ces personnes, panorama qui ne se veut ni exhaustif, ni trie par score ou m ´ erite. ´ J’aimerais tout d’abord remercier mes directeurs de these dans leur ensemble pour ` nos discussions scientifiques et pour leur implication au rythme de nos nombreuses reunions. Et plus sp ´ ecifiquement : Julie Bernauer, pour sa minutie et ses mises en ´ perspective ; Jer´ ome Az ˆ e, pour son ´ ecoute et ses propos rassurants ; Christine Froide- ´ vaux, pour sa rigueur et sa supervision tout au long des differentes ´ etapes de la th ´ ese. ` Ce sont mes encadrants qui ont contribue´ a me former sur ce qu’aucun manuel n’a su ` me transmettre. Je tiens aussi a remercier l’ ` equipe bioinfo AMIB au complet pour cette ambiance ´ de travail a la fois studieuse et agr ` eable. Je remercie aussi plus particuli ´ erement les ` doctorants de l’equipe bioinfo AMIB pour leur soutien en cas de besoin et leurs sujets ´ de discussion passionnants sans cesse renouveles. ´ Merci aussi a Sid Chaudhury et Jeff Grey pour leurs conseils avis ` es en mati ´ ere de ` prediction structurale. ´ Je remercie Philippe Dague et Beatrice Duval pour avoir accept ´ e de faire partie de ´ mon jury de these, ainsi qu’Anne Poupon et C ` eline Rouveirol pour avoir aussi accept ´ e´ d’etre les rapporteurs de ce manuscrit. ˆ Un grand merci aux equipes techniques du LRI et du LIX pour leur efficacit ´ e et leur ´ aide au jour le jour sur le support informatique, ainsi que les equipes administratives ´ du LRI comme du LIX et le secretariat de l’ ´ Ecole doctorale pour leur patience. ´ Je remercie l’equipe de communication d’Inria pour leur sympathie et les journ ´ ees ´ de vulgarisation tres instructives. Merci aussi au SIP (Service d’Insertion Profession- ` nelle) pour ses formations sur l’ecriture de textes scientifiques et la prise de parole. Et ´ merci a Mich ` ele Sebag pour ses cours d’apprentissage automatis ` e.´ Je souhaiterais egalement remercier Anne Fourier, pour sa compr ´ ehension, ainsi ´ que son soutien inconditionnel durant les nuits blanches – ou presque – improvisees ´ et les reveils difficiles associ ´ es. ´ Je tiens aussi a signaler qu’une grande partie des calculs n ` ecessaires aux r ´ esultats ´ evalu ´ es au cours de cette th ´ ese n’auraient pas vu le jour en moins de trois ans sans ` la participation de certaines ressources de calcul. Parmi ces ressources se trouvent le cluster de l’equipe bioinfo AMIB, celui du LRI, ainsi que les ressources de CHP (Cal- ´ cul Haute Performance) du TGCC (Tres Grand Centre de calcul du CEA), l’allocation ` t2013077065 attribuee par Genci (Grand ´ Equipement National de Calcul Intensif). ´ Enfin, je remercie le Ministere de l’Enseignement Sup ` erieur et de la Recherche ´ ainsi que toutes les personnes qui ont contribue´ a me fournir la bourse doctorale, sans ` laquelle cette these n’aurait pas d ` ebut ´ e.´ xiiixivIntroduction 1 Contexte Les complexes proteine-ARN jouent un r ´ ole majeur dans la cellule. Ils sont im- ˆ pliques dans de nombreux processus cellulaires tels que la r ´ eplication et la transcrip- ´ tion des ARN messagers. Leur regulation est souvent clef dans les m ´ ecanismes qui ´ mettent en jeu de larges machineries moleculaires (comme le R ´ ISC, RNA-Induced Silencing Complex) impliquees dans les cancers. Les interactions prot ´ eine-ARN pr ´ e-´ sentent donc un grand inter´ et pour les ˆ etudes ´ a vis ` ee th ´ erapeutique [60]. Les prot ´ eines ´ etant capables d’interagir avec l’ARN sont nombreuses et vari ´ ees : leur structure met ´ en œuvre de nombreux domaines structuraux. Entre autres, les domaines RRM et dsRDB montrent tous une activite de liaison ´ a l’ARN et sont tr ` es` etudi ´ es [49]. Ces ´ dernieres ann ` ees, les techniques exp ´ erimentales de r ´ esolution ont mis en ´ evidence de ´ nouvelles structures d’ARN et de complexes proteines-ARN. Gr ´ ace ˆ a la cristallogra- ` phie [133] et a la r ` esonance magn ´ etique nucl ´ eaire (RMN) [227, 239], nous disposons ´ aujourd’hui de structures a haute r ` esolution qui permettent de mieux comprendre les ´ fonctions des ARN et leurs modes d’association [44, 78]. D’autres methodes exp ´ eri- ´ mentales permettent quant a elles d’ ` etudier ´ a basse r ` esolution des structures beau- ´ coup plus grandes [138, 166, 179]. Les experiences sur les mol ´ ecules uniques four- ´ nissent meme des donn ˆ ees ´ a haute r ` esolution [270] et la conception de mol ´ ecules ´ d’ARN est desormais accessible [45]. Malgr ´ e ces avanc ´ ees majeures en biologie ´ structurale pour les ARN et les complexes proteine-ARN, le nombre de structures ´ disponibles dans la Protein Data Bank, base de donnees exp ´ erimentale de r ´ ef´ erence, ´ reste faible : de l’ordre d’un ou deux milliers. La modelisation et la pr ´ ediction de ces ´ complexes sont donc necessaires, bien que difficiles [203]. ´ La modelisation des assemblages mol ´ eculaires est un probl ´ eme complexe et pour ` lequel de nombreuses methodes de pr ´ ediction et d’ ´ evaluation des r ´ esultats ont ´ et´ e´ developp ´ ees [173, 181, 249]. Le challenge international C ´ APRI (Critical Assessment of PRediction of Interactions) 1 [121], qui evalue les pr ´ edictions faites ´ a l’aveugle, a ` montre que, malgr ´ e de grands progr ´ es, les m ` ethodes actuelles d’amarrage ont besoin ´ d’une grande quantite et d’une grande vari ´ et´ e de donn ´ ees exp ´ erimentales [67]. Bien ´ que les techniques recentes soient capables de mieux pr ´ edire et prendre en compte ´ les ions et molecules d’eau qui interviennent dans les interactions [146], la flexibilit ´ e´ des molecules reste un frein majeur. M ´ eme s’il n’est pas aujourd’hui possible de pr ˆ edire ´ 1. http://capri.ebi.ac.uk xvIntroduction les affinites de liaison entre mol ´ ecules, l’originalit ´ e et la qualit ´ e des premiers r ´ esultats ´ obtenus sont encourageantes [146]. Les interactions entre proteines et ARN sont difficiles ´ a pr ` edire, principalement pour ´ deux raisons : la flexibilite des mol ´ ecules d’ARN d’une part et les forces ´ electrostatiques ´ qui guident l’interaction des molecules d’ARN charg ´ ees n ´ egativement d’autre part. Les ´ progres r ` ecents des techniques de pr ´ ediction de structure d’ARN et de repliement ´ [65, 66, 142, 195, 217] permettent de prendre en compte la flexibilite de l’ARN, mais ´ le plus souvent a l’ ` echelle atomique uniquement [85] et ne permettent pas ais ´ ement ´ l’integration dans une proc ´ edure d’amarrage. Cela ne pourra ´ etre fait qu’en disposant ˆ de fonctions de score assez performantes pour selectionner les bonnes conformations. ´ Les adaptations gros-grain qui permettent de reduire notoirement les phases initiales ´ de recherche sont interessantes [153, 229] et les champs de forces statistiques d ´ edi ´ es´ [43, 113, 205, 247, 269] sont prometteurs. Toutefois, ces optimisations sont souvent basees sur de simples mesures et font peu usage des jeux de donn ´ ees ´ a valeur ajout ` ee´ disponibles dans la communaute. La ´ Protein-RNA Interface DataBase (PRIDB) [152] fournit des jeux de donnees nettoy ´ es de qualit ´ e. Disponibles ´ a diff ` erents niveaux de ´ redondance, ils permettent des mesures atomiques precises. Les trois jeux d’essais ´ conc¸us pour l’amarrage protein-ARN et disponibles dans la litterature [9, 112, 204] ´ permettent d’evaluer les pr ´ edictions. ´ Pour l’amarrage, la disponibilite de donn ´ ees structurales est fondamentale pour ´ les methodes d’apprentissage. Plusieurs m ´ ethodes issues de l’apprentissage ont ´ et´ e´ developp ´ ees pour les complexes prot ´ eine-prot ´ eine [6, 18, 15, 22, 27]. Ces m ´ ethodes ´ se sont aver´ ees efficaces pour la r ´ e´evaluation ´ a posteriori (rescoring) et l’optimisation d’experiences d’amarrage ´ in silico, comme l’ont montre les derni ´ eres ` editions de C ´ APRI [251, 272]. Les techniques d’apprentissage sont donc de plus en plus etudi ´ ees et se ´ sont developp ´ ees au sein de la communaut ´ e C´ APRI [148]. Dans ce travail, je me suis interess ´ e au d ´ eveloppement de nouvelles m ´ ethodes ´ d’apprentissage pour les complexes proteine-ARN. Dans cette introduction, apr ´ es avoir ` present ´ e la structure des diff ´ erentes mol ´ ecules mises en jeu ainsi que leurs sp ´ ecificit ´ es´ structurales, je detaillerai les diff ´ erents mod ´ eles de repr ` esentation disponibles. Ensuite, ´ je decrirai le principe des m ´ ethodes d’amarrage et de score. Et j’aborderai enfin les ´ principes et methodes d’apprentissage en lien avec le probl ´ eme de l’amarrage. ` 2 Structure des proteines et des ARN ´ Une proteine est une macromol ´ ecule biologique constitu ´ ee d’un encha ´ ˆınement lineaire d’acides amin ´ es reli ´ es par une liaison peptidique. La prot ´ eine est le r ´ esultat de ´ l’expression d’un gene, port ` e par l’acide d ´ esoxyribonucl ´ eique (ADN), qui est d’abord ´ transcrit en acide ribonucleique (ARN) messager, lui-m ´ eme traduit en prot ˆ eine par ´ le ribosome (voir fig. 1). Les ARN sont formes d’un encha ´ ˆınement lineaire d’acides ´ nucleiques. De nombreux ARN ne codent pas pour des prot ´ eines et ont une structure ´ et une fonction propre. On distingue par exemple les ARN de tranfert (ARNt). Leur fonction est de permettre l’ajout d’un acide amine´ a la cha ` ˆıne d’acides amines d’une ´ xvi2. Structure des proteines et des ARN ´ proteine en cours de synth ´ ese. Les ARNt ont une structure tr ` es particuli ` ere, dite en ` trefle du fait de leur forme en repr ` esentation 2D. ´ E H A D W Y M V S N Noyau ADN ARN polymérase ARN messager ARN de transfert Acide aminé Ribosome Protéine TRANSCRIPTION TRADUCTION E C FIGURE 1 – Du gene ` a la prot ` eine. ´ Le gene (en bleu clair), appartenant ` a une mol ` ecule ´ d’ADN, est transcrit en ARN messager (en beige) par un enzyme : l’ARN polymerase. ´ Puis l’ARN messager est traduit en proteine dans le ribosome. ´ A cette traduction par- ` ticipent notamment les ARN de transfert. Image de J. Bernauer. Dans les conditions physiologiques, la proteine se replie, adoptant par ce biais une ´ conformation compacte specifique. Ce repliement peut ´ etre spontan ˆ e – par l’interaction ´ de la proteine avec le solvant – ou bien se faire gr ´ ace ˆ a des prot ` eines sp ´ ecialis ´ ees, ´ appelees les chaperonnes. Dans certains cas, une maturation peut se produire par ´ l’ajout de glucides ou bien par le clivage de certaines parties de la proteine. Ensuite, ´ la proteine, mature et repli ´ ee, est soit lib ´ er´ ee dans le cytoplasme, soit dirig ´ ee vers une ´ membrane, soit encore excret ´ ee dans le milieu ext ´ erieur. ´ Tout changement, qu’il soit dans les conditions du milieu (temperature, pH, force ´ ionique, presence d’agents chimiques) ou dans l’encha ´ ˆınement des acides amines (par ´ mutagenese ou par modification chimique), peut modifier le repliement de la prot ` eine ´ ou ses interactions et moduler son activite.´ Le repliement des proteines est impos ´ e d’une part par les interactions entre les ´ differents acides amin ´ es qui les composent et, d’autre part, entre ces acides amin ´ es´ et le solvant. Cependant, toutes les interactions ne sont pas parfaitement connues xviiIntroduction et la complexite de ce ph ´ enom ´ ene est telle que, ` a l’heure actuelle, son d ` eroulement ´ est impossible a d ` ecrire. La structure adopt ´ ee par une prot ´ eine de m ´ eme que ses ˆ interactions avec differents partenaires peuvent ´ etre d ˆ etermin ´ ees exp ´ erimentalement ´ mais cette determination peut ´ etre longue et difficile, m ˆ eme avec l’essor des projets de ˆ genomique structurale qui ont mis en place des strat ´ egies de r ´ esolution de structure ´ a haut d ` ebit. ´ Etant donn ´ e le nombre actuellement connu de s ´ equences prot ´ eiques ´ et d’interactions potentielles, la determination exp ´ erimentale de toutes les structures ´ correspondantes n’est pas envisageable. Il faut donc se tourner vers la modelisation, ´ qui tente de prevoir non seulement le repliement des prot ´ eines en partant de leurs ´ sequences, mais aussi la conformation du complexe ´ a partir de la structure de chacun ` de ses partenaires determin ´ ee s ´ epar ´ ement. ´ De la meme fac¸on, le repliement des ARN est d ˆ uˆ a l’interaction entre les nucl ` eotides ´ qui le composent, le solvant et – les molecules d’ARN ´ etant charg ´ ees – les ions. ´ Comme pour les proteines, les interactions mises en jeu lors du repliement sont mal ´ connues. La connaissance de ces interactions est rendue encore plus difficile par les aspects electrostatiques et les liaisons hydrog ´ ene tr ` es nombreuses. Les mol ` ecules ´ d’ARN sont a la fois beaucoup plus flexibles et moins stables que les prot ` eines, ce qui ´ rend a la fois leur r ` esolution exp ´ erimentale et leur mod ´ elisation plus difficiles. ´ On definit plusieurs niveaux d’organisation de la structure des prot ´ eines et des ´ acides nucleiques (voir fig. 2) : ´ – la structure primaire, ou sequence, est l’encha ´ ˆınement des acides amines ou des ´ nucleotides ; ´ – la structure secondaire resulte d’interactions ´ a courte distance (essentiellement ` des liaisons hydrogene entre atomes). Pour les prot ` eines, elles ne d ´ ependent ´ qu’en partie de la nature des chaˆınes laterales des acides amin ´ es impliqu ´ es : ´ certains segments de la proteine adoptent ainsi une conformation p ´ eriodique ´ d’angles diedres successifs. Pour les ARN, ces interactions sont li ` ees ´ a la nature ` des nucleotides et au type d’appariement que ceux-ci peuvent former ; ´ – la structure tertiaire est la forme fonctionnelle repliee d’une cha ´ ˆıne proteique ´ ou nucleique. Elle r ´ esulte de l’assemblage selon une topologie d ´ etermin ´ ee des ´ structures secondaires ; – la structure quaternaire, qui comprend les complexes, est l’association de plusieurs chaˆınes d’acides amines ou d’acides nucl ´ eiques (de cha ´ ˆınes identiques ou non). 2.1 Les acides amines´ Un acide amine est une mol ´ ecule constitu ´ ee d’un carbone asym ´ etrique (appel ´ e´ carbone α ou Cα) lie´ a un groupement carboxyle COOH, un groupement amin ` e NH ´ 2 , un hydrogene H et un radical R, aussi appel ` e la cha ´ ˆıne laterale. ´ Selon la conformation du carbone α, on parle d’acide amine D ou L (voir fig. 3). ´ Les appellations D et L ont et ´ e donn ´ ees ´ a l’origine pour d ` esigner les compos ´ es´ dextrogyres et levogyres. Cependant, la conformation D ou L ne permet pas de pr ´ evoir ´ les propriet ´ es optiques d’un acide amin ´ e. Chaque acide amin ´ e doit son nom ´ a la nature ` de son radical. Les acides amines naturels les plus courants sont au nombre de 20, ´ xviii2. Structure des proteines et des ARN ´ FIGURE 2 – Les differents niveaux de structure : (A) prot ´ eines, (B) ARN. La fonction des ´ assemblages formes est d ´ ependante des diff ´ erents niveaux. Image de J. Bernauer. ´ R Cα - H OOC +H3N R Cα H COONH3 + L-acide aminé D-acide aminé FIGURE 3 – Formes D et L d’un acide amine. Ces formes, non superposables, sont ´ l’image l’une de l’autre dans un miroir. Image de J. Bernauer. xixIntroduction tous de configuration L (voir fig. 4). Certaines proteines contiennent un petit nombre ´ d’acides amines modifi ´ es tels que l’hydroxyproline ou la s ´ el ´ enocyst ´ eine. ´ H2N CH C CH3 OH O H2N CH C CH OH O CH3 CH3 H2N CH C CH2 OH O CH CH3 CH3 H2N CH C CH OH O CH3 CH2 CH3 H2N CH C CH2 OH O H2N CH C CH2 OH O CH2 S CH3 H2N CH C CH2 OH O HN HN C OH O Alanine (Ala,A) Valine (Val,V) Leucine (Leu,L) Isoleucine (Ile,I) Phénylalanine (Phe, F) Méthionine (Met, M) Tryptophane (Trp, W) Proline (Pro, P) Acides aminés non polaires Acides aminés polaires non chargés H2N CH C H OH O H2N CH C CH2 OH O C NH2 O H2N CH C CH2 OH O CH2 C NH2 O H2N CH C CH2 OH O SH H2N CH C CH2 OH O OH H2N CH C CH OH O OH CH3 H2N CH C CH2 OH O OH Glycine (Gly, G) Asparagine (Asn, N) Glutamine (Gln,Q) Cystéine (Cys, C) Sérine (Ser, S) Thréonine (Thr, T) Tyrosine (Tyr, Y) Acides aminés basiques Acides aminés acides H2N CH C CH2 OH O CH2 CH2 CH2 NH3 + H2N CH C CH2 OH O CH2 CH2 NH C NH2 NH2 + H2N CH C CH2 OH O +HN NH H2N CH C CH2 OH O CH2 C O- O H2N CH C CH2 OH O C O- O Lysine (Lys, K) Arginine (Arg, R) Histidine (His, H) Acide glutamique (Glu, E) Acide aspartique (Asp, D) FIGURE 4 – Les 20 acides amines usuels. Image de J. Bernauer. ´ La nature du radical R (aussi appele cha ´ ˆıne laterale) conf ´ ere ` a chaque acide amin ` e´ des propriet ´ es physico-chimiques particuli ´ eres (encombrement st ` erique, hydrophobie, ´ polarite, acidit ´ e, flexibilit ´ e, ´ etc.). Ces propriet ´ es permettent le repliement de la prot ´ eine, ´ garantissent ainsi sa stabilite, et permettent son activit ´ e biochimique. ´ 2.2 Les acides nucleiques ´ Un acide nucleique, comme l’ARN ou l’ADN, est form ´ e de sous-unit ´ es appel ´ ees des ´ nucleotides. Les nucl ´ eotides sont form ´ es d’une base azot ´ ee appel ´ ee une base, d’un ´ cycle a cinq atomes de carbone appel ` e un sucre (ribose pour l’ARN et d ´ esoxyribose ´ pour l’ADN) et d’un groupement phosphate (voir fig. 5). Comme pour les acides amines, ´ pour les nucleotides, les parties correspondant au squelette – ´ a savoir le sucre et le ` groupement phosphate – sont identiques pour tous les nucleotides. Ceux-ci ne diff ´ erent ` donc que par leurs bases. xx2. Structure des proteines et des ARN ´ FIGURE 5 – Les nucleotides. Image de Wikipedia. ´ On distingue principalement cinq types de bases : l’adenine (A), la guanine (G), ´ la cytosine (C), l’uracile (U) et la thymine (T). Elles appartiennent a deux familles ` differentes : les purines, qui sont form ´ ees de deux cycles aromatiques (l’un ´ a cinq ` et l’autre a six atomes), et les pyrimidines qui sont form ` ees d’un cycle aromatique ´ a` six atomes. L’ARN contient principalement les quatre bases A,U,G et C. Il existe aussi d’autres nucleotides parfois en interaction dans un complexe prot ´ eine-ARN : ce sont les ´ nucleotides non standards. Ces nucl ´ eotides non standards sont g ´ en´ eralement obtenus ´ par l’ajout ou le retrait d’un groupement chimique a la base azot ` ee. ´ 2.3 La structure primaire ou sequence ´ 2.3.1 Definition ´ La structure primaire d’une proteine, ´ egalement appel ´ ee cha ´ ˆıne polypeptidique, est l’enchaˆınement de ses acides amines. Lors de la traduction, le groupement acide d’un ´ acide amine est li ´ e au groupement amin ´ e de l’acide amin ´ e suivant ; cette liaison est ´ appelee liaison peptidique. La nature de cette liaison impose certaines contraintes ´ spatiales : en particulier, le C et le O du groupement carboxyle du premier acide amine,´ ainsi que le N et le Cα de l’acide amine suivant sont coplanaires (voir fig. 6). ´ Les liaisons covalentes etablies lors de la traduction ne sont g ´ en´ eralement pas ´ modifiees. Les exceptions peuvent ´ etre la coupure de certaines parties de la cha ˆ ˆıne proteique, l’ ´ etablissement de ponts disulfure entre deux cyst ´ eines ou encore la liaison ´ avec des glucides lors de la maturation. Une proteine comprend entre 30 et 30 000 ´ acides amines, la moyenne se situant autour de 330 [268]. On appelle squelette de la ´ proteine, la cha ´ ˆıne des N, Cα, C, et O de tous les acides amines qui la constituent. ´ La structure primaire d’un ARN est la succession de ses nucleotides. Les bases ´ etant form ´ ees de cycles aromatiques, elles sont planes. Les bases s’apparient de la ´ fac¸on suivante : l’adenine forme deux liaisons hydrog ´ ene avec l’uracile et la guanine ` forme trois liaisons hydrogene avec la cytosine (voir fig. 7). Cette derni ` ere paire est ` donc plus stable. xxiIntroduction FIGURE 6 – Geom ´ etrie de la liaison peptidique telle que d ´ ecrite par Linus Pauling [197], ´ figure 1. FIGURE 7 – Appariement des nucleotides et h ´ elice d’ADN. Image adapt ´ ee de ´ Wikipedia. xxii2. Structure des proteines et des ARN ´ 2.3.2 Determination ´ La determination de la s ´ equence d’une prot ´ eine est une ´ etape indispensable de son ´ etude. En effet, la s ´ equence donne non seulement des informations sur le repliement ´ de la proteine (surtout s’il est possible de d ´ etecter des similitudes avec des prot ´ eines ´ dont la structure est connue), mais egalement sur sa fonction et sur sa localisation ´ cellulaire. Cette determination se fait g ´ en´ eralement de mani ´ ere indirecte, par traduction de ` la sequence du g ´ ene. De nombreuses techniques peuvent ` etre utilis ˆ ees ´ a des fins de ` sequenc¸age ´ a grande ` echelle [111]. ´ Cette methode ne permet cependant pas de conna ´ ˆıtre d’elements tels que les ´ ev´ enements post-traductionnels, en particulier les substitutions, les glycosylations ou ´ les del ´ etions d’une partie de la cha ´ ˆıne. Pour connaˆıtre directement la structure primaire d’une proteine de petite taille (moins de 150 acides amin ´ es), il est possible d’utiliser la ´ spectroscopie de masse [237]. Mais la sequence peut ´ egalement ´ etre d ˆ ecoup ´ ee – par ´ digestion enzymatique ou chimique – en tronc¸ons d’une longueur inferieure ´ a 30 acides ` amines. La s ´ equence de l’ensemble de ces tronc¸ons peut ensuite ´ etre d ˆ etermin ´ ee par ´ micro-sequenc¸age. ´ La determination d’une s ´ equence d’ARN se fait par s ´ equenc¸age, soit directement, ´ soit par conversion en ADN complementaire (ADNc) ´ a l’aide d’une transcriptase in- ` verse. 2.4 La structure secondaire 2.4.1 Definition ´ On appelle structure secondaire reguli ´ ere une partie de la cha ` ˆıne adoptant une conformation periodique. Ces structures sont stabilis ´ ees par des r ´ eseaux de liaisons ´ hydrogene entre les acides amin ` es non voisins dans la cha ´ ˆıne polypeptidique. Les premieres structures secondaires ont ` et´ e d ´ efinies par Linus Pauling en 1951 ´ [196, 197] : l’helice ´ α et le brin β. Ce sont deux structures secondaires tres largement ` majoritaires dans les proteines. Ces organisations mol ´ eculaires d’une part minimisent ´ les genes st ˆ eriques et les r ´ epulsions ´ electrostatiques entre les cha ´ ˆınes laterales et ´ maximisent le nombre de liaisons hydrogene : elles sont donc tr ` es largement favoris ` ees ´ [128]. Dans une proteine, en moyenne, la moiti ´ e des acides amin ´ es est impliqu ´ ee dans ´ des structures secondaires reguli ´ eres. L’autre moiti ` e des r ´ esidus se trouve impliqu ´ ee´ dans des boucles reliant entre elles les structures secondaires reguli ´ eres. En moyenne, ` la longueur d’un brin β est de cinq acides amines, celle d’une h ´ elice ´ α est de six acides amines, tandis que celle d’une boucle est de douze acides amin ´ es [51]. ´ L’helice ´ α est stabilisee par des liaisons hydrog ´ ene entre des acides amin ` es de la ´ meme h ˆ elice – des acides amin ´ es distants de seulement 3, 5 r ´ esidus en moyenne dans ´ la chaˆıne polypeptidique (voir fig. 8). Meme isol ˆ ee, l’h ´ elice ´ α est stable. Au contraire, le brin β n’est stable qu’associe´ a au moins un autre brin ` β, formant ainsi un feuillet (voir fig. 9). Les brins d’un feuillet peuvent etre tous dans le m ˆ eme sens ˆ xxiiiIntroduction FIGURE 8 – Helice ´ α telle que represent ´ ee dans l’article original de Linus Pauling [197], ´ figure 2. xxiv2. Structure des proteines et des ARN ´ – on parle alors de brins paralleles – ou bien ` etre positionn ˆ es alternativement dans un ´ sens et dans l’autre – on parle alors de brins antiparalleles. Les liaisons hydrog ` ene ` FIGURE 9 – Brins β tels que represent ´ es dans l’article original de Linus Pauling [196]. ´ assurant la cohesion des acides amin ´ es entre eux s’ ´ etablissent entre acides amin ´ es´ distants dans la sequence. ´ La quantite et l’agencement des structures secondaires r ´ eguli ´ eres conduisent ` a` classer les proteines en cinq cat ´ egories : tout- ´ α, tout-β, α/β (alternance d’helices ´ α et de brins β), α+β (structures contenant des helices ´ α et des brins β sans alternance), et ”autres” [185, 191]. La structure secondaire des ARN correspond aux motifs cre´es par les diff ´ erents ´ appariements des nucleotides. Alors que l’ADN existe principalement sous forme de ´ doubles helices compl ´ etement appari ` ees, l’ARN est souvent simple brin et forme de ´ nombreux motifs varies. L’ARN est en effet plus flexible et peut former des structures ´ plus complexes, du fait des liaisons hydrogene possibles avec le groupement hydroxyle ` du sucre. On distingue plusieurs motifs de structures secondaires pour l’ARN : les helices et ´ differents types de boucles. Les encha ´ ˆınements possibles de ces el ´ ements sont parfois ´ classes en familles de structures secondaires : les tetraloops, les pseudonœuds, les ´ tiges-boucles, etc. Bien qu’etant un motif de structure tertiaire, pour les acides nucl ´ eiques, l’h ´ elice ´ depend de la structure secondaire : en effet, elle correspond ´ a une r ` egion de structure ´ secondaire formee de paires de bases cons ´ ecutives. ´ La tige-boucle est un motif qui correspond a une h ` elice termin ´ ee par une courte ´ boucle de nucleotides non appari ´ es (voir fig. 10). C’est un motif extr ´ emement courant ˆ et qu’on retrouve dans des motifs plus grands tels que le trefle ` a quatre feuilles qui ` caracterise les ARN de transfert. Les boucles internes, s ´ erie de bases non appari ´ ees ´ au sein d’une helice, et les renflements, r ´ egions dans lesquelles un brin est compos ´ e´ de bases inser´ ees ”en plus” non appari ´ ees sont aussi fr ´ equentes. Ces r ´ egions sont ´ aussi parfois appelees jonctions. ´ Les pseudonœuds correspondent a une structure secondaire disposant de deux ` xxvIntroduction FIGURE 10 – Exemple de motifs de structure secondaire d’ARN : A) la tige boucle B) le pseudonœud. Image adaptee de Wikipedia. ´ tiges-boucles et dans laquelle la moitie d’une tige est intercal ´ ee entre les deux moiti ´ es´ de l’autre tige (voir fig. 10). Les pseudonœuds se replient en 3D en forme de nœuds mais ne sont pas des nœuds au sens topologique. De multiples processus biologiques reposent sur la formation de pseudonœuds (l’ARN de la telom ´ erase humaine par ex- ´ emple). Bien que l’ADN puisse former des pseudonœuds, ceux-ci ne sont trouves´ naturellement que chez les ARN. 2.4.2 Determination ´ a partir d’une solution ` A partir d’une solution de prot ` eine purifi ´ ee, il est possible d’estimer la composition ´ globale en structures secondaires reguli ´ eres (nombre d’acides amin ` es participant ´ a` des brins β ou a des h ` elices ´ α) par des methodes spectroscopiques : ´ – dichro¨ısme circulaire vibrationnel ou ultra-violet [194] ; – spectroscopie infrarouge [202] ; – spectroscopie Raman [4] ; – analyse des deplacements chimiques en RMN (r ´ esonance magn ´ etique nucl ´ eaire) ´ [258]. Cependant, pour les proteines, l’unique moyen de d ´ eterminer avec pr ´ ecision la position ´ dans la structure tertiaire de ces structures secondaires reguli ´ eres reste de d ` eterminer ´ completement la structure tertiaire. Pour l’ARN, la structure secondaire est en plus ` accessible grace ˆ a la structure tertiaire, mais celle-ci est bien plus difficile ` a r ` esoudre ´ experimentalement. Il est toutefois possible d’obtenir la structure secondaire de fac¸on ´ experimentale : soit par s ´ equenc¸age, soit ´ a l’aide de m ` ethodes de sondage. On peut ´ citer les sondages par modification chimique utilisant : – les radicaux hydroxyles, qui attaquent les cycles des sucres exposes [129, 246] ; ´ – le DMS (dimethyl sulfate), qui modifie certaines bases en les methylant, et les ´ sites qui ne peuvent plus ensuite s’apparier sont detect ´ es par RT-PCR [241] ; ´ – le CMCT (1-Cyclohexyl-3-(2-Morpholinoethyl)Carbodiimide metho-p-Toluene sulfonate), qui modifie les uridines et les guanines exposees (suivi aussi d’une ´ detection par RT-PCR) [88] ; ´ – le kethoxal (1,1-Dihydroxy-3-ethoxy-2-butanone), qui modifie aussi les guanines exposees [97] ; ´ – et la methode de sondage S ´ HAPE (Selective 2’-Hydroxyl Acylation analyzed by xxvi2. Structure des proteines et des ARN ´ Primer Extension), qui comprend des reactifs ayant une pr ´ ef´ erence pour les ´ zones flexibles du squelette de l’ARN [176]. Il existe aussi des methodes de sondage sans traitement chimique ´ (In-line probing) qui permettent de voir les changements structuraux dus aux interactions [97] ou de cartographie par interference utilisant des analogues de nucl ´ eotides ´ (NAIM) [219]. 2.4.3 Determination ´ a partir des coordonn ` ees atomiques ´ Meme lorsqu’on dispose des coordonn ˆ ees atomiques d’une prot ´ eine, il n’est pas ´ evident d’identifier les structures secondaires r ´ eguli ´ eres. Bien ` evidemment, il ne s’agit ´ plus ici de determiner le nombre et la nature des structures secondaires r ´ eguli ´ eres, ` mais plutot de d ˆ eterminer la position exacte de leurs extr ´ emit ´ es dans la s ´ equence. ´ Il existe de nombreux programmes permettant de realiser l’attribution des structures ´ secondaires des proteines, ´ a savoir : dire ` a quel type de structure secondaire participe ` chaque acide amine. La comparaison de ces programmes montre que les r ´ esultats ´ obtenus par les differentes m ´ ethodes peuvent ´ etre assez diff ˆ erents au niveau des lim- ´ ites de chaque structure secondaire. Pour les ARN, la determination des structures secondaires est bien plus simple. ´ L’attribution d’une structure secondaire aux acides nucleiques des extr ´ emit ´ es peut ´ etre ˆ delicate, mais de nombreux programmes proposent cette d ´ etermination. ´ 2.4.4 Prediction ´ La prediction des structures secondaires est une ´ etape int ´ eressante de l’ ´ etude ´ d’une proteine. En effet, elle permet d’ ´ emettre des hypoth ´ eses sur la nature du repliement, ` aide a localiser des r ` esidus du site actif, ou encore ´ a donner une hypoth ` ese quant ` a` la localisation de la proteine dans la cellule (en particulier pour les prot ´ eines mem- ´ branaires). Il existe un certain nombre de logiciels de prediction de structure secondaire, fond ´ es´ sur des methodes diff ´ erentes [87, 216]. D ´ esormais, les pr ´ edictions obtenues sont ex- ´ actes a plus de 75 %, comme le montrent les r ` esultats de l’exp ´ erience C ´ ASP. De la meme fac¸on, la pr ˆ ediction des structures secondaires est un champ de ´ recherche tres actif. De nombreuses techniques ont ` et´ e d ´ evelopp ´ ees [110, 171, 210, ´ 230, 274]. Une des difficultes majeures est ensuite de savoir dans quelle mesure les ´ structures locales des bases affectent la structure tertiaire des ARN. 2.5 La structure tertiaire 2.5.1 Definition ´ La structure tertiaire d’une proteine est la description du repliement d’une cha ´ ˆıne polypeptidique en sa forme fonctionnelle, ainsi que des liaisons covalentes apparues apres la traduction (essentiellement les ponts disulfure), la pr ` esence ´ eventuelle d’ions ´ ou de cofacteurs plus complexes (heme, flavine ad ` enine dinucl ´ eotide ou FAD...). Les ´ structures tertiaires sont tres vari ` ees et tr ´ es complexes. ` xxviiIntroduction Les chaˆınes polypeptidiques de grande taille (plus de 200 acides amines) se replient ´ souvent en plusieurs regions fonctionnelles. On parle de domaine si ces unit ´ es fonc- ´ tionnelles adoptent un repliement stable lorsqu’elles sont isolees. ´ Quand deux sequences prot ´ eiques pr ´ esentent plus de 30 % d’identit ´ e de s ´ equence, ´ elles adoptent le meme repliement [47, 221]. En dessous de ce seuil, il est difficile ˆ de prevoir, par les m ´ ethodes classiques d’alignement de s ´ equence, si deux prot ´ eines ´ vont adopter la meme structure tertiaire. De plus, certaines prot ˆ eines adoptent des ´ repliements similaires sans presenter d’identit ´ e de s ´ equence d ´ etectable ; c’est le cas ´ notamment de la superfamille des immunoglobulines [102]. Le repliement repose principalement sur des interactions a courte distance. Ces ` interactions ont lieu, d’une part, entre les acides amines enfouis dans la prot ´ eine, et, ´ d’autre part, entre les acides amines de la surface et les mol ´ ecules du solvant [215]. ´ Ces interactions sont des liaisons hydrogene, des ponts salins ou des liaisons de type ` Van der Waals. La structure tertiaire des ARN est, de la meme fac¸on, la description du repliement ˆ de la chaˆıne polynucleotidique en sa forme 3D fonctionnelle. Celle-ci repose princi- ´ palement sur les appariements Watson-Crick (GC et AU) qui forment les helices. Dans ´ les acides nucleiques, les h ´ elices sont des polym ´ eres en forme de spirale, en g ` en´ eral ´ droite, contenant deux brins de nucleotides appari ´ es. Un tour d’h ´ elice est constitu ´ e´ d’environ 10 nucleotides et contient un grand et un petit sillon. ´ Etant donn ´ e la diff ´ erence ´ de largeur entre le petit et le grand sillon, de nombreuses proteines se lient par le grand ´ sillon. De nombreux types d’helices sont possibles : pour l’ARN, on rencontre princi- ´ palement des helices A. ´ 2.5.2 Determination ´ La premiere structure de prot ` eine r ´ esolue a ´ et´ e celle de la myoglobine [134] par ´ cristallographie aux rayons X. A l’heure actuelle, la ` Protein Data Bank (PDB) [13, 14], banque de donnees des structures tridimensionnelles des prot ´ eines, contient plus ´ de 33 000 fichiers, dont environ 28 000 correspondent a des structures r ` esolues par ´ cristallographie et 5 000 a des structures r ` esolues par RMN (dans sa version ´ PDB 2004 archives release #1). D’autres methodes de r ´ esolution de structure peuvent aussi ´ etre ˆ utilisees, mais elles restent pour l’instant moins efficaces. ´ Ces methodes, m ´ eme si leurs performances se sont beaucoup am ˆ elior ´ ees, en ´ particulier avec l’apparition des projets de genomique structurale, restent tributaires ´ de conditions experimentales restrictives. La cristallographie n ´ ecessite l’obtention de ´ cristaux diffractants, ce qui demande beaucoup de materiel et de travail. Quant ´ a la ` RMN, meme si la contrainte du cristal est supprim ˆ ee, elle ne peut s’appliquer que sur ´ des proteines relativement petites (moins de 300 r ´ esidus) et il faut obtenir une quan- ´ tite importante de solution de prot ´ eine pure ´ a plus de 95 %. ` Etant donn ´ e le nombre ´ de sequences connues ´ a l’heure actuelle, il n’est donc pas envisageable de r ` esoudre ´ toutes les structures correspondantes. Par exemple pour la cristallographie X, selon la proteine et la qualit ´ e du cristal, ´ on connaˆıt la structure avec une resolution plus ou moins bonne. ´ A basse r ` esolution ´ (superieure ´ a 3 ` A), on conna ˚ ˆıt le squelette de la proteine et les structures secondaires. ´ xxviii2. Structure des proteines et des ARN ´ A moyenne r ` esolution, on peut observer les interactions entre acides amin ´ es, en par- ´ ticulier les liaisons hydrogene et les interactions de type Van der Waals. ` A haute ` resolution (moins de 1.5 ´ A), on peut d ˚ eterminer avec pr ´ ecision longueurs et angles des ´ liaisons, l’hydratation, et les mouvements atomiques autour des positions d’equilibre. ´ Ces methodes sont aussi utilis ´ ees pour les ARN, mais ceux-ci sont plus flexibles ´ et beaucoup moins stables, ce qui rend leur resolution beaucoup plus complexe. Alors ´ que la Protein Data Bank contient aujourd’hui plus de 100 000 structures, quelques milliers d’entre elles seulement correspondent a des structures d’ARN. ` 2.5.3 Prediction ´ Modelisation par homologie ´ Lorsqu’on peut etablir une similitude entre la s ´ equence ´ dont on cherche la structure et une sequence dont la structure tridimensionnelle est ´ connue (support), il est possible de construire un modele de la structure recherch ` ee. ´ Un modele obtenu de la sorte est d’autant plus pr ` ecis que l’identit ´ e de s ´ equence en- ´ tre le support et la sequence ´ a mod ` eliser est forte. Pour de faibles taux d’identit ´ e, on ne ´ connaˆıt avec precision, dans le mod ´ ele, que les acides amin ` es strictement conserv ´ es, ´ et les parties ne comportant pas de longues insertions/del ´ etions. Le mod ´ ele obtenu ` n’est donc pas l’equivalent d’une structure d ´ etermin ´ ee par des m ´ ethodes physiques. ´ Cependant, il rend souvent compte du comportement du site actif ou encore des parties de la proteine n ´ ecessaires ´ a son repliement ou ` a son interaction avec des parte- ` naires. Les methodes d’enfilage ´ Les methodes d’enfilage, ou ´ threading, permettent de tester la compatibilite d’une s ´ equence avec un repliement [240]. Dans ce cas, pour ´ une sequence donn ´ ee, on cherche parmi les structures connues, celle qui est la plus ´ compatible avec la sequence dont on dispose. ´ La modelisation ´ ab initio La finalite des techniques de mod ´ elisation ´ ab initio est de predire la structure d’une prot ´ eine ´ a partir de sa seule s ` equence. De nombreux ´ modeles de calculs sont utilis ` es, faisant appel par exemple ´ a la dynamique mol ` eculaire. ´ Mais, meme si les progr ˆ es sont cons ` equents, les r ´ esultats sont tr ´ es variables, comme ` l’atteste l’experience ´ CASP [25] ou l’etat du projet ´ folding@home 2 . Evaluation des pr ´ edictions : l’exp ´ erience C ´ ASP 3 L’experience C ´ ASP (Critical Assessment of Methods of Protein Structure Prediction) est une competition qui a lieu ´ tous les deux ans depuis 1994 et a pour objectif de tester les methodes de pr ´ ediction ´ de structure. Des proteines, dont la structure vient d’ ´ etre r ˆ esolue mais pas encore ´ publiee, sont propos ´ ees aux pr ´ edicteurs. Ceux-ci doivent tenter de pr ´ edire, selon la ´ categorie, la structure ´ ab initio, la structure par homologie ou la structure secondaire. 2. http://folding.stanford.edu/ 3. http://predictioncenter.org/ xxixIntroduction Les evaluations des pr ´ edictions [62, 141, 182] montrent d’importants progr ´ es dans la ` prediction de structure ´ ab initio (voir fig. 11). FIGURE 11 – Predictions issues d’une session de C ´ ASP. Predictions de structures ´ obtenues a l’aide du logiciel Rosetta [29] pour ` CASP6. Image originale en couverture du journal PROTEINS : Structure, Function, and Bioinformatics, volume 61 du 26 septembre 2005. Ces techniques s’appliquent aux proteines et aux ARN, avec plus de succ ´ es pour ` les proteines. ´ 2.6 La structure quaternaire 2.6.1 Definition ´ La structure quaternaire est la geom ´ etrie de l’association de plusieurs sous-unit ´ es´ proteiques ou nucl ´ eiques. Certaines prot ´ eines ne sont fonctionnelles que sous forme ´ d’oligomeres. Il existe des oligom ` eres form ` es de sous-unit ´ es identiques, comme par ´ exemple le tetram ´ ere de la thymidylate synthase X, et des oligom ` eres r ` eunissant des ´ sous-unites diff ´ erentes, comme les histones. On parlera alors de complexes. Enfin, cer- ´ taines proteines forment des polym ´ eres, constitu ` es d’un tr ´ es grand nombre de sous- ` unites, comme les polym ´ eres actine/myosine dans les muscles. ` L’association de ces sous-unites est stabilis ´ ee par des interactions ´ a courte dis- ` tance, similaires a celles qui assurent la stabilit ` e de la structure tertiaire (essentielle- ´ xxx2. Structure des proteines et des ARN ´ ment des liaisons hydrogene, des ponts salins et des interactions hydrophobes) [48, ` 125]. 2.6.2 Determination ´ L’existence d’oligomeres de cha ` ˆınes proteiques ou nucl ´ eiques, qu’elles soient ou ´ non identiques, peut etre d ˆ etermin ´ ee par filtration sur gel ou centrifugation analytique ´ par exemple. Mais leur existence peut aussi etre d ˆ etermin ´ ee par des m ´ ethodes de ´ biochimie et de biologie moleculaire plus pouss ´ ees et qui peuvent ´ etre utilis ˆ ees de ´ maniere syst ` ematique, telles que, pour les prot ´ eines, l’analyse double-hybride [116], ´ l’analyse par TAP-tag (ou FLAP-tag) couplee´ a la spectrom ` etrie de masse [92, 109]. ´ La geom ´ etrie de l’association peut ´ etre d ˆ etermin ´ ee´ a basse r ` esolution par diffusion ´ des rayons X ou des neutrons aux petits angles, chromatographie sur gel ou encore par microscopie electronique ´ a la fois pour les prot ` eines ou les ARN. ´ La connaissance de l’interaction au niveau des acides amines peut se faire, soit ´ directement par la determination de la structure par cristallographie aux rayons X, soit ´ par l’etude des interactions par RMN, ou encore indirectement, par mutagen ´ ese dirig ` ee´ ou modification chimique selective des cha ´ ˆınes laterales de certains acides amin ´ es. ´ Mais, en plus des contraintes associees aux deux m ´ ethodes vues pr ´ ec´ edemment, s’a- ´ joutent les contraintes inherentes aux complexes, telles que la taille, mais aussi, et ´ surtout, leur instabilite. En effet, pour pouvoir ´ etre ˆ etudi ´ e d’un point de vue structural, ´ un complexe doit etre stable dans les conditions requises. Or, de tr ˆ es nombreux com- ` plexes sont transitoires. Ainsi, meme s’il est d ˆ esormais possible d’obtenir la structure ´ de nombreuses proteines isol ´ ees de plus en plus rapidement, la r ´ esolution des struc- ´ tures de complexes reste difficile. 2.6.3 Prediction ´ Le premier modele de complexe prot ` eine-prot ´ eine (trypsine/inhibiteur) a ´ et´ e r ´ ealis ´ e´ en 1972 [20]. C’est en 1978 qu’est apparu le premier algorithme d’amarrage [259]. Les procedures d’amarrage utilisent les coordonn ´ ees atomiques des deux macromol ´ ecules ´ partenaires, gen´ erent un grand nombre de conformations et leur attribuent un score ` [260]. Cette modelisation est en g ´ en´ eral assimil ´ ee´ a la recherche de modes d’asso- ` ciation complementaires entre deux mol ´ ecules de forme pr ´ ed´ efinie. Un certain degr ´ e´ de flexibilite peut parfois ´ etre pris en compte, mais en g ˆ en´ eral, l’amarrage prot ´ eine- ´ proteine et prot ´ eine-ARN est principalement envisag ´ e dans une approche d’associa- ´ tion de corps rigides. Ces methodes s’appliquent ´ a des prot ` eines et acides nucl ´ eiques diff ´ erents, mais ´ peuvent aussi etre envisag ˆ ees pour d ´ eterminer l’ ´ etat d’oligom ´ erisation d’une prot ´ eine ´ ou d’un ARN. Elles peuvent prendre en compte les symetries connues comme pour ´ les proteines virales [12, 52, 199, 224], mais aussi utiliser des ´ etudes plus fines des ´ interfaces [19, 7, 200, 271]. xxxiIntroduction 3 Les complexes proteine-prot ´ eine et prot ´ eine-ARN ´ 3.1 Fonctions Au niveau moleculaire, la fonction d’une prot ´ eine ou d’un ARN est souvent subor- ´ donnee´ a l’interaction avec un certain nombre de partenaires. Les complexes inter- ` viennent a de nombreux niveaux et la compr ` ehension de leur m ´ ecanisme de forma- ´ tion/association permet de mieux comprendre de nombreux processus. Pour se rendre compte de leur importance, on peut citer des assemblages tels que le ribosome, les anticorps/antigenes, les capsides virales ou encore les microtubules. Ainsi, la fonction ` d’une proteine ou d’un ARN ne peut ´ etre envisag ˆ ee sans tenir compte des interactions. ´ 3.2 Detection exp ´ erimentale biochimique prot ´ eine-prot ´ eine ´ Les interactions proteine-prot ´ eine sont pr ´ esentes partout et en grand nombre. C’est ´ la raison pour laquelle de nouvelles methodes exp ´ erimentales d’analyse syst ´ ematique ´ sont developp ´ ees [123]. Deux types sont pr ´ esent ´ es dans la suite, les m ´ ethodes d’anal- ´ yse par double-hybride et celles utilisant des marqueurs. 3.2.1 Le double-hybride sur la levure La premiere m ` ethode utilis ´ ee pour ´ etudier dans la levure les interactions prot ´ eine- ´ proteine ´ a grande ` echelle a ´ et ´ e l’analyse par double hybride. Cette technique, mise ´ au point en 1989, permet la detection indirecte de l’interaction, car celle-ci induit la ´ formation d’un complexe moleculaire activant un g ´ ene rapporteur [81] (voir fig. 12). ` Cependant, dans cette detection, le nombre de faux positifs (les interactions d ´ etect ´ ees ´ mais non presentes) et de faux n ´ egatifs (les interactions pr ´ esentes non d ´ etect ´ ees) est ´ tres important. C’est donc une m ` ethode relativement peu fiable, ´ a moins de refaire un ` grand nombre de fois ces experiences, en plus d’exp ´ eriences compl ´ ementaires, ce qui ´ est relativement couteux et long dans une approche g ˆ enomique. ´ De plus, cette methode ne peut d ´ etecter dans sa forme originelle que des com- ´ plexes binaires. Or, la detection et la caract ´ erisation de complexes multiprot ´ eiques sont ´ tres importantes. ` Deux etudes sur la levure utilisent le double-hybride pour la d ´ etection syst ´ ematique ´ [116, 248]. Il est toutefois tres difficile de comparer ces ` etudes entre elles, en raison ´ principalement des problemes de fiabilit ` e dus aux contraintes exp ´ erimentales. ´ 3.2.2 Utilisation de marqueurs (TAP-tag et FLAP-tag) Deux autres etudes ont ´ et ´ e men ´ ees sur la levure ´ S. cerevisiae [92, 109] pour identifier et comprendre le role de complexes cellulaires dans la cellule eucaryote. Des ˆ centaines de sequences codantes de levure ont ´ et´ e fusionn ´ ees ´ a des cassettes d’ADN ` codant pour des marqueurs de purification. Puis, les souches de levure ont et´ e cul- ´ tivees, chacune exprimant une prot ´ eine cible marqu ´ ee, et soumises ´ a une proc ` edure ´ xxxii3. Les complexes proteine-prot ´ eine et prot ´ eine-ARN ´ Gal4 BD X Gal4 AD Y Gal4 BD X Gal4 AD Y Gal4 BD X Gal4 AD Y ARN Polymerase LacZ Interaction protéine-protéine Identification des colonies bleues X GalBD Y GalAD Vecteur appât Vecteur cible FIGURE 12 – Schema de principe de d ´ etection des interactions prot ´ eine-prot ´ eine par ´ double-hybride chez la levure. La proteine Gal4 est l’activateur naturel des diff ´ erents ´ genes intervenant dans le m ` etabolisme du galactose. Elle agit en se fixant sur des ´ sequences appel ´ ees UASG ´ (Upstream Activating Sequence GAL) qui regulent la tran- ´ scription. Les proteines ´ etudi ´ ees (X et Y), partenaires potentiels d’interaction, sont ´ fusionnees, l’une au domaine de fixation de Gal4 sur l’ADN (domaine DBD ou ´ DNA Binding Domain), et l’autre au domaine de Gal4 activant la transcription (domaine AC ou Activation Domain). C’est ce qui donne a ce syst ` eme le nom de double-hybride. ` Quand il y a interaction entre X et Y, les domaines DBD (DNA-Binding Domain) et AD (Activation Domain) sont associes et forment un activateur de transcription DBD- ´ X/Y-AD. C’est cet activateur hybride qui va se lier a l’ADN au niveau des s ` equences ´ qui controlent le g ˆ ene rapporteur (les s ` equences UASG), permettant la transcription du ´ gene par l’ARN polym ` erase II. Il suffit ensuite d’observer le produit du g ´ ene rapporteur, ` pour voir si un complexe s’est forme entre les prot ´ eines X et Y. Souvent, le g ´ ene LacZ ` est inser´ e dans l’ADN de la levure juste apr ´ es le promoteur Gal4, de fac¸on ` a ce que, ` si l’interaction a lieu, le gene LacZ, qui code pour la ` β-galactosidase, soit produit. Sur un substrat approprie, la ´ β-galactosidase devient bleue, ce qui permet de determiner ´ simplement si l’interaction a lieu. Image de J. Bernauer. xxxiiiIntroduction dans laquelle les complexes entiers, contenant la proteine marqu ´ ee, ont ´ et´ e purifi ´ es. ´ Ensuite, les complexes ont et ´ e fractionn ´ es par ´ electrophor ´ ese sur gel et leurs com- ` posants identifies par spectrom ´ etrie de masse. ´ Il est tres difficile de comparer les r ` esultats obtenus par ces ´ etudes car les jeux ´ utilises ne sont pas identiques et le prot ´ eome complet de la levure n’a pas pu ´ etre ˆ analyse. Globalement, ces ´ etudes donnent des r ´ esultats en accord avec celles r ´ ealis ´ ees ´ prec´ edemment, mais dans le d ´ etail, les r ´ esultats et la compl ´ etude des donn ´ ees ne per- ´ mettent pas de conclure. De plus, il est aussi difficile, pour les memes raisons, de comparer les ˆ etudes util- ´ isant des marqueurs et les etudes de double-hybride pr ´ esent ´ ees pr ´ ec´ edemment. ´ L’ensemble de ces etudes exp ´ erimentales permet de pr ´ edire environ 15 000 com- ´ plexes proteine-prot ´ eine potentiels pour le g ´ enome de la levure. Parmi ces 15 000 ´ complexes, beaucoup s’avereront ` etre des faux positifs et il est certain qu’il existe ˆ egalement un grand nombre de faux n ´ egatifs. ´ 3.3 Les methodes d’amarrage ´ 3.3.1 Le probleme ` Le but des methodes d’amarrage est de pr ´ edire la structure d’un complexe ´ a partir ` des structures ou modeles des partenaires isol ` es (voir fig. 13). Le probl ´ eme se divise ` + ? A B AB FIGURE 13 – Le probleme de l’amarrage. Comment associer la prot ` eine A et la prot ´ eine ´ B ? Des configurations AB obtenues, laquelle est susceptible d’exister in vivo ? Image de J. Bernauer. xxxiv3. Les complexes proteine-prot ´ eine et prot ´ eine-ARN ´ en deux etapes : d’abord, on explore l’espace pour obtenir toutes les conformations ´ possibles et ensuite, on trie ces conformations en esperant classer en premier la con- ´ formation native observee exp ´ erimentalement. ´ Avec une approximation de corps rigides, si on considere chaque partenaire comme ` une sphere de 15 ` A de rayon ˚ a la surface de laquelle les propri ` et´ es atomiques sont ´ decrites sur une grille de 1 ´ A, une recherche syst ˚ ematique pr ´ esente 10 ´ 9 modes distincts d’association [57]. La question est ensuite de determiner, parmi ces modes d’as- ´ sociation, lequel est le mode natif. Pour pouvoir acceder aux changements de conformation et aux mouvements des ´ chaˆınes laterales et des bases, le mod ´ ele doit ` etre de type ”soft”, c’est- ˆ a-dire que ` les molecules doivent pouvoir l ´ eg´ erement s’interp ` en´ etrer et on doit consid ´ erer les ´ molecules comme des ensembles de sph ´ eres articul ` ees. Ainsi, il est possible de traiter ´ aussi bien les molecules issues de r ´ esolution de structures de prot ´ eines seules, c’est- ´ a-dire non-li ` ees ´ (unbound), ou complexees, c’est- ´ a-dire li ` ees ´ (bound). 3.3.2 Les algorithmes Le premier algorithme, invente par Shoshana Wodak et Jo ´ el Janin [124, 259] ¨ a` partir des travaux de Cyrus Levinthal [149] realise une recherche de l’espace sur six ´ degres de libert ´ e (cinq rotations et une translation) pour amener les deux mol ´ ecules ´ en contact une fois leur orientation fixee, et attribue un score simple en fonction de la ´ surface de contact. Pour gagner du temps sur le calcul de la surface, une approximation a partir du mod ` ele de Levitt [150] est r ` ealis ´ ee. Cet algorithme a ´ et´ e am ´ elior ´ e en 1991 ´ a l’aide d’une minimisation d’ ` energie [46]. ´ D’autres types d’algorithmes, utilisant la complementarit ´ e de surface, ont ´ et´ e mis ´ en œuvre a partir d’une description en points critiques d ` efinis comme des ”trous et ´ bosses” (knobs and holes) [57, 145, 264]. Les solutions donnees correspondent ´ a une ` concordance de groupes de quatre points critiques, laquelle est identifiee gr ´ ace ˆ a une ` triangulation de surface comme definie par M. Connolly en 1985 [56]. Cette m ´ ethode ´ a et ´ e beaucoup am ´ elior ´ ee en 1991 par H. Wang, avec la mod ´ elisation de la surface ´ a` l’aide d’une grille [255]. En 1992, un programme utilisant ces grilles pour les petites molecules a ´ et´ e modifi ´ e´ par I. Kuntz et ses collaborateurs, pour s’appliquer aux complexes proteine-prot ´ eine et ´ a permis d’obtenir de bons resultats [175, 232] tout en g ´ en´ erant de nombreux faux- ´ positifs. Des algorithmes de vision par ordinateur (computer vision) a partir de hachage ` geom ´ etrique ont ensuite ´ etendu la m ´ ethode des ”trous et bosses”. En 1993 a ´ et´ e´ developp ´ e un algorithme qui fait correspondre des propri ´ et´ es de surface ´ a partir de ` triplets de points critiques qui sont stockes dans des tables de hachage [84, 163]. Cette ´ methode, tr ´ es efficace pour les mol ` ecules de type li ´ e, est tr ´ es sensible aux faibles vari- ` ations de surface, ce qui la rend rapidement inefficace pour les molecules de type ´ non-lie. ´ xxxvIntroduction 3.3.3 La transformation de Fourier Parmi toutes les methodes de compl ´ ementarit ´ e de surface, celle utilisant la trans- ´ formation de Fourier rapide (Fast Fourier Transform ou FFT), apparue des 1991 [126], ` est l’une des plus simples et des plus utilisees [10, 35, 40, 41, 132, 143, 180, 235, 257]. ´ Une grille cubique est tracee, et, ´ a chaque point, on attribue un poids qui est n ` egatif et ´ important si le point est situe´ a l’int ` erieur de la prot ´ eine A, nul s’il est ´ a l’ext ` erieur et 1 ´ s’il est proche de la surface ; on fait de meme pour la prot ˆ eine B. ´ Le produit est donc important et positif (donc defavorable) si les deux volumes ´ moleculaires s’interp ´ en´ etrent, et n ` egatif (donc favorable) pour les points qui apparti- ´ ennent a la surface d’une mol ` ecule et au volume de l’autre. Lorsque la mol ´ ecule A ´ est translatee par rapport ´ a la mol ` ecule B, le score peut ´ etre rapidement calcul ˆ e par ´ transformation de Fourier rapide (FFT), si la grille de A est identique a la grille de B. La ` grille doit donc etre red ˆ efinie ´ a chaque nouvelle orientation pour que la recherche soit ` complete. ` Cette approche presente de nombreux avantages : les poids peuvent contenir des ´ informations sur les propriet ´ es physico-chimiques de la surface, et la r ´ esolution peut ´ etre ajust ˆ ee en limitant le nombre de termes de Fourier calcul ´ es dans la somme. ´ Les resultats obtenus par cette m ´ ethode sont relativement bons dans une approche ´ corps rigide [11, 39, 170], mais le temps de calcul associe est trop important pour une ´ approche a grande ` echelle. ´ 3.3.4 Algorithmes d’amarrage et partitionnement du probleme ` Ces quinze dernieres ann ` ees, en particulier gr ´ ace ˆ a l’exp ` erience d’amarrage C ´ APRI (Critical Assessment of PRediction of Interactions) [118, 119, 120, 122, 261], plusieurs nouvelles methodes ont vu le jour [234]. Cette exp ´ erience est un test ´ a l’aveugle des ` algorithmes de docking de macromolecules qui doivent pr ´ edire le mode d’association ´ de deux proteines ´ a partir de leur structure tridimensionnelle. La structure du complexe, ` resolue exp ´ erimentalement, n’est d ´ evoil ´ ee aux participants et publi ´ ee qu’ ´ a l’issue des ` soumissions. Les nouvelles methodes d’amarrage utilisent des techniques tr ´ es vari ` ees telles que ´ le hachage geom ´ etrique [83, 115, 188, 189, 190, 220, 225, 262], les algorithmes ´ gen´ etiques [91], les harmoniques sph ´ eriques [213], la dynamique mol ´ eculaire [32, ´ 137, 238], la minimisation Monte-Carlo [100, 226], ou encore des methodes de min- ´ imisation d’energie ou de d ´ etection d’interfaces dirig ´ ees par des donn ´ ees biologiques ´ [69, 178, 250] (voir section 2.1.1 page 11). Le domaine de recherche a beaucoup progresse et l’une des conclusions de cette ´ experience est que l’on dispose d’algorithmes de recherche de compl ´ ementarit ´ e de ´ surfaces performants [174]. Cependant, la deuxieme ` etape du processus d’amarrage, ´ a savoir le tri des configurations putatives obtenues par une fonction de score, reste ` a am ` eliorer, car la seule m ´ ethode r ´ eellement performante ´ a l’heure actuelle est l’- ` expertise humaine. Les fonctions energ ´ etiques classiquement utilis ´ ees ayant montr ´ e´ leurs limites [42, 53, 77, 79, 104, 108, 154], de nouvelles fonctions de score statistiques sont apparues. Essentiellement basees sur les propri ´ et´ es physico-chimiques ´ xxxvi4. La tessellation de Vorono¨ı et ses deriv ´ ees pour l’amarrage ´ des atomes, elles ont tout d’abord et´ e utilis ´ ees pour le repliement et l’amarrage de ´ petites molecules, puis adapt ´ ees ´ a l’amarrage prot ` eine-prot ´ eine [64, 265, 266, 267]. ´ 4 La tessellation de Vorono¨ı et ses deriv ´ ees pour l’a- ´ marrage La premiere utilisation connue de la tessellation de Vorono ` ¨ı est la modelisation de la ´ repartition de l’ ´ epid ´ emie de chol ´ era de Londres par John Snow en 1854, dans laque- ´ lle est demontr ´ ee que la fontaine au centre de l’ ´ epid ´ emie est celle de Broad Street, ´ en plein coeur du quartier de Soho. Depuis lors, les applications utilisant cette construction sont nombreuses : en met´ eorologie d’abord, par A.H. Thiessen, en cristallo- ´ graphie par F. Seitz et E. Wigner, qui ont aussi donne leur nom ´ a cette construction ; ` mais aussi en physiologie (analyse de la repartition des capillaires dans les muscles), ´ metallurgie (mod ´ elisation de la croissance des grains dans les films m ´ etalliques), robo- ´ tique (recherche de chemin en presence d’obstacles) et bien d’autres. ´ La tessellation de Vorono¨ı, ainsi que les autres tessellations qui en ont et´ e d´ eriv ´ ees ´ (voir fig. 14), sont aussi beaucoup utilisees en biologie, o ´ u elles permettent de nom- ` breuses representations des structures des prot ´ eines [201]. ´ Etant donn ´ e un ensemble de points appel ´ es centro ´ ¨ıdes, la tessellation de Vorono¨ı divise l’espace au maximum en autant de regions qu’il y a de points (voir paragraphe ´ 4.1.2 page 60). Chaque region, appel ´ ee cellule de Vorono ´ ¨ı, est un polyedre qui peut ` etre consid ˆ er´ e comme la zone d’influence du point autour duquel est trac ´ ee la cellule. ´ 4.1 Constructions Dans le cadre de l’analyse structurale des proteines, la tessellation de Vorono ´ ¨ı a et ´ e utilis ´ ee pour la premi ´ ere fois par Richards en 1974 [211] pour ` evaluer, dans une ´ proteine globulaire, les volumes des atomes, d ´ efinis par les volumes de leurs poly ´ edres ` de Vorono¨ı. Dans cette etude, Richards est le premier ´ a proposer une solution ` a deux ` problemes que l’on retrouve dans toutes les ` etudes qui utilisent cette construction. ´ Tout d’abord, les atomes exposes au solvant ayant peu de voisins, leurs cellules de ´ Vorono¨ı sont grandes et ont un volume tres grand, peu repr ` esentatif de leurs propri ´ et ´ es. ´ Ensuite, cette construction considere tous les atomes comme ` equivalents, sans tenir ´ compte de leur nature chimique. Pour resoudre le premier probl ´ eme, Richards a plac ` e des mol ´ ecules d’eau sur un ´ reseau cubique entourant la prot ´ eine et a relax ´ e leurs positions. Cette m ´ ethode a ´ et´ e´ ensuite affinee par Gerstein et ses collaborateurs [94, 95, 243, 244, 245]. D’autres ´ methodes ont ´ et ´ e propos ´ ees telles que : ´ – prendre en consideration uniquement les atomes ayant une cellule de Vorono ´ ¨ı de volume  raisonnable  [206] ; – placer les molecules d’eau en utilisant la dynamique mol ´ eculaire [31, 37] ; ´ – utiliser une representation d’union de sph ´ eres [172] ; ` xxxviiIntroduction(a) (b) (c) (d) (e) (f) (g) (h) Diagramme de Voronoï Triangulation de Delaunay Méthode B de Richards zone non attribuée Décomposition en polyèdres de Laguerre Union de sphères α-Complexe Diagramme de Voronoï pondéré FIGURE 14 – Tessellation de Vorono¨ı et constructions deriv ´ ees ´ (a) Construction d’une cellule de Vorono¨ı : on trace la mediatrice entre un point donn ´ e et chacun des autres ´ points et ensuite, on considere le plus petit poly ` edre d ` efini par ces m ´ ediatrices ; c’est ´ la cellule de Vorono¨ı de ce meme point. (b) On obtient le diagramme de Vorono ˆ ¨ı (en violet) en rep´ etant l’op ´ eration pour tous les points de l’ensemble. (c) La triangulation ´ de Delaunay contient les aretes roses et les triangles ainsi d ˆ efinis. C’est le dual du ´ diagramme de Vorono¨ı. (d) Dans la methode de Richards, on ne consid ´ ere pas la ` mediatrice, mais on d ´ efinit une droite perpendiculaire au segment qui coupe celui-ci en ´ fonction des poids attribues´ a chacun des atomes. Cela laisse une zone non attribu ` ee. ´ (e) Si on remplace les droites prec´ edentes par les plans radicaux des sph ´ eres, on ` obtient a nouveau un pavage de l’espace : le diagramme de puissance ou tessellation ` de Laguerre. (f) L’intersection du diagramme de Laguerre et des spheres donne ce ` qu’on appelle l’union des spheres. (g) On d ` efinit une r ´ egion restreinte comme une ´ boule restreinte a sa r ` egion de Vorono ´ ¨ı. L’α-complexe correspond alors aux aretes ˆ et aux triangles definis par l’intersection de deux ou trois r ´ egions restreintes. L’ ´ α- shape est le domaine de l’α-complexe. (h) La surface de division d’un diagramme de Vorono¨ı ponder´ e est d ´ efinie par l’ensemble des points dont la distance aux deux points ´ de ref´ erence est ´ egale au rayon de la sph ´ ere correspondante plus une constante. Cette ` surface n’est pas plane, mais le diagramme correspondant est un pavage de l’espace. Image de A. Poupon. xxxviii4. La tessellation de Vorono¨ı et ses deriv ´ ees pour l’amarrage ´ – utiliser un melange entre la repr ´ esentation en diagramme de puissance et la ´ representation en union de sph ´ eres (voir fig. 14). ` Pour resoudre le probl ´ eme des poids des atomes, Richards a propos ` e d’introduire des ´ poids lors du placement des plans dans la construction de Vorono¨ı. Cette methode, ap- ´ pelee´ methode B de Richards ´ , a et ´ e tr ´ es utilis ` ee. Elle manque de rigueur math ´ ematique ´ car on trouve des volumes non attribues entre les cellules, l’intersection des plans ´ n’etant plus r ´ eduite ´ a un point. Cependant, Richards a montr ` e que ce volume mort, ´ bien que non nul, est petit en comparaison des volumes des atomes. Cette methode a ´ et ´ e de nombreuses fois am ´ elior ´ ee [82, 212], jusqu’ ´ a utiliser le diagramme de Laguerre ` [93] ou le diagramme de Vorono¨ı dit ponder´ e [58, 96], dans lequel les faces des cellules ´ ne sont plus planes (voir fig. 14). Une analyse formelle de toutes ces applications a et´ e r ´ ealis ´ ee par Edelsbrunner ´ et ses collaborateurs [72, 73, 74, 158, 159]. En plus des utilisations des tessellations de Vorono¨ı/Delaunay/Laguerre, ils mettent en place la notion d’α-shape pour les proteines : c’est un sous-ensemble des segments issus de la tessellation de Delaunay ´ qui sont contenus dans le volume de la proteine (voir fig. 14). Cela permet de mod ´ eliser ´ l’interieur de la prot ´ eine et de d ´ etecter les vides et les cavit ´ es [160]. ´ 4.2 Mesures Toutes ces constructions ont permis de montrer que la tessellation de Vorono¨ı est un bon modele math ` ematique de la structure des prot ´ eines. Elle permet en particulier ´ de montrer que les proteines sont des objets compacts, c’est- ´ a-dire que la densit ` e´ d’atomes a l’int ` erieur d’une prot ´ eine est comparable ´ a celle observ ` ee dans les cristaux ´ de petites molecules [95, 107]. De m ´ eme, une analyse o ˆ u les centro ` ¨ıdes sont les centres geom ´ etriques des acides amin ´ es a permis de montrer que les prot ´ eines sont aussi ´ des objets compacts au sens des modeles classiques des mati ` eres condens ` ees en ´ physique [3, 236]. Elle a egalement servi ´ a l’analyse des cavit ` es dans les structures [8, 72, 157, 198], ´ a l’ ` etude de propri ´ et ´ es m ´ ecaniques des prot ´ eines [136, 192, 222], ´ a la mise en place ` de potentiels empiriques pour l’affinement de modeles structuraux [23, 34, 90, 140, ` 156, 161, 183, 256, 273], ou encore a la d ` etection des h ´ elices transmembranaires [1]. ´ De telles methodes ont aussi ´ et´ e utilis ´ ees pour d ´ etecter les cavit ´ es des prot ´ eines ´ susceptibles d’interagir, mais aussi pour ajuster les ligands dans les poches ou encore etudier les interactions prot ´ eine-ADN [24, 28, 63, 186, 187]. Des ´ etudes util- ´ isant le modele B de Richards ou la construction de Laguerre ont montr ` e qu’ ´ a l’inter- ` face proteine-ADN et prot ´ eine-prot ´ eine, la densit ´ e de l’empilement est la m ´ eme qu’ ˆ a` l’interieur de la prot ´ eine pour la grande majorit ´ e des complexes [59]. ´ Plus recemment, la tessellation de Vorono ´ ¨ı a et´ e employ ´ ee pour la pr ´ ediction des ´ complexes proteine-prot ´ eine, en particulier afin d’obtenir des descripteurs gros-grains ´ pour la discrimination entre complexes cristallographiques et biologiques et pour les fonctions de score d’amarrage [27, 18, 17, 16, 15]. Ce type de methode est d ´ etaill ´ e au ´ chapitre 4. xxxixIntroduction 5 Fonctions de score Traditionnellement, les fonctions de score pour la prediction de la structure de ´ macromolecules biologiques ont pour objectif de repr ´ esenter l’ ´ energie libre de la struc- ´ ture. Pour quantifier l’energie libre d’une structure, les fonctions de score adoptent ´ differentes m ´ ethodes. Parmi celles-ci, on compte des m ´ ethodes empiriques, inspir ´ ees ´ des lois de la physique ou provenant de l’expertise des simulations de dynamique moleculaire. On compte aussi des m ´ ethodes bas ´ ees sur la connaissance, ´ i.e. issues de mesures sur des structures biologiques resolues exp ´ erimentalement. ´ De recents protocoles de pr ´ ediction des interactions prot ´ eine-prot ´ eine font ´ etat ´ de l’usage de ces methodes [18, 15, 22, 6, 27, 98]. RosettaDock [98] emploie un ´ melange de m ´ ethodes empiriques et de mod ´ elisation de lois physiques. Par exem- ´ ple, deux partenaires en interaction ont au moins un certain nombre d’atomes en interaction : cette simple observation est modelis ´ ee par une simple fonction continue ´ decroissante du nombre d’atomes en interaction. D’autres types de repr ´ esentation des ´ interactions locales, comme par exemple l’hydrophobicite,´ i.e. l’absence d’affinite entre ´ les molecules de solvant et les groupements hydrophobes n ´ ecessitent des fonctions ´ plus elabor ´ ees. Les fonctions de score d ´ evelopp ´ ees pour et utilis ´ ees par RosettaDock ´ [98] sont plus amplement detaill ´ ees dans la partie consacr ´ ee´ a l’ ` evaluation des confor- ´ mations par RosettaDock (voir section 2.1.1.2). Des fonctions de score s’appuyant sur une modelisation simplifi ´ ee de la structure, ´ dite gros-grain, ont dej ´ a permis d’orienter les pr ` edictions [18]. Ces fonctions de score ´ sont gen´ eralement plus simples, moins co ´ uteuses ˆ a calculer, ` a utiliser en amont d’une ` prediction plus sp ´ ecifique. ´ Pour predire l’interaction, il est possible d’utiliser certaines donn ´ ees externes, ´ i.e. ne provenant pas de la structure putative des molecules en interaction. On peut ainsi ´ voir des fonctions de score utiliser la conservation de sequences entre deux prot ´ eines ´ a travers l’ ` evolution pour inf ´ erer le comportement ´ a l’interaction d’une prot ` eine par ´ rapport a l’autre [22]. En effet, si une s ` equence est fortement conserv ´ ee entre deux ´ proteines, il y a de grandes chances pour que cette s ´ equence joue un r ´ ole dans au ˆ moins l’une des fonctions de chacune des deux proteines. Cependant, ces donn ´ ees ´ externes ne sont pas forcement toujours accessibles, ce qui limite leur utilisation dans ´ le cadre d’une prediction d’interactions ´ a grande ` echelle. Leur mauvaise interpr ´ etation ´ peut aussi parfois etre source d’erreur. La cible num ˆ ero 6 de C ´ APRI par exemple, bien que mettant en jeu des anticorps, traite d’une interaction n’impliquant pas le CDR (Complementarity determining regions) ou a lieu l’interaction avec l’antig ` ene. Il peut ` en outre s’averer compliqu ´ e de comparer la qualit ´ e de pr ´ edictions effectu ´ ees par une ´ methode de pr ´ ediction incluant des donn ´ ees externes de fac¸on optionnelle. ´ Mais aussi, des mesures plus complexes, comme un calcul de la complementarit ´ e´ de forme entre les deux partenaires, ont permis de mieux resoudre des interactions de ´ type clef-serrure. Il s’agit ici de l’utilisation de mesures faisant intervenir de fac¸on plus importante la geom ´ etrie de la structure, sans forc ´ ement tenir compte de param ´ etres ` davantage d’ordre biophysique. La construction du diagramme de Vorono¨ı a permis d’obtenir d’autres types de mesures geom ´ etriques sur la structure [15, 27]. De telles ´ xl6. Apprentissage automatise´ mesures geom ´ etriques ont montr ´ e qu’il ´ etait possible de mieux ´ evaluer l’empilement ´ sterique des prot ´ eines ´ a l’interaction, avec pour contrepartie de devoir construire le ` diagramme de Vorono¨ı. De maniere plus g ` en´ erale, les fonctions de score jouent un r ´ ole important en ap- ˆ prentissage automatise dans la traduction d’un ensemble d’attributs caract ´ erisant un ´ exemple donne en une sortie num ´ erique. Si cette sortie num ´ erique peut parfaitement ´ constituer l’estimation d’une observable, d’autres methodes pr ´ ef´ erent l’utiliser pour ` trier, voire pour classer les exemples. 6 Apprentissage automatise´ Un panorama relativement exhaustif de l’etat de l’art en apprentissage est disponible ´ en ref ´ erence [61]. Il propose une r ´ epartition des applications relevant du domaine de ´ l’apprentissage artificiel selon deux grands axes : (i) reconnaissance des formes et (ii) extraction de connaissances a partir des donn ` ees. Mais il est ´ egalement possible ´ de partitionner l’apprentissage automatique en fonction de la nature des donnees qui ´ sont etudi ´ ees : ´ apprentissage supervise´, ou les donn ` ees sont partiellement labellis ´ ees ´ (etiquet ´ ees), ´ vs apprentissage non supervise´ (donnees sans labels). ´ Dans le cadre de l’analyse des proteines (pr ´ ediction d’interactions prot ´ eine-prot ´ eine ´ et amarrage proteine-prot ´ eine), nous nous sommes focalis ´ es sur des m ´ ethodologies ´ relevant du domaine de l’apprentissage supervise : apprentissage d’un ´ modele pr ` edictif ´ a partir des donn ` ees connues. ´ 6.1 Paradigme de l’apprentissage supervise´ Le paradigme de l’apprentissage supervise peut se r ´ esumer de la fac¸on suivante : ´ etant donn ´ e un ensemble d’exemples ´ etiquet ´ es, apprendre un mod ´ ele capable de ` predire au mieux les ´ etiquettes de nouveaux exemples ´ . Soient X l’ensemble des exemples (ou donnees) et ´ Y l’ensemble des etiquettes ´ (notees aussi ´ classes) pouvant etre associ ˆ ees aux exemples. Dans le cadre des ´ travaux present ´ es dans ce manuscrit, seules des ´ etiquettes binaires ont ´ et´ e con- ´ sider´ ees : ´ Y = {+1, −1} (notees ´ egalement ´ {+, −} ou encore presque-natifs (+) et leurres (-) dans la suite du document). Les donnees peuvent se r ´ epartir en deux cat ´ egories : ´ – les donnees d ´ ej ´ a` etiquet ´ ees, en g ´ en´ eral pr ´ esentes en faible quantit ´ e car il est ´ souvent tres co ` uteux d’obtenir l’ ˆ etiquette associ ´ ee´ a une donn ` ee (par exemple, ´ obtenir la structure d’un complexe proteine-ARN par une exp ´ erience de cristallo- ´ graphie). Ces donnees seront utilis ´ ees pour apprendre un mod ´ ele permettant de ` predire les ´ etiquettes de nouveaux exemples. ´ – les donnees non ´ etiquet ´ ees, qu’il est en g ´ en´ eral ais ´ e d’obtenir. Dans notre cas, ´ nous pouvons utiliser un algorithme de gen´ eration de conformations pour obtenir ´ un large ensemble de conformations proteine-ARN non ´ etiquet ´ ees. ´ xliIntroduction L’ensemble des donnees d ´ ej ´ a` etiquet ´ ees est partitionn ´ e en un ´ ensemble d’apprentissage et ensemble de validation. Nous designerons l’ensemble d’apprentissage par ´ A = {(x1, y1), (x2, y2), . . . , (xn, yn)} avec xi ∈ R d et yi ∈ Y, ∀i ∈ {1, . . . , n}. xi est un vecteur de dimension d ou chaque dimension repr ` esente l’une des caract ´ eristiques de ´ l’exemple xi . L’apprentissage se deroule classiquement en trois phases, pour lesquelles on forme ´ a partir de l’ensemble d’apprentissage un ` jeu d’apprentissage : 1. l’apprentissage sur le jeu d’apprentissage d’un modele permettant de pr ` edire au ´ mieux les donnees d’apprentissage ; ´ 2. l’evaluation ´ de ce modele sur des jeux de donn ` ees extraits de l’ensemble d’ap- ´ prentissage (par exemple grace ˆ a une proc ` edure de validation-crois ´ ee ou de ´ leave-one-out) ; 3. le test du modele obtenu sur un jeu de donn ` ees ´ etiquet ´ e, qui est disjoint de ´ l’ensemble d’apprentissage, l’ensemble de validation. Le processus d’evaluation des performances d’un mod ´ ele appris n ` ecessite d’utiliser ´ des donnees non utilis ´ ees pour l’apprentissage afin de ne pas biaiser les ´ evaluations ´ de performances. Pour ce faire, l’evaluation s’effectue sur un mod ´ ele d’ ` evaluation, ´ specifiquement appris pour la phase d’ ´ evaluation. Ce mod ´ ele d’ ` evaluation est appris ´ de la meme mani ˆ ere que lors de la phase d’apprentissage, mais avec une partition de ` l’ensemble d’apprentissage : une partie des exemples est utilisee pour apprendre le ´ modele d’ ` evaluation tandis que l’autre est utilis ´ ee pour l’ ´ evaluation proprement dite du ´ modele. Deux processus sont classiquement utilis ` es pour l’ ´ evaluation : la ´ validationcroisee´ et le leave-one-out. L’evaluation du mod ´ ele appris par ` validation-croisee´ consiste a partitionner les ` donnees de l’ensemble d’apprentissage en ´ k parties disjointes, d’apprendre sur l’union de k − 1 parties et d’evaluer ses performances sur la partie non utilis ´ ee. Ce processus ´ est iter´ e´ k fois, ainsi tous les exemples de A auront et´ e utilis ´ es une fois en test et ´ k −1 fois en apprentissage. Le choix de la valeur de k depend de la taille des donn ´ ees. Les ´ valeurs classiquement utilisees sont ´ k = 3 ou k = 10. L’evaluation par ´ leave-one-out est une gen´ eralisation de la validation-crois ´ ee avec ´ k = n. Ainsi, pour chaque exemple, un modele est appris ` a partir de l’int ` egralit ´ e´ des donnees sauf l’exemple de test. Ce protocole d’ ´ evaluation est utilis ´ e lorsque les ´ donnees sont peu nombreuses et que le recours ´ a la validation-crois ` ee conduirait ´ a se ` priver d’une trop grande partie des donnees pour l’apprentissage. D ´ es que les donn ` ees ´ sont trop volumineuses, le recours a cette m ` ethode n’est plus viable car le co ´ ut de cal- ˆ cul devient rapidement prohibitif (apprentissage de n modeles). ` Ces deux processus d’evaluation supposent une ind ´ ependance des exemples en- ´ tre eux. Or, dans le cadre de l’amarrage proteine-ARN (ou prot ´ eine-prot ´ eine), les ex- ´ emples ne sont pas independants. En effet, comme nous l’avons vu pr ´ ec´ edemment, ´ nous disposons des structures de la proteine et de l’ARN, et ´ a partir de ces deux ` structures, nous gen´ erons, via un algorithme d’amarrage, des candidats. Ces can- ´ didats vont representer notre ensemble d’apprentissage. Un sous- ´ echantillon de ces ´ donnees sera ´ etiquet ´ e positif : la conformation dite native et les presques-natifs, si ´ l’algorithme d’amarrage a reussi ´ a en g ` en´ erer. Il existe donc un lien entre toutes les ´ xlii6. Apprentissage automatise´ conformations issues d’un couple proteine-ARN. Nous avons propos ´ e une adaptation ´ du processus leave-one-out pour prendre en consideration ce lien. Il s’agit du procesus ´ leave-”one-pdb”-out qui consiste a retirer non pas uniquement une conformation lors ` du processus d’apprentissage et d’evaluation, mais ´ a retirer toutes les conformations ` associees ´ a un couple prot ` eine-ARN. ´ Les criteres d’ ` evaluation permettant de mesurer les performances des mod ´ eles ` appris sont essentiels dans tout processus d’apprentissage. De nombreux criteres ` d’evaluation ont ´ et ´ e propos ´ es dans la litt ´ erature et nous pr ´ esentons ci-apr ´ es les crit ` eres ` les plus frequemment utilis ´ es et notamment ceux que nous manipulerons dans la suite ´ de ce document. 6.2 Criteres d’ ` evaluation ´ Tout d’abord, lorsqu’un modele pr ` edictif est appliqu ´ e sur un jeu de donn ´ ees, nous ´ pouvons mesurer, pour chaque etiquette, le nombre d’exemples correctement associ ´ es´ a cette ` etiquette, ainsi que le nombre d’exemples qui lui sont incorrectement associ ´ es. ´ Ces informations sont rassemblees dans une matrice nomm ´ ee la ´ matrice de confusion. Dans le cadre d’un modele` a deux classes, la matrice de confusion se repr ` esente ´ classiquement sous la forme d’un tableau (voir tableau 1). Reel ´ + - Pr´edit + VP FP - FN VN TABLE 1 – Matrice de confusion, ou VP repr ` esente le nombre de Vrais Positifs, FP le ´ nombre de Faux Positifs, FN le nombre de Faux Negatifs et VN le nombre de Vrais ´ Negatifs. Cette matrice de confusion restreinte ´ a un probl ` eme ` a deux classes peut ` etre ˆ etendue ´ a un probl ` eme ` a` n classes. La notion de Faux Positifs ou Faux Negatifs doit ´ alors egalement ´ etre ˆ etendue. ´ 6.2.1 Criteres d’ ` evaluation globaux ´ A partir de cette matrice de confusion, de nombreux crit ` eres d’ ` evaluation peuvent ´ etre calcul ˆ es. Parmi les plus utilis ´ es, nous pouvons citer : ´ – la precision ´ P = VP VP+FP , qui represente le pourcentage de pr ´ edictions correctes ´ associees ´ a la classe positive (la m ` eme mesure peut ˆ etre d ˆ efinie pour la classe ´ negative) ; ´ – le rappel R = VP VP+F N qui represente le pourcentage d’exemples positifs ´ etant ´ correctement predits positifs (de la m ´ eme mani ˆ ere que pour la pr ` ecision, il est ´ possible de definir cette m ´ etrique pour la classe n ´ egative) ; ´ – le Fscor e(β) = (β 2+1)×P×R β2×P+R qui permet d’agreger en une seule m ´ etrique la pr ´ ecision ´ et le rappel ; Le parametre ` β permet de ponderer la pr ´ ecision ´ vs le rappel. Si β < 1, le poids de la precision devient plus important, inversement, lorque ´ β > 1, xliiiIntroduction le poids de la precision diminue. Lorsque ´ β = 1 la precision et le rappel ont la ´ meme importance. La valeur de ˆ β est tres fr ` equemment fix ´ ee´ a 1 ; ` – l’accuracy Acc = VP+V N VP+V N+FP+F N qui permet d’evaluer la performance “globale” ´ d’un modele. Cette mesure repr ` esente le pourcentage de pr ´ edictions correctes ´ toutes classes confondues ; – la sensibilite´ Se = VP VP+F N qui est egale au rappel de la classe positive. Cette ´ mesure est issue du domaine du traitement du signal et est largement utilisee´ dans le domaine medical ; ´ – la specificit ´ e´ Sp = V N FP+V N qui correspond au rappel des negatifs. Cette mesure ´ est egalement issue du domaine du traitement du signal. Son utilisation dans le ´ domaine medical est toujours associ ´ ee´ a la sensibilit ` e. Ces deux mesures per- ´ mettent d’evaluer l’efficacit ´ e d’un nouveau test m ´ edical en indiquant sa capacit ´ e´ a effectuer ` a la fois des pr ` edictions correctes pour les positifs (sensibilit ´ e), tout ´ en couvrant peu de negatifs (capacit ´ e´ evalu ´ ee par 1 ´ − Sp). Toutes ces metriques fournissent une vision d’ensemble des performances d’un ´ modele en r ` esumant en une unique valeur le comportement du mod ´ ele pr ` edictif sur ´ l’ensemble des donnees. D’autres m ´ etriques ou crit ´ eres d’ ` evaluation ont ´ et´ e propos ´ es´ pour permettre d’obtenir une vision plus fine des performances d’un modele. Des ` modeles donnant plus d’information qu’une variable binaire peuvent profiter de crit ` eres ` d’evaluation adapt ´ es aux objectifs fix ´ es. Nous parlerons par la suite de classifieurs ´ pouvant soit donner une etiquette binaire aux exemples pr ´ edits soit leur attribuer un ´ score permettant ainsi d’ordonner les exemples. Nous les appellerons par extension des classifieurs. 6.2.2 Criteres d’ ` evaluation “locaux” ´ Il est notamment devenu evident, depuis les ann ´ ees 2000, qu’il ´ etait insuffisant ´ d’evaluer les performances d’un classifieur uniquement avec la pr ´ ecision et le rappel. ´ De nouvelles metriques se sont rapidement impos ´ ees dans la communaut ´ e [165, 89], ´ notamment des metriques permettent d’ ´ evaluer les classifieurs associant un score ´ a` chacune de leurs predictions. Ce score, qui peut ´ etre assimil ˆ e´ a un degr ` e de confiance ´ dans la prediction effectu ´ ee, permet alors d’ordonner les pr ´ edictions et ainsi d’obtenir ´ plus d’informations qu’une etiquette. ´ La courbe ROC (Receiver Operating Characteristic) [252, 177] permet de visualiser le compromis entre la sensibilite et la sp ´ ecificit ´ e. La courbe ROC associ ´ ee´ a` un classifieur ideal est constitu ´ ee de deux segments : un premier segment reliant le ´ point (0,0) au point (0,1) correspondant aux exemples positifs parfaitement ordonnes´ puis un second segment reliant le point (0,1) au point (1,1) correspondant aux exemples negatifs ayant tous des scores inf ´ erieurs aux scores des exemples positifs. Cette ´ courbe represente un classifieur ayant la capacit ´ e de s ´ eparer parfaitement les positifs ´ des negatifs (voir fig. 15). ´ Les courbes ROC permettent de visualiser rapidement les performances d’un ou plusieurs classifieurs. Afin de pouvoir comparer des classifieurs, notamment dans un cadre de recherche du meilleur classifieur (selon un ou plusieurs criteres d’ ` evaluation), ´ xliv6. Apprentissage automatise´ A B AUC = 0.5 % faux positifs % vrais positifs (0,0) (0,1) (1,1) (1,0) FIGURE 15 – Les courbes ROC associees aux classifieurs A et B permettent de visu- ´ aliser la superiorit ´ e du classifieur A par rapport au classifieur B. ´ il est tres utile de pouvoir comparer num ` eriquement les performances de ces classi- ´ fieurs. L’aire sous la courbe ROC – que nous appellerons par la suite ROC-AUC – est tres largement utilis ` ee pour comparer les performances de plusieurs classifieurs. [165, ´ 164] ont montre que l’aire sous la courbe ROC (AUC, ´ Area Under the Curve) est une metrique plus fiable que l’ ´ accuracy pour comparer deux classifieurs. De nombreux classifieurs “classiques” ont et´ e adapt ´ es pour pouvoir int ´ egrer l’opti- ´ misation de la ROC-AUC dans leur critere d’apprentissage comme les SVM [208] ou ` les arbres de decision [80]. ´ Sachant que, pour la problematique de l’amarrage prot ´ eine-ARN, seul un sous- ´ ensemble tres restreint de conformations candidates peuvent ` etre propos ˆ ees aux ex- ´ perts pour une validation experimentale, il est n ´ ecessaire de se focaliser sur des ´ metriques permettant d’identifier un sous-ensemble de conformations int ´ eressantes. ´ L’ensemble des criteres d’ ` evaluation locaux utilis ´ es sera pr ´ esent ´ e en d ´ etails dans ´ la section 1.4. xlvIntroduction xlviChapitre 1 Donnees ´ 1.1 Jeux de donnees de complexes prot ´ eine-ARN ´ Dans cette etude, quatre jeux de donn ´ ees provenant de la litt ´ erature sont utilis ´ es : la ´ Protein-RNA Interface DataBase (PRIDB) comprenant deux versions RB1179 et RB199 [152, 254], le Benchmark I proteine-ARN [9] et le ´ Benchmark II proteine-ARN [204] ´ (voir tableau 1.1). 1.1.1 Jeu de ref´ erence des complexes prot ´ eine-ARN connus ´ La Protein-RNA Interface DataBase (PRIDB) 4 se decline en deux versions : la ´ PRIDB redondante denomm ´ ee RB1179 [152] et la P ´ RIDB non redondante RB199 [254]. Elle est disponible en tel ´ echargement sur le site de la ´ Iowa State University 4 . Ce jeu de donnees regroupe l’ensemble des fichiers des complexes prot ´ eine-ARN de la ´ Protein Data Bank (PDB) extraits de fac¸on semi-automatique contenant au moins une surface d’interaction entre une proteine et un ARN. Sa version redondante (RB1179) contient ´ 1 170 complexes proteine-ARN. Sa version non redondante (RB199) tire son nom des ´ 199 chaˆınes d’acides amines qu’elle contient extraites de la PDB en mai 2010. ´ L’extraction des donnees de la P ´ RIDB non redondante est faite en respectant les criteres suivants : ` – s’assurer de la qualite des donn ´ ees, en extrayant uniquement les structures ´ resolues par cristallographie et ayant une r ´ esolution d’au plus 3.5 ´ A ; ˚ – les structures extraites doivent contenir une chaˆıne d’au moins 40 acides amines, ´ dont au moins 5 en interaction avec un ARN d’au moins 5 acides nucleiques ; ´ – un acide amine est consid ´ er´ e en interaction avec un ARN si l’un de ses atomes ´ est a au plus 5 ` A d’un atome de l’un des acides nucl ˚ eiques ; ´ – pour s’assurer de la non redondance entre les donnees, l’identit ´ e de s ´ equence ´ maximale entre chacune de ses chaˆınes d’acides amines est d’au plus 30 %. ´ La PRIDB non redondante RB199 contient 133 complexes. Or, plusieurs de ses complexes mettent en jeu plus de 2 partenaires. Nous n’utilisons donc que 120 des complexes de la PRIDB (voir section 1.2). 4. http ://pridb.gdcb.iastate.edu/download.php 1Chapitre 1. Donnees ´ 1.1.2 Jeux d’evaluation des proc ´ edures d’amarrage : ´ Benchmarks Le Benchmark I [9] proteine-ARN contient 45 complexes prot ´ eine-ARN tandis que ´ le Benchmark II proteine-ARN contient 106 complexes. ´ Tous les complexes du Benchmark I ont une version liee et non li ´ ee de la prot ´ eine ´ (voir section 2.1.1). 11 complexes ont une version liee et non-li ´ ee (ou mod ´ elis ´ ee) de ´ l’ARN. Par la suite, on utilise l’ensemble des 45 complexes de ce jeu. Parmi ces 45 complexes, seuls 11 complexes ne sont pas dans les 120 complexes de la PRIDB non redondante. Sur les 106 complexes du Benchmark II, 76 complexes ont une version non liee´ de la proteine. Par la suite, on utilise aussi ces 76 complexes pour l’ ´ evaluation. Parmi ´ ces 76 complexes, 36 complexes proteine-ARN ne sont pas dans la P ´ RIDB non redondante. Toutefois, il y a un complexe du Benchmark II (1eiy) qui met en jeu les deux memes partenaires qu’un complexe pr ˆ esent dans la P ´ RIDB (2iy5). Seuls 35 complexes du Benchmark sont donc utilises, 1eiy ´ etant ´ ecart ´ e et 2iy5 ´ etant utilis ´ e dans la P ´ RIDB. Il y a 5 complexes identiques entre les 45 complexes du Benchmark I et les 36 complexes du Benchmark II absents de la PRIDB non redondante (voir fig. 1.1). Il y a aussi 1 complexe du Benchmark I (2drb) mettant en jeu les deux memes partenaires qu’un ˆ complexe du Benchmark II (2dra), meme si le code pdb du complexe est diff ˆ erent. ´ C’est 2dra qui est utilise. ´ Dans l’ensemble des Benchmarks, nous avons donc un total de 40 complexes (5 du Benchmark I et 29 du Benchmark II et 6 de leur union) differents des complexes ´ dej ´ a pr ` esents dans la P ´ RIDB non redondante. Pour eviter la redondance, ce sont ces ´ 40 complexes que nous utilisons concernant les Benchmarks. 1.2 Nettoyage des donnees ´ Comme le protocole d’amarrage utilise prend en entr ´ ee deux partenaires et que ´ nous cherchons tout d’abord a mettre en place une proc ` edure de pr ´ ediction pour les ´ complexes binaires (le comportement des assemblages multiples etant bien plus diffi- ´ cile a d ` ecrire), nous n’utilisons que des complexes avec deux partenaires en interac- ´ tion. Les complexes de RB199 avec plus de deux partenaires en interaction (1a34 et 2q66) sont donc retires. Pour des raisons de complexit ´ e de calcul et des interactions ´ en presence, les complexes de RB199 mettant en jeu le ribosome complet ´ 5 sont aussi retires. Apr ´ es ces filtres, le jeu de donn ` ees issu de RB199 contient 120 complexes (voir ´ tableau S10). Les atomes d’hydrogene ne sont souvent pas pr ` esents dans les structures 3D con- ´ tenues dans la PDB. Aussi, les parametres des fonctions de score ne sont d ` efinis ´ que pour les atomes lourds des acides amines (resp. acides nucl ´ eiques) standards. ´ C’est pourquoi, pour l’ensemble des complexes utilises, les hydrog ´ enes sont retir ` es´ et les acides amines (resp. acides nucl ´ eiques) non standards transform ´ es en acides ´ amines (resp. acides nucl ´ eiques) standards. Ce remplacement des acides amin ´ es´ 5. Liste des complexes de RB199 mettant en jeu le ribosome complet : 1hr0, 1vqo, 2j01, 2qbe, 2vqe, 2zjr, 3f1e, 3huw, 3i1m, 3i1n, 3kiq 21.3. Utilisation des donnees ´ 5 6 29 7 27 14 72 Benchmark I (45 complexes) Benchmark II (76 complexes) RB199 (120 complexes) FIGURE 1.1 – Diagramme de Venn du nombre de complexes proteine-ARN utilis ´ es´ par jeu de donnees externe, extrait de la PDB : la P ´ RIDB non redondante munie de 120 complexes, le Benchmark I avec 45 complexes et le Benchmark II comportant 76 complexes avec une version non liee de la prot ´ eine. ´ (resp. acides nucleiques) non standards se fait en utilisant la correspondance de la ´ PDBeChem 6 , qui recense les denominations chimiques de la PDB. Ainsi pour chaque ´ acide amine (resp. acide nucl ´ eique) non standard, on peut obtenir l’acide amin ´ e (resp. ´ acide nucleique) standard le plus proche pouvant le substituer. Cependant, une telle ´ substitution peut avoir un impact sur le resultat biologique et ainsi rendre la structure ´ consider´ ee comme native peu fiable. ´ 1.3 Utilisation des donnees ´ Les donnees doivent ´ etre utilis ˆ ees pour d ´ efinir et ´ etiqueter les exemples. Il faut de ´ plus regrouper les exemples en jeux d’apprentissage et de test pour la modelisation de ´ la fonction de score comme pour l’evaluation du mod ´ ele. Mais le choix des ` etiquettes ´ depend du contexte biologique et n ´ ecessite donc de s’y attarder. C’est ce que nous ´ verrons en section 1.3.1. Nous verrons ensuite comment obtenir les exemples en section 1.3.2, leur etiquetage en section 1.3.4 et leur regroupement en diff ´ erents jeux en ´ section 1.3.5. 6. http ://www.ebi.ac.uk/pdbe-srv/pdbechem/ 3Chapitre 1. Donnees ´ 1.3.1 Contexte biologique : definitions ´ Dans une experience de pr ´ ediction de structure de complexe par ´ docking in silico, nous obtenons un grand nombre de structures potentiellement proches de la structure biologique qui n’est pas connue (voir section 2.1.1). Dans la suite, nous souhaitons extraire des structures de complexes biologiques vraisemblables dans un ensemble de structures issues d’une experience d’amarrage ´ (docking). Dans cet objectif, nous mettons en œuvre une approche d’apprentissage supervise : il nous faut donc ´ etiqueter ´ les donnees en fonction de leur int ´ er´ et biologique sur des exemples pour lesquels on ˆ connait dej ´ a la solution. ` Ainsi : – les complexes de la PDB sont les structures obtenues experimentalement ap- ´ pelees ´ natifs ou dites natives ; – les complexes candidats sont ceux pour lesquels on cherche a d ` eterminer s’ils ´ sont biologiquement natifs ; – les complexes leurres sont les complexes non-natifs, i.e. ceux qui ne sont vraisemblablement jamais formes dans la cellule ; ´ – les complexes proches de la solution native (selon un seuil a d ` eterminer en fonc- ´ tion du but recherche) sont les ´ presque-natifs. Les jeux de donnees de r ´ ef ´ erence sont constitu ´ es de structures 3D repr ´ esentant la ´ solution biologique de l’interaction. Ce sont donc des natives. La PRIDB en contient 120, les Benchmarks 40 (11 issus du Benchmark I et 29 issus du Benchmark II). Les 120 structures natives sont utilisees pour g ´ en´ erer un ´ ensemble de perturbations. Cet ensemble de perturbations contient l’ensemble des exemples utilises pour ´ l’apprentissage et l’evaluation. Il correspond donc ´ a l’ensemble d’apprentissage (voir ` section 0.6.1). Comme vu dans le chapitre prec´ edent, pour correctement valider le mod ´ ele de ` prediction, il est n ´ ecessaire d’utiliser des donn ´ ees diff ´ erentes des donn ´ ees utilis ´ ees ´ pour l’apprentissage. Une validation du modele est donc effectu ` ee gr ´ ace ˆ a un ` jeu de validation gen´ er´ e de la m ´ eme mani ˆ ere mais ` a partir des 40 structures des ` Benchmarks. Ce jeu de validation est utilise pour ´ evaluer la fonction de score g ´ en´ er´ ee´ a` partir de l’ensemble de perturbations. 1.3.2 Ensemble des perturbations pour l’apprentissage Comme cela a et ´ e fait dans la litt ´ erature pour l’amarrage prot ´ eine-prot ´ eine [98], ´ des exemples positifs et negatifs sont g ´ en´ er´ es par perturbation des structures na- ´ tives. La perturbation des structures natives est un proced´ e g ´ en´ erant un ´ echantillon ´ gaussien des candidats autour de la structure native. Pour chaque complexe, 10 000 candidats sont gen´ er´ es par perturbation des coordonn ´ ees des atomes de l’ARN par ´ rapport aux coordonnees des atomes de la prot ´ eine. L’op ´ eration de perturbation con- ´ siste en 1 translation et 3 rotations pour modifier les coordonnees des atomes de ´ l’ARN. Les amplitudes de la translation et des rotations sont chacune choisies selon une loi gaussienne de variance 1 et de moyenne variable. La moyenne des amplitudes de la translation et des rotations est adaptee en fonction du complexe. La moyenne ´ 41.3. Utilisation des donnees ´ est determin ´ ee de telle sorte que, pour un complexe donn ´ e, il existe au moins 30 ´ candidats suffisamment proches de la structure native et 30 candidats suffisamment eloign ´ es de la structure native (voir section 1.3.3). Pour satisfaire ces deux conditions ´ sur les candidats obtenus, 3 jeux distincts sont utilises : ´ – la perturbation standard a un jeu de moyennes de valeurs 3 A pour la translation ˚ et 8 ° pour les rotations ; – la perturbation restreinte a un jeu de moyennes de valeurs 1 A et 4 ° ; ˚ – la perturbation etendue a un jeu de moyennes de valeurs 9 ´ A et 27 °. ˚ 1.3.3 Mesure de similarite : le RMSD ´ Le RMSD (Root-Mean-Square Deviation) est une mesure utilisee pour ´ evaluer ´ la dissimilarite entre deux structures repr ´ esentant des conformations diff ´ erentes d’un ´ meme complexe. Dans une telle comparaison, les deux jeux d’atomes sont identiques ˆ ou comparables, mais avec des coordonnees spatiales diff ´ erentes. Le RMSD utilise ´ la distance entre chaque atome dans les deux structures, une fois que les structures sont alignees. Le RMSD est calcul ´ e comme la distance moyenne entre les atomes de ´ ces deux structures. Considerons deux structures ´ s1 et s2 d’un meme complexe de ˆ N atomes, soit di la distance entre l’atome i de s1 et l’atome i de s2 (voir eq. 1.1) : ´ RMSD(s1, s2) = vuut 1 N X N i=1 d 2 i (1.1) Le RMSD est couramment utilise sous diverses versions pour ´ evaluer la dissim- ´ ilarite entre une structure native et un candidat. Parmi ces versions du RMSD, il y ´ a le LRMSD et le IRMSD utilises par C ´ APRI, calcules sur une restriction des atomes : ´ uniquement sur le ligand pour le LRMSD, uniquement sur l’interface pour le IRMSD [147] (voir fig. 1.2). L’alignement differe selon le RMSD calcul ` e. Pour le L ´ RMSD, l’alignement s’effectue uniquement sur les atomes du squelette des acides amines de la prot ´ eine. ´ Pour le IRMSD, ce sont les atomes a l’interface qui sont align ` es. Le RMSD peut aussi ´ etre calcul ˆ e soit sur l’ensemble des atomes de chacun des acides amin ´ es et acides ´ nucleiques consid ´ er´ es, soit uniquement ´ a partir d’un atome de r ` ef´ erence par acide ´ amine ou acide nucl ´ eique. C’est ici le carbone ´ α qui est utilise comme atome de ´ ref ´ erence de l’acide amin ´ e. Pour l’acide nucl ´ eique, c’est l’atome de phosphore qui est ´ utilise comme atome de r ´ ef ´ erence. ´ Cette mesure de similarite est utilis ´ ee dans la g ´ en´ eration des candidats. Les deux ´ conditions fixees sur le nombre minimum de candidats ´ a g ` en´ erer sont : ´ – un IRMSD ≤ 5A pour les 30 candidats devant ˚ etre suffisamment proches de la ˆ structure native ; – un IRMSD > 8A pour les 30 candidats devant ˚ etre suffisamment ˆ eloign ´ es de la ´ structure native. Ces deux conditions ont pour objectif de conserver une distribution relativement homogene de chaque nuage de candidats. Il reste ensuite ` a comparer les candidats ` gen´ er´ es entre eux pour les ´ etiqueter. ´ 5Chapitre 1. Donnees ´ L R L , FIGURE 1.2 – Representation sch ´ ematique en gris des acides amin ´ es et acides ´ nucleiques s ´ electionn ´ es pour le calcul du L ´ RMSD et du IRMSD. La proteine (ou ´ recepteur) est d ´ enomm ´ ee R. L’ARN (ou ligand) est appel ´ e L et L’ correspond ´ a la ` position de L dans une seconde structure de l’interaction entre R et L. Le LRMSD est calcule sur les atomes du ligand L, les atomes du r ´ ecepteur R ´ etant align ´ es, ´ a partir ` des distances en vert et en bleu (seules quelques distances sont affichees). Le I ´ RMSD est calcule sur les atomes des acides amin ´ es et acides nucl ´ eiques ´ a l’interface, en noir, ` a partir des distances en vert, les atomes ` a l’interface ` etant align ´ es. ´ 1.3.4 Etiquetage ´ Une fois les jeux de donnees g ´ en´ er´ es, il faut choisir la version de RMSD utilis ´ ee et ´ le seuil en RMSD en-dessous duquel un candidat est consider´ e comme un presque- ´ natif. La version de RMSD impacte les possibilites de comparaison des structures ´ candidates de differents complexes. Une version de RMSD tr ´ es sensible ` a la taille ` des partenaires (en nombre d’acides amines et d’acides nucl ´ eiques) donne une sig- ´ nification tres diff ` erente au seuil fixe pour des complexes de tailles diff ´ erentes. Un ´ complexe de petite taille doit etre bien plus ˆ eloign ´ e de la structure native qu’un com- ´ plexe de grande taille pour arriver au seuil fixe. Comme nous choisissons un seuil ´ fixe, independant de la taille des complexes, il est pr ´ ef´ erable d’avoir une version de ´ RMSD peu sensible a la taille des complexes. Nous choisissons le I ` RMSD qui, malgre´ sa dependance ´ a la taille de l’interface, reste la version CAPRI de RMSD le moins ` sensible a la taille de chacun des deux partenaires. ` Le seuil de IRMSD a un impact sur la tolerance que le mod ´ ele de pr ` ediction a ´ sur la divergence entre un candidat consider´ e presque-natif et la structure native. Un ´ seuil elev ´ e accepte comme presque-natif des structures candidates tr ´ es` eloign ´ ees de ´ la structure native, donnant une prediction avec peu de signification. Certes, un tel ´ modele peut plus facilement pr ` edire si un candidat est presque-natif, mais un candi- ´ 61.3. Utilisation des donnees ´ dat predit presque-natif par ce biais peut ´ etre tr ˆ es proche comme tr ` es` eloign ´ e de la ´ structure native. Un seuil bas gen´ ere trop peu de presque-natifs, ce qui limite d’au- ` tant le nombre de candidats disponibles pour l’apprentissage. Pire, un seuil trop bas ne permettrait pas d’obtenir un modele de fonction de score utilisable pour affiner une ` structure 3D. Nous choisissons un seuil en IRMSD de 5A : ˚ – les candidats de IRMSD ≤ 5A sont consid ˚ er´ es comme des ´ presque-natifs ; – les candidats de IRMSD > 5A sont consid ˚ er´ es comme des ´ leurres. Le seuil en IRMSD de 5 A n’est pas choisi au hasard. Pour un complexe prot ˚ eine- ´ proteine, le crit ´ ere C ` APRI pour une solution acceptable est d’avoir un IRMSD < 4A. ˚ Comme nous evaluons des complexes prot ´ eine-ARN, o ´ u l’ARN est une mol ` ecule plus ´ flexible, nous admettons une marge d’erreur leg´ erement sup ` erieure, pour un seuil en ´ IRMSD de 5A. ˚ Jeu de donnees ´ Nb. de structures Provenance Utilisation PRIDB redondante RB1179 1 170 PDB Mesures PRIDB non redondante RB199 120 PDB Gen´ eration ´ Ensemble de perturbations 1 200 000 Gen´ er´ e´ Apprentissage Benchmark proteine-ARN I ´ 45 (11) PDB Gen´ eration ´ Benchmark proteine-ARN II ´ 76 (29) PDB Gen´ eration ´ Jeu de validation 400 000 Gen´ er´ e´ Validation TABLE 1.1 – Nombre de structures 3D presentes, provenance et utilisation pour chaque ´ jeu de donnees. Pour les ´ Benchmarks I et II, le nombre de structures 3D entre parentheses correspond au nombre de structures 3D n’ ` etant pas d ´ ej ´ a pr ` esentes dans la ´ PRIDB non redondante RB199. Il s’agit aussi du nombre de structures 3D effectivement utilisees dans la g ´ en´ eration de candidats. Chaque jeu de donn ´ ees g ´ en´ er´ e est ´ issu des jeux de donnees extraits de la PDB dans la m ´ eme section, qui sont indiqu ˆ es´ comme utilises pour la g ´ en´ eration de candidats. Les mesures effectu ´ ees sur la P ´ RIDB redondante sont des mesures statistiques. 1.3.5 Constitution des jeux d’apprentissage et de test Les jeux d’apprentissage sont constitues par ´ echantillonnage sans remise des can- ´ didats des deux classes pour chaque structure native : – 30 presque-natifs ; – 30 leurres de IRMSD > 8A. ˚ Pour que cet echantillonnage soit possible, pour chaque structure native, l’ ´ etape de ´ gen´ eration des candidats a assur ´ e qu’au moins 30 presque-natifs et 30 leurres de ´ IRMSD > 8A soient g ˚ en´ er´ es. Le seuil en I ´ RMSD de 8 A permet de s’assurer qu’il existe ˚ au moins 30 leurres suffisamment eloign ´ es des presque-natifs. ´ Les jeux de test contiennent l’ensemble des candidats gen´ er´ es. Le jeu de test de la ´ fonction de score finale est le jeu de validation, constitue des candidats g ´ en´ er´ es gr ´ ace ˆ 7Chapitre 1. Donnees ´ aux 40 complexes issus des Benchmarks I et II. Le faible nombre d’interactions non redondantes disponibles incite a utiliser au maximum les donn ` ees disponibles. ´ Pour effectuer une premiere ` evaluation avant de g ´ en´ erer la fonction de score ´ a partir ` des candidats issus des 120 structures natives, une strategie adapt ´ ee du ´ leave-one-out est employee : le ´ leave-”one-pdb”-out (present ´ e au chapitre pr ´ ec´ edent, section 0.6.1). ´ Avec le leave-”one-pdb”-out, pour chaque structure native, une fonction de score est apprise, avec : – en jeu de test, les 10 000 candidats de la structure native ; – en jeu d’apprentissage, les 30 presque-natifs et 30 leurres des 119 autres structures natives. Cet ensemble de differents jeux de donn ´ ees nous permet, tout en utilisant au max- ´ imum la quantite relativement faible de donn ´ ees disponibles, de valider le protocole ´ d’apprentissage a chaque ` etape. ´ 1.4 Mesures d’evaluation locales ´ Les donnees issues de l’ ´ evaluation des diff ´ erents jeux de donn ´ ees n ´ ecessitent l’util- ´ isation de mesures d’evaluation adapt ´ ees pour comparer les m ´ ethodes et leurs mises ´ en œuvre sur chaque jeu de donnees. Les mesures d’ ´ evaluation globales ont d ´ ej ´ a` et´ e´ detaill ´ ees pr ´ ec´ edemment (voir section 0.6.2). ´ Les mesures d’evaluation locales sont plus sp ´ ecifiques ´ a l’objectif qui nous int ` eresse ´ de discriminer les presque-natifs des leurres dans une prediction d’interactions prot ´ eine- ´ ARN. Parmi celles-ci, le nombre de presque-natifs dans le top10 est sans doute le plus important, puisqu’il s’agit de compter le nombre de presque-natifs contenus dans les 10 premiers candidats lorsque les candidats sont tries selon le score. Or, le nombre ´ de candidats que CAPRI accepte de recevoir comme solutions envisagees par une ´ fonction de score est justement de 10. Evidemment, ce nombre va de 0 ´ a 10 et, plus ` ce nombre est elev ´ e, meilleure est la pr ´ ediction. Pour qu’une fonction de score soit ´ consider´ ee comme ayant r ´ eussi ´ a mod ` eliser l’interaction, elle doit avoir au moins 1 ´ presque-natif dans le top10. Les diagrammes d’energie en fonction du RMSD ´ permettent d’identifier les entonnoirs (funnels) de la prediction. Sur le diagramme d’ ´ energie en fonction du RMSD, il ´ s’agit d’identifier une forme en entonnoir des points. Cet entonnoir se situe idealement ´ la pointe en bas a gauche du graphique, sa partie ` evas ´ ee partant en diagonale ´ a droite ` (voir fig. 1.3). Un entonnoir implique que la fonction de score indique, pour des candidats de RMSD donnee, une plage de valeurs de score inf ´ erieure pour des candidats ´ de RMSD superieure. La d ´ ecouverte d’un entonnoir est le signe que la fonction de ´ score evalu ´ ee est utilisable pour affiner la structure 3D de l’interaction recherch ´ ee. ´ Les candidats se trouvant dans le coin superieur gauche sont des presque-natifs mal ´ predits. De la m ´ eme mani ˆ ere, les candidats se trouvant dans le coin inf ` erieur droit sont ´ des leurres mal predits. Les candidats se trouvant dans le coin inf ´ erieur gauche sont ´ les presque-natifs correctement predits et ceux dans le coin sup ´ erieur droit des leurres ´ correctement predits. Les candidats du top10 sont les 10 premiers en partant du bas ´ 81.4. Mesures d’evaluation locales ´ du diagramme. C’est le diagramme de l’energie en fonction du I ´ RMSD qui est utilise´ comme critere d’ ` evaluation (not ´ e´ EvsRMS). EvsRMS −193 −177 −162 0 5 10 15 20 25 Irmsd Score FIGURE 1.3 – Exemples de diagramme d’EvsRMS : le diagramme d’energie en fonction ´ du IRMSD permet la detection d’entonnoir. Voici un exemple d’entonnoir, avec la ma- ´ jorite des candidats suivant un entonnoir partant du coin inf ´ erieur gauche pour s’ ´ evaser ´ dans le coin superieur droit. Une telle courbe permet de montrer que la fonction de ´ score proposee est utilisable pour de l’affinement de structure, une fois l’ ´ epitope de ´ l’interaction identifie. ´ Soit C un ensemble de candidats gen´ er´ e´ a partir d’un m ` eme complexe ˆ c, trie en ´ energie selon une fonction de score. Le ´ score d’enrichissement ES (C) mesure la performance d’une fonction de score pour maximiser la proportion des 10 % premiers candidats tries en I ´ RMSD parmi les 10 % premiers candidats tries en ´ energie. Ainsi, ´ le score d’enrichissement est le nombre de candidats de C dans les 10 % premiers candidats a la fois en ` energie et en I ´ RMSD, divise par le nombre total de candidats de ´ C multiplie par 100 (voir ´ eq. 1.2). En reprenant l’exemple du diagramme d’EvsRMS, ´ les candidats a la fois dans les 10 % premiers candidats en score et les 10 % premiers ` candidats en IRMSD correspondent aux candidats dans le coin inferieur gauche du ´ graphique, si l’on separe le graphique verticalement et horizontalement ´ a 10% des ` candidats en IRMSD et 10% des candidats en energie (voir fig. 1.4). ´ Plus le score d’enrichissement est elev ´ e, plus le tri est enrichi, c’est- ´ a-dire plus la ` proportion de presque-natifs est importante dans les 10 % premiers candidats du tri. Le score d’enrichissement va de 0 a 10. Dans le cas d’un tri parfait, le score d’en- ` richissement vaut 10. Quand il y a independance entre tri en ´ energie et tri en I ´ RMSD, le score s’enrichissement vaut 1. Un score d’enrichissement inferieur ´ a 1 indique qu’au- ` cun enrichissement n’est observe, correspondant ´ a une mauvaise fonction de tri. ` ES (C) = 100# (top10%IRMSD (C) ∩ top10%ENERGY (C)) # (C) (1.2) 9Chapitre 1. Donnees ´ EvsRMS −193 −177 −162 0 5 10 15 20 25 Irmsd Score FIGURE 1.4 – Illustration du score d’enrichissement sur une courbe EvsRMS : un trait horizontal (resp. vertical) divise le graphique en deux parties de telle sorte que 10 % des candidats soient toujours en-dessous (resp. a gauche) de la s ` eparation. Les can- ´ didats dans le cadran inferieur gauche sont les presque-natifs bien pr ´ edits, contraire- ´ ment aux candidats dans le cadran superieur gauche et le cadran inf ´ erieur droit. Les ´ leurres correctement predits se trouvent dans le cadran sup ´ erieur droit. Le score d’en- ´ richissement equivaut ´ a la proportion de candidats dans le cadran inf ` erieur gauche ´ parmi l’union des candidats en-dessous de la ligne de separation horizontale et des ´ candidats a gauche de la ligne de s ` eparation verticale. ´ 10Chapitre 2 Approche Rosetta et adaptation 2.1 Presentation de RosettaDock ´ RosettaDock est un outil de prediction d’interactions entre macromol ´ ecules bi- ´ ologiques. La prediction d’interactions de RosettaDock est conc¸ue et optimis ´ ee pour ´ modeliser les interactions entre prot ´ eines. RosettaDock s’appuie sur un protocole ´ appele´ amarrage (docking). D’autres protocoles en lien avec l’amarrage sont aussi disponibles via RosettaDock. Nous traiterons d’abord de l’amarrage avant de continuer sur les autres protocoles. 2.1.1 Amarrage L’amarrage consiste a pr ` edire la structure 3D repr ´ esentant l’interaction de deux ´ partenaires donnes pour chacun desquels la structure native est connue. Classique- ´ ment, la prediction de la structure 3D de l’interaction est r ´ ealis ´ ee en deux grandes ´ etapes : ´ 1. la gen´ eration d’un large ensemble de candidats (de conformation plausible pour ´ l’interaction des deux partenaires) ; 2. puis le tri de l’ensemble des candidats selon differents crit ´ eres permettant de ` rendre compte de la qualite des candidats pour repr ´ esenter l’interaction (taille de ´ l’interface, nombre de residus en contact ´ etc.). Dans les deux prochaines sections, nous allons sequentiellement d ´ etailler chacune ´ de ces deux etapes. ´ 2.1.1.1 Gen´ eration des candidats ´ L’etape de g ´ en´ eration des candidats consiste ´ a construire plusieurs amarrages 3D ` possibles des deux partenaires etudi ´ es. Un candidat g ´ en´ er´ e est d ´ efini par les coor- ´ donnees spatiales des atomes de ses partenaires. Afin de r ´ eduire le temps de calcul ´ de la gen´ eration, seules les coordonn ´ ees d’un des deux partenaires sont modifi ´ ees, ´ pour deplacer ce partenaire autour de l’autre partenaire, qui reste immobile. En r ´ egle ` 11Chapitre 2. Approche Rosetta et adaptation gen´ erale, le partenaire de plus petite taille est consid ´ er´ e comme mobile, alors que le ´ plus volumineux (en nombre d’acides amines ou d’acides nucl ´ eiques) est fixe. Dans ´ notre cadre d’etude, le partenaire mobile est l’ARN et le partenaire fixe est la prot ´ eine, ´ independamment de leurs tailles respectives. ´ L’espace des candidats possibles d’une interaction a 6 degres de libert ´ e (voir fig. ´ 2.1) : – la translation ρ suivant l’axe X ; – la rotation χ suivant l’axe X ; – la rotation φ1 suivant l’axe Y1 ; – la rotation θ1 suivant l’axe Z1 ; – la rotation φ2 suivant l’axe Y2 ; – la rotation θ2 suivant l’axe Z2. θ2 θ1 φ2 φ1 ρ χ O1 Y1 X1 Z1 Y2 X2 O2 Z2 FIGURE 2.1 – L’espace de recherche des candidats d’une interaction entre deux macromolecules biologiques a 6 degr ´ es de libert ´ e : ´ ρ, χ, φ1, θ1, φ2 et θ2. Image J.Bernauer, adaptee de [46]. ´ L’exploration quasi-exhaustive de l’espace de recherche n’est pas envisageable dans des temps de calcul raisonnables. Comme le montre Connolly [54, 55, 56], la quantite de candidats ´ a envisager pour tester toutes les combinaisons entre la surface ` de la proteine et celle de l’ARN est bien trop importante. Sur les 6 degr ´ es de libert ´ e,´ le nombre de candidats a envisager d ` epend essentiellement du pas en rotation et en ´ translation, mais aussi de la surface de Connolly de chacun des deux partenaires. La surface de Connolly depend de la taille d’un partenaire et de sa forme, puisqu’elle ´ reflete la surface accessible au solvant et donc la surface ` a explorer pour envisager les ` differentes interactions possibles avec un partenaire. Les diff ´ erentes interactions possi- ´ 122.1. Presentation de RosettaDock ´ bles avec un partenaire correspondent au nombre de candidats dont la construction est a envisager pour une exploration quasi-exhaustive de l’espace de recherche. Ce nom- ` bre de candidats peut depasser le million pour des partenaires de taille raisonnable ´ (environ 400 acides amines ou 40 acides nucl ´ eiques selon les moyennes constat ´ ees ´ sur la PRIDB). La gen´ eration des candidats ne s’int ´ eresse donc qu’ ´ a un sous-ensemble ` de candidats. Pour un nombre fixe de candidats ´ a g ` en´ erer, l’objectif est de maximiser ´ les chances d’obtenir des candidats presque-natifs parmi les candidats gen´ er´ es. ´ En utilisant une methode de Monte-Carlo, il est possible d’orienter la g ´ en´ eration des ´ candidats : plus un candidat a une energie faible et plus il aura de chances d’ ´ etre con- ˆ serve. L’exploration de l’espace des candidats donne alors plus probablement des can- ´ didats dans des sous-espaces contenant des candidats de faible energie. En r ´ eit ´ erant ´ un grand nombre de fois la methode de Monte-Carlo, la g ´ en´ eration des candidats per- ´ met de maximiser les chances d’obtenir des candidats de faible energie parmi les ´ candidats gen´ er´ es. En pratique, la r ´ eit ´ eration de la m ´ ethode de Monte-Carlo permet ´ de gen´ erer des candidats correspondant ´ a diff ` erents minima locaux, potentiellement ´ separ ´ es par des barri ´ eres d’ ` energie importantes. Ces barri ´ eres d’ ` energie, o ´ u les candi- ` dats ont une energie tr ´ es forte, emp ` echeraient d’appliquer une minimisation d’ ˆ energie ´ pour arriver a un candidat presque-natif ` a partir d’un puits d’ ` energie diff ´ erent. ´ Dans un modele o ` u les partenaires sont flexibles, il faut, apr ` es d ` eplacement d’un ´ partenaire par rapport a l’autre, prendre en compte la d ` eformation des partenaires. ´ Cette deformation s’effectue lorsque l’environnement proche des atomes des parte- ´ naires est modifie. La modification de l’environnement proche correspond ´ a la prox- ` imite avec des atomes de l’autre partenaire. La proximit ´ e entre atomes des deux parte- ´ naires definit une interface. Une fois une position d ´ etermin ´ ee pour le partenaire mobile, ´ la structure 3D des chaˆınes laterales est donc optimis ´ ee en fonction de son environ- ´ nement proche pour minimiser l’energie. ´ Pour minimiser les temps de calcul dans la modification des coordonnees de chaque ´ atome, on utilise les coordonnees internes (voir fig. 2.2) pour chaque acide amin ´ e et ´ chaque acide nucleique. Un arbre des coordonn ´ ees des atomes est construit pour ´ chaque acide amine et chaque acide nucl ´ eique : ´ – chaque atome a 3 atomes parents dans l’arbre ; – la distance r est la distance au premier parent ; – l’angle θ donne l’angle forme entre les deux premiers parents et le premier parent ´ avec l’atome, dans le plan forme par les droites des deux premiers et des deux ´ derniers parents ; – l’angle φ est l’angle entre les deux derniers parents et le premier parent avec l’atome, dans le plan perpendiculaire a la droite form ` ee par les deux premiers ´ parents. Ainsi, modifier les coordonnees de tout un acide amin ´ e ou acide nucl ´ eique ne ´ necessite pas de modifier les coordonn ´ ees de l’ensemble de ses atomes. Par ailleurs, ´ les angles θ et φ definis chacun pour 2 des rotations d’un partenaire par rapport ´ a` l’autre correspondent aux rotations θ et φ dans des coordonnees torsionnelles. ´ 13Chapitre 2. Approche Rosetta et adaptation CG1 C CG1 C Cβ Cα r y x φ θ Cα FIGURE 2.2 – La manipulation des coordonnees des structures 3D se fait ´ a l’aide ` des coordonnees internes : chaque acide amin ´ e et chaque acide nucl ´ eique sont ´ represent ´ es sous la forme d’un arbre passant par les liaisons covalentes entre les ´ atomes (les cycles sont coupes). Chaque atome a 3 atomes parents, ´ a l’exception des ` 3 premiers atomes qui sont definis les uns par rapport aux autres. La position d’un ´ atome est definie par la distance ´ r a son premier atome parent et par les angles ` θ et φ. Le ref ´ erentiel de coordonn ´ ees cart ´ esien est donn ´ e´ a titre indicatif. Les atomes donn ` es´ en exemple sont C, Cα, Cβ et l’atome gros-grain CG1. 2.1.1.2 Tri des candidats L’etape de g ´ en´ eration des candidats n’explore pas de mani ´ ere exhaustive l’espace ` des conformations possibles entre les deux partenaires etudi ´ es. Toutefois, il est impor- ´ tant de noter que, en regle g ` en´ erale, le nombre de candidats devant ´ etre g ˆ en´ er´ es pour ´ esperer obtenir des candidats presque-natifs est ´ elev ´ e, de l’ordre de 10 000. Certaines ´ fonctions d’evaluation ne sont pas diff ´ erentiables, ce qui ne permet pas de mettre en ´ place des approches efficaces de minimisation. C’est notamment le cas de la fonction de score gros-grain de RosettaDock, qui somme un terme de score defini par une ´ fonction discrete avec d’autres termes de score (voir section 2.1.2.2). ` Sur ce grand nombre de candidats, seul un petit nombre d’entre eux ont une chance d’etre des presque-natifs. La proportion est g ˆ en´ eralement consid ´ er´ ee de l’ordre de ´ 1 pour 1 000 pour la grande majorite des complexes, mais il est attendu d’un bon ´ algorithme d’amarrage de depasser cet ordre de grandeur [114]. ´ Il existe deux types d’erreurs pouvant apparaˆıtre suite au tri des candidats. Ils ont des couts tr ˆ es diff ` erents : ´ – ne pas reussir ´ a mettre un presque-natif en avant face aux leurres oblige ` a` gen´ erer plus de candidats pour obtenir un presque-natif dans les premiers can- ´ didats du tri ; 142.1. Presentation de RosettaDock ´ – mettre un leurre en avant par rapport aux presque-natifs donne l’illusion d’avoir trouve un presque-natif, sur lequel peuvent ensuite se baser des exp ´ eriences qui ´ coutent cher (par exemple, de cristallographie). ˆ Il est donc imperatif de mettre en place d’autres crit ´ eres d’ ` evaluation les plus efficaces ´ possibles pour eviter ces deux types d’erreurs et identifier les presque-natifs parmi ´ l’ensemble des candidats. Nous appelons fonctions de score les differents crit ´ eres d’ ` evaluation que nous al- ´ lons etudier. Selon les besoins, plusieurs fonctions de score peuvent ´ etre d ˆ efinies et ´ appliquees. Une premi ´ ere fonction de score agit comme un filtre permettant de sup- ` primer les leurres les plus evidents. Ce filtre est ´ evalu ´ e sur l’ensemble des configura- ´ tions testees pour la g ´ en´ eration d’un candidat. Le filtre doit donc ´ etre rapide ˆ a calculer. ` Le filtre prend en consideration les crit ´ eres suivants : ` – chevauchements des structures ; – nombre d’atomes impliques dans l’interaction. ´ Pour chaque candidat, si les chevauchements sont trop importants ou si le nombre d’atomes impliques dans l’interaction est trop faible, alors la probabilit ´ e qu’il s’agisse ´ d’un leurre est elev ´ ee. Le filtre associe alors un score ´ elev ´ e au candidat consid ´ er´ e. Si ´ le candidat consider´ e a un score trop ´ elev ´ e, il ne fera pas partie des candidats g ´ en´ er´ es. ´ Une seconde fonction de score est definie pour ´ evaluer et optimiser la structure 3D des ´ chaˆınes laterales ´ a l’interaction. Une telle fonction de score a pour but de donner une ` structure 3D plus fidele` a la r ` ealit ´ e biologique. Gr ´ ace ˆ a la minimisation des cha ` ˆınes laterales, les atomes des cha ´ ˆınes laterales voient leurs coordonn ´ ees adapt ´ ees ´ a l’in- ` teraction avec les atomes du partenaire. Un score final est enfin attribue´ a chaque ` candidat, pour evaluer sa structure 3D dans son ensemble et trier les candidats en ´ fonction de leur probabilite de repr ´ esenter correctement l’interaction. Pour calculer ce ´ score, l’ensemble des termes de score est agreg´ e pour chaque candidat. La fonction ´ d’agregation est une somme pond ´ er´ ee. ´ Selon l’objectif du score, ce dernier utilise pref´ erentiellement des param ´ etres issus ` de differents mod ´ eles g ` eom ´ etriques. Un score permettant d’affiner une structure 3D ´ doit pouvoir correctement evaluer l’ ´ energie issue d’interactions avec le solvant, d’o ´ u le ` calcul de l’influence de la solvatation a l’ ` echelle atomique. ´ A l’inverse, un score utilis ` e´ comme filtre a besoin d’etre calcul ˆ e rapidement et se focalise pr ´ ef´ erentiellement sur ´ des parametres calcul ` es´ a l’ ` echelle gros-grain. ´ 2.1.1.3 Amarrages gros-grain ou atomique L’echelle ´ a laquelle s’effectue l’amarrage convient ` a des probl ` ematiques sp ´ ecifiques. ´ Pour chaque problematique standard d’amarrage, il existe un protocole d’amarrage. ´ L’amarrage gros-grain a pour but de decouvrir l’ ´ epitope ´ (ou zone d’interaction), c’esta-dire identifier les acides nucl ` eiques et acides amin ´ es impliqu ´ es dans l’interaction. ´ L’amarrage atomique a pour but de determiner la structure 3D de l’interaction ´ a l’ ` echelle ´ de l’Angstrom voire en-dessous. Il peut arriver qu’un amarrage atomique soit utilis ¨ e´ lorsque l’on connaˆıt dej ´ a l’ ` epitope, pour affiner la structure 3D identifi ´ ee. ´ Pour reduire les temps de calcul, un amarrage atomique dont on ne conna ´ ˆıt pas l’epitope est g ´ en´ eralement pr ´ ec´ ed´ e d’un amarrage gros-grain. Dans un contexte de ´ 15Chapitre 2. Approche Rosetta et adaptation prediction ´ a l’aveugle comme CAPRI, o ` u on ne connait pas la solution, on proc ` ede ` en gen´ eral ´ a un amarrage atomique ` a partir des structures candidates g ` en´ er´ ees par ´ l’amarrage gros-grain. 2.1.2 Autres strategies ´ Selon le contexte, d’autres strategies pour affiner l’amarrage local peuvent ´ etre ˆ envisagees : ´ – minimisation d’une structure ; – gen´ eration par perturbation d’un nuage de candidats autour d’une structure 3D ; ´ – evaluation du score d’une structure sans modification de la structure 3D. ´ La minimisation correspond le plus souvent a une descente de gradient pour obtenir ` un minimum local proche de la structure 3D donnee en entr ´ ee. Une strat ´ egie de min- ´ imisation du score permet de comparer les candidats gen´ er´ es par diff ´ erents outils de ´ gen´ eration de candidats, chaque outil ayant une fonction de score diff ´ erente avec des ´ minima qui ne correspondent pas necessairement d’un outil ´ a l’autre. Tous les outils de ` gen´ eration de candidats n’ont pas non plus le m ´ eme seuil ˆ a partir duquel deux atomes ` sont consider´ es en interaction. La minimisation permet, pour une I ´ RMSD tres petite ` (normalement de moins de 1A), de potentiellement diminuer drastiquement l’ ˚ energie. ´ Ceci est du au fait que des contraintes ˆ a faible distance peuvent donner de tr ` es fortes ` penalit ´ es aux structures 3D. ´ La gen´ eration par perturbation de candidats autour d’une structure 3D est utilis ´ ee, ´ lorsque l’on connaˆıt dej ´ a l’interaction, pour g ` en´ erer des candidats presque-natifs et ´ leurres. Cette strategie correspond ´ a un amarrage atomique, mais en g ` en´ erant les can- ´ didats selon une operation de rotation-translation al ´ eatoire du partenaire mobile, sans ´ utilisation de l’algorithme de Monte-Carlo. De plus, cette strategie part de la structure ´ native directement, i.e. de la solution, plutot que de partir de la structure 3D de chacun ˆ des deux partenaires. Cette strategie est davantage d ´ etaill ´ ee dans la section traitant ´ de la gen´ eration de candidats par perturbation (voir section 1.3.2). La g ´ en´ eration par ´ perturbation de candidats a dej ´ a` et ´ e utilis ´ ee pour mettre en place et ´ evaluer la fonction ´ de score proteine-prot ´ eine de RosettaDock [98]. ´ Evaluer le score d’une structure 3D sans g ´ en´ eration de candidats est g ´ en´ eralement ´ d’inter´ et lorsque l’on compare diff ˆ erentes fonctions de score ou pour ´ evaluer l’ ´ energie ´ d’une structure native. La comparaison des fonctions de score peut avoir lieu a des ` fins d’evaluation de la structure ou des fonctions de score, comme dans ce manuscrit. ´ L’evaluation de l’ ´ energie d’une structure native permet de v ´ erifier la coh ´ erence d’une ´ fonction de score avec les structures natives disponibles. En effet, une fonction de score correctement modelis ´ ee doit id ´ ealement attribuer une ´ energie plus faible ´ a la ` structure native qu’aux structures des candidats. 2.1.2.1 Fonctions de score atomique : termes physico-chimiques Les termes physico-chimiques sont calcules en utilisant des connaissances issues ´ des propriet ´ es physico-chimiques des interactions entre atomes. ´ A l’ ` echelle atomique, ´ 162.1. Presentation de RosettaDock ´ RosettaDock utilise 10 types de termes de score repartis en 6 groupes (voir fig. 2.3). ´ Sur l’ensemble des equations, les m ´ emes notations sont utilis ˆ ees pour d ´ esigner les ´ memes entit ˆ es, o ´ u : ` – E est le terme de score, modelisant une ´ energie physico-chimique ; ´ – w est le poids donne au terme de score ; ´ – N est le nombre d’atomes ; – Naa est le nombre d’atomes gros-grain des acides amines ; ´ – Nna est le nombre d’atomes gros-grain des acides nucleiques ; ´ – M est le nombre d’acides amines ; ´ – L est le nombre d’acides nucleiques ; ´ – d est la distance entre deux atomes ; – P est une probabilite estim ´ ee ; ´ – σ est la distance minimale d’approche entre deux atomes, somme de leurs rayons de Van der Waals [21] ; – q est une charge positive ou negative ; ´ – ∆Gf r ee est l’energie de Gibbs [162] ; ´ – V est le volume atomique [21] ; – λ est la longueur de correlation d’un atome [144] ; ´ – φ est l’angle diedre d’un rotam ` ere form ` e par le quadruplet d’atomes successifs ´ CO0 − NH1 − Cα1 − CO1 [209] ; – ψ est l’angle diedre d’un rotam ` ere form ` e par le quadruplet d’atomes successifs ´ NH1 − Cα1 − CO1 − NH2 [209] ; – ξ est l’environnement d’un atome. Les deux termes de score attractif (fa atr) et repulsif ´ (fa rep) de Van der Waals representent respectivement l’attraction et la r ´ epulsion universelle entre atomes. In- ´ dependamment du type d’atome, deux atomes se repoussent s’ils sont trop proches ´ l’un de l’autre. Alternativement, deux atomes s’attirent lorsqu’ils sont suffisamment loin l’un de l’autre, jusqu’a une attraction asymptotiquement nulle au fur et ` a mesure que ` la distance croˆıt. Les equations de Lennard-Jones 12-6 pr ´ esent ´ ees ici (voir ´ eq. 2.1 et ´ 2.2) sont une simplification de l’energie de Van der Waals, o ´ u` εij est la profondeur du puits d’energie pour ´ i et j. L’energie de Van der Waals est uniquement calcul ´ ee pour ´ les atomes a moins de 8 ` A de distance. Au-del ˚ a de 8 ` A, l’ ˚ energie de Van der Waals est ´ donc consider´ ee par le mod ´ ele comme nulle. Cette approximation permet de minimiser ` les temps de calcul alloues au calcul de ces deux termes de score. La partie attractive ´ est utilisee pour 0.89 ´ σij A˚ < dij < 8A alors que la partie r ˚ epulsive est utilis ´ ee pour ´ 0.6σij A˚ < dij ≤ 0.89σij A. ˚ Efa at r = wfa at r X N i=1 X N j>i εij  σij dij 12 − 2  σij dij 6 ! (2.1) Efa r ep = wfa r epX N i=1 X N j>i εij    σij 0.6σij 12 − 2  σij 0.6σij 6 − 0.6σij − dij  −12σ 12 ij (0.6σij) 13 + 12σ 6 ij (0.6σij) 7    (2.2) 17Chapitre 2. Approche Rosetta et adaptation FIGURE 2.3 – L’energie potentielle d’une structure 3D de macromol ´ ecules biologiques, ´ souvent assimilee´ a un score, est g ` en´ eralement calcul ´ ee selon une somme de ter- ´ mes modelisant des ph ´ enom ´ enes physico-chimiques sp ` ecifiques. Les termes peuvent ´ porter sur les interactions covalentes (liens, angles, torsions) ou non covalentes (attraction et repulsion universelles, forces ´ electrostatiques, liaisons hydrog ´ ene, ` etc.). Image adaptee de Scientific American / Adv Drug Del Rev. ´ Dans la cellule, le complexe proteine-ARN est plong ´ e dans un solvant. Il est donc ´ necessaire que le mod ´ ele` in silico prenne cette caracteristique en compte. Le terme de ´ solvatation (fa sol) est modelis ´ e dans cet objectif. Le terme de solvatation favorise l’ac- ´ cessibilite des parties hydrophiles solvant et l’inaccessibilit ´ e des parties hydrophobes ´ au solvant (voir eq. 2.3). Ce terme de score demande le calcul de l’accessibilit ´ e au ´ solvant, qui coute cher en temps de calcul [144]. ˆ Efa sol = wfa sol X N i=1 X N j>i   2∆Gf r ee i exp  −d 2 ij  4π √ πλiσ 2 ij Vj + 2∆Gf r ee j exp  −d 2 ij  4π p πλjσ 2 ij Vi   (2.3) 182.1. Presentation de RosettaDock ´ FIGURE 2.4 – Presentation de l’ ´ energie de Van der Waals, o ´ u` ε correspond a la pro- ` fondeur du puits d’energie. L’ ´ energie de Van der Waals poss ´ ede une part r ` epulsive de ´ 0 A jusqu’ ˚ a 0.89 ` σij A et une part attractive au-del ˚ a.` Meme sans aller jusqu’ ˆ a` etre charg ˆ e positivement ou n ´ egativement, un atome peut ´ avoir une charge partielle. Cette charge partielle attire pref´ erentiellement l’atome en ´ question vers les atomes ayant une charge partielle opposee. De plus, certains atomes ´ sont plus frequemment observ ´ es´ a proximit ` e l’un de l’autre qu’avec d’autres atomes. ´ Le terme d’affinite entre paires d’atomes ´ (fa pair) donne un score plus favorable aux atomes ayant une forte affinite entre eux (voir ´ eq. 2.4). Seuls les atomes interagissant ´ entre eux ont une valeur calculee pour fa ´ pair (int dans l’equation). Le terme d’affinit ´ e´ entre paires d’atomes classe chaque atome en quatre environnements, selon sa proximite avec un atome de l’autre partenaire et son accessibilit ´ e au solvant. Pour chaque ´ environnement, chaque paire de type d’atomes obtient un score different. Les quatre ´ environnements possibles sont : – l’atome est dans l’interaction et accessible au solvant ; – l’atome est dans l’interaction et inaccessible au solvant ; – l’atome est hors de l’interaction et accessible au solvant ; – l’atome est hors de l’interaction et inaccessible au solvant. Efa pai r = wfa pai r Y M m=1 Y L l=1 P (m, l|int, ξm, ξl) P (m|int, ξm)P (l|int, ξl) (2.4) Outre les affinites qu’il peut y avoir entre des atomes partiellement charg ´ es, les ´ charges, lorsqu’elles sont presentes, ont aussi un impact sur les interactions entre ´ atomes. Le modele de Coulomb d ` ecrit pour cela l’interaction entre atomes charg ´ es´ en fonction de la valence de leur charge et de la distance qui les separe. Le terme ´ electrostatique ´ (hack elec) utilise le modele de Coulomb (voir ` eq. 2.5). ´ Ehack elec = whack elec X N i=1 X N j>1 332qiqj min dij, 32 (2.5) 19Chapitre 2. Approche Rosetta et adaptation Un phenom ´ ene plus sp ` ecifique de charge partielle intervient dans la cr ´ eation et le ´ maintien d’interactions entre molecules et ´ a l’int ` erieur d’une m ´ eme mol ˆ ecule. Il s’agit ´ de la formation de liaisons hydrogene. Les liaisons hydrog ` ene se forment entre un ` hydrogene de charge partielle positive et un autre atome de charge partielle n ` egative ´ (gen´ eralement un oxyg ´ ene ou un azote). Ces liaisons sont des liaisons non covalentes, ` mais qui participent aux interactions de par leur multiplicite. Les quatre termes de li- ´ aisons hydrogene ` (hbond sc, hbond bb sc, hbond lr bb, hbond sr bb) favorisent l’existence de liaisons hydrogene (voir ` eq. 2.6). Le score donn ´ e aux liaisons hydrog ´ ene ` depend de la distance d’interaction, ´ a courte port ` ee ou ´ a longue port ` ee, et de la local- ´ isation des atomes d’hydrogene, dans le squelette ou dans la cha ` ˆıne laterale. ´ Ehbond ∗ = whbond ∗ X N i=1 X N j>i 5  σij dij 12 − 6  σij dij 10! F (q) (2.6) Les chaˆınes laterales des acides amin ´ es sont flexibles et peuvent adopter plusieurs ´ conformations. Ces conformations sont categoris ´ ees par probabilit ´ e d’apparition dans ´ le diagramme de Ramachandran. La base de donnees de rotam ´ eres de Dunbrack ` [70] a et ´ e conc¸ue sur le m ´ eme principe pour d ˆ eterminer, selon la conformation de ´ la chaˆıne laterale, la probabilit ´ e d’apparition correspondante. Le terme de rotam ´ eres ` de Dunbrack (fa dun) donne un score plus favorable aux rotameres les plus pr ` esents ´ dans les complexes proteine-prot ´ eine connus (voir ´ eq. 2.7). Le terme de rotam ´ eres de ` Dunbrack n’est, pour le moment, utilise que pour les acides amin ´ es. ´ Efa dun = wfa dunX M m=1 − ln Ptype(m) (φmψm)  (2.7) 2.1.2.2 Termes physico-chimiques a l’ ` echelle gros-grain ´ A l’ ` echelle gros-grain, RosettaDock calcule quatre types de termes de score. Les ´ atomes consider´ es sont alors des atomes gros-grain. Dans cette section, on note ´ N le nombre d’atomes gros-grain. Le terme de contact (interchain contact) est une version simplifiee du terme d’at- ´ traction de Van der Waals. Le score donne au terme de contact est une fonction ´ discrete d ` ependant du nombre ´ nInt d’atomes gros-grain a l’interface. Cette fonction ` discrete est d ` efinie par une droite avec une valeur extr ´ eme et deux points particuliers. ˆ S’il n’y a aucun atome gros-grain en interaction, le terme de contact vaut 12. S’il y a 2 atomes gros-grain en interaction, il vaut 9.5. Entre 3 et 19 atomes gros-grain, il vaut 10 − 0.5 ∗ nInt . Au-dela de 19 atomes gros-grain, il est ` egal ´ a sa valeur extr ` eme : ˆ −10. Le terme de repulsion de Van der Waals gros-grain ´ (interchain vdw) est aussi une version simplifiee du terme de r ´ epulsion de Van der Waals atomique. Le terme de ´ repulsion de Van der Waals gros-grain vaut entre 0 et 1. Il utilise un param ´ etre ` dα,β determin ´ e au moyen d’une mesure statistique sur un jeu de donn ´ ees de complexes, o ´ u` α est le type de l’atome i et β le type de l’atome j (voir eq. 2.8). Nous avons notamment ´ 202.2. Evaluation de la fonction de score non optimis ´ ee´ determin ´ e les valeurs de ce param ´ etre pour chaque paire ( ` α, β) de type d’atomes grosgrain. Einter chain vdw = winter chain vdw X Naa i=1 X Nna j=1  d 2 α,β − d 2 ij  d 2 α,β (2.8) Le terme d’affinite par paire d’atomes gros-grain ´ (interchain pair) fonctionne de la meme mani ˆ ere que le terme d’affinit ` e par paire d’atomes. ´ Le terme d’environnement (interchain env) reprend le principe d’environnement des termes d’affinite par paire d’atomes. Le terme d’environnement donne un score favor- ´ able aux atomes gros-grain se trouvant dans les environnements ou ils ont le plus de ` chances d’etre trouv ˆ es. Le terme d’environnement prend aussi en compte une version ´ simplifiee du terme de solvatation. ´ 2.2 Evaluation de la fonction de score non optimis ´ ee´ La fonction de score non optimisee pour les complexes prot ´ eine-ARN est la fonc- ´ tion de score par defaut dans RosettaDock. Cette fonction de score est directement ´ issue de l’amarrage proteine-prot ´ eine : elle est optimis ´ ee pour l’amarrage prot ´ eine- ´ proteine. Nous appellerons cette fonction de score ´ ROS. Nous allons d’abord observer les mesures d’evaluation globales avant de traiter les mesures d’ ´ evaluation locales. ´ 2.2.1 Mesures d’evaluation globales ´ Les mesures d’evaluation globales peuvent s’appliquer lorsque l’on dispose de la ´ matrice de confusion. Calculer la matrice de confusion necessite de d ´ eterminer un ´ seuil a partir duquel la fonction de score s ` epare en presque-natifs et en leurres les ´ candidats predits. Nous utilisons deux seuils diff ´ erents. Le premier seuil est le seuil ´ permettant d’obtenir, pour chaque complexe, le meilleur Fscore (voir section 0.6.2). Ce seuil permet de savoir a quel point la fonction de score peut trouver un compromis ` entre deux types d’erreurs : predire presque-natif un leurre (Faux Positif) et ne pas ´ predire presque-natif un presque-natif (Faux N ´ egatif). ´ Avec ce seuil, le nombre de candidats predits presque-natifs est tr ´ es` elev ´ e (voir ´ tableau 2.1). Le rappel est tres` elev ´ e, mais on peut remarquer avec la pr ´ ecision que ´ la moitie des candidats pr ´ edits sont des presque-natifs. En moyenne, chaque candidat ´ predit presque-natif a donc une chance sur deux d’ ´ etre un presque-natif. Et le rappel ˆ montre que la quasi-totalite des presque-natifs sont pr ´ edits presque-natifs. De plus, ´ la specificit ´ e continue de montrer que la fonction de score ROS n’est pas adapt ´ ee´ a` la prediction d’interactions prot ´ eine-ARN. Pour plus de la moiti ´ e des complexes, les ´ leurres predits par la fonction de score ROS repr ´ esentent moins de 1 % des v ´ eritables ´ leurres. Dit autrement, plus de 99 % des leurres sont predits comme ´ etant des presque- ´ natifs. 21Chapitre 2. Approche Rosetta et adaptation Aggregat ´ Precision ´ Rappel Fscore Accuracy Specificit ´ e´ Seuil Moyenne 49.52% 98.68% 65.94% 50.75% 2.27% 9 874 Mediane pr ´ ecision ´ 47.44% 99.99% 64.35% 47.45% 0.06% 9 998 Mediane Fscore ´ 46.51% 99.99% 63.49% 46.53% 0.06% 9 997 TABLE 2.1 – Evaluation globale de la fonction de score ROS sur la P ´ RIDB, sous le seuil du meilleur Fscore pour chaque complexe, avec la moyenne et la mediane sur les ´ 120 complexes de la PRIDB. La derniere colonne correspond au nombre de candidats ` predits presque-natifs au seuil du meilleur Fscore et permet de comparer ces r ´ esultats ´ a ceux du top10. Pour le calcul des mesures des lignes concernant la m ` ediane, ce sont ´ les exemples correspondant a la m ` ediane de la pr ´ ecision, d’une part, et du Fscore, ´ d’autre part, qui sont utilises. ´ L’evaluation de la fonction de score par des mesures globales avec un seuil d ´ efini ´ par le Fscore donne des resultats apparemment satisfaisants. Mais le seuil est alors ´ different pour chaque complexe et n ´ ecessite de conna ´ ˆıtre a l’avance le r ` esultat. On ´ ne peut donc pas choisir ce seuil, qui est gen´ eralement tr ´ es` elev ´ e, avec la plupart ´ des valeurs au-dela de 9 990 candidats pr ` edits presque-natifs. Le seuil d ´ efini par le ´ meilleur Fscore est uniquement etudi ´ e pour mesurer un compromis de performance ´ de la fonction de score. De plus, meme si l’on pouvait trouver ce seuil de compro- ˆ mis entre precision et rappel, la pr ´ ecision n’est que de moiti ´ e. Cela signifie que, en ´ prenant au hasard un candidat parmi les candidats predits, il y a en moyenne 50 % de ´ chances que le candidat predit ne soit pas un presque-natif. Or, l’objectif est justement ´ de nous assurer de pouvoir trouver au moins un presque-natif, avec comme marge de manœuvre le fait de pouvoir en selectionner 10. ´ Le second seuil est fixe´ a 10 candidats, ce qu’on appelle le top10. Ainsi, seuls les ` 10 meilleurs candidats au sens du tri oper´ e par la fonction de score sont consid ´ er´ es´ comme des presque-natifs. Tous les autres candidats sont predits comme ´ etant des ´ leurres. Avec un seuil au top10, on ne s’attend pas a avoir un fort rappel (ou sensibilit ` e)´ lorsque le nombre de presque-natifs est grand dans l’ensemble des exemples testes. ´ Rappelons que le nombre de presque-natifs est d’au moins 30 pour chaque complexe de la PRIDB. Et le rappel est effectivement tres bas (voir tableau 2.2). Mais surtout, ` la precision est aussi tr ´ es basse, avec 59 des 120 complexes - soit pr ` es de la moiti ` e´ d’entre eux - n’ayant aucun presque-natif dans le top10 (voir tableau S2). On voit donc que les mesures d’evaluation globales affichent parfois des r ´ esultats ´ tres satisfaisants, avec un rappel ou une sp ` ecificit ´ e tr ´ es forte. Mais les r ` esultats ne ´ correspondent en realit ´ e pas aux objectifs fix ´ es, ce que peut montrer notamment la ´ precision. C’est pourquoi il est utile de passer ´ a des mesures d’ ` evaluation locales. ´ 222.2. Evaluation de la fonction de score non optimis ´ ee´ Aggregat ´ Precision ´ Rappel Fscore Accuracy Specificit ´ e´ Moyenne 29.25% 0.05% 0.09% 68.17% 99.83% Mediane pr ´ ecision ´ 10.00% 0.06% 0.12% 81.13% 99.89% Mediane Fscore ´ 15.00% 0.02% 0.04% 26.26% 99.28% TABLE 2.2 – Evaluation globale de la fonction de score ROS sur la P ´ RIDB, sous le seuil de 10 candidats (top10), avec la moyenne et la mediane sur les 120 complexes ´ de la PRIDB. Pour la mediane, ce sont les complexes correspondant ´ a la m ` ediane de ´ la precision, d’une part, et du Fscore, d’autre part, qui sont utilis ´ es pour calculer les ´ differentes mesures, dont les lignes sont intitul ´ ees pr ´ ecision et Fscore. ´ 2.2.2 Mesures d’evaluation locales ´ Les mesures d’evaluation locales sont au moins pour certaines plus sp ´ ecifiques au ´ probleme ` etudi ´ e et plus adapt ´ ees aux objectifs fix ´ es pour la pr ´ ediction d’interactions ´ proteine-ARN. Les mesures d’ ´ evaluation locales se d ´ eclinent en deux axes : ´ – d’une part, des mesures sur les performances de la fonction de score, comme l’aire sous la courbe ROC ; – d’autre part, des mesures davantage focalisees sur les objectifs biologiques de ´ la prediction, comme le nombre de presque-natifs dans le top10 des candidats, ´ le score d’enrichissement et le diagramme d’energie en fonction du I ´ RMSD. Les aires sous la courbe ROC sont en moyenne de 0.37, avec une variance de 0.02. On pourrait penser qu’inverser la prediction donn ´ ee par la fonction de score ROS ´ donnerait de meilleurs resultats. Inverser la pr ´ ediction correspond par exemple ´ a at- ` tribuer a chaque candidat le n ` egatif de son score, ce qui inverse l’ordre dans lequel ´ les candidats se situent dans un tri selon le score. Pour l’aire sous la courbe ROC, cela aurait pour consequence d’obtenir le miroir par rapport ´ a 0.5 de la valeur de l’aire ` sous la courbe de ROC (ici, 0.63, puisque 0.5 − 0.37 = 0.13 et 0.5 + 0.13 = 0.63). Cependant, c’est sans compter sur le fait que la proportion de presque-natifs dans un ensemble de candidats est bien plus faible pour une prediction ´ a l’aveugle (de l’ordre ` de 1 a 10 pour 10 000 avec un bon protocole de g ` en´ eration de candidats). Inverser la ´ prediction reviendrait certainement ´ a donner une ` energie ´ elev ´ ee´ a une grande partie ` des presque-natifs de faible energie. ´ De la meme mani ˆ ere, avec 59 complexes sur 120, pr ` es de la moiti ` e des complexes ´ n’ont aucun presque-natif dans le top10 des meilleurs candidats en energie. Formul ´ e´ autrement, en prenant un complexe au hasard de la PRIDB, il y a une chance sur deux que la prediction ne propose aucun candidat satisfaisant. La fonction de score ROS ne ´ permet pas la prediction des interactions prot ´ eine-ARN. ´ Les diagrammes d’energie en fonction du I ´ RMSD permettent de constater que la fonction de score ROS n’est pas adaptee´ a un raffinement d’une structure de haute ` resolution prot ´ eine-ARN. En effet, aucun des complexes ne montre un entonnoir sur la ´ totalite de ses candidats : il existe toujours de nombreux candidats de faible ´ energie et ´ ayant un IRMSD elev ´ e (voir 2.5). On peut aussi constater plus clairement qu’inverser la ´ fonction de score ROS amenerait ` a n’avoir qu’une tr ` es faible quantit ` e de candidats de ´ 23Chapitre 2. Approche Rosetta et adaptation faible energie, souvent avec un I ´ RMSD superieur ´ a 5 ` A. ˚ Irmsd (Å) Score 0 20 −200 3350 Irmsd (Å) Score 0 20 −530 3400 Irmsd (Å) Score 0 20 −90 4940 FIGURE 2.5 – Exemples de diagrammes d’energie en fonction du I ´ RMSD pour la fonction de score ROS sur 3 complexes. On remarque l’absence d’entonnoir. De nombreux complexes montrent des diagrammes semblables pour la fonction de score ROS, qui n’est pas adaptee. ´ On note toutefois que certains complexes peuvent etre consid ˆ er´ es comme ayant ´ un entonnoir, jusqu’a une faible valeur de I ` RMSD (voir 2.6). Au-dela de cette valeur en ` IRMSD, de l’ordre de 2 ou 3A et propre ˚ a chacun de ces complexes, la fonction de ` score ROS donne une energie comparable entre des candidats ayant un I ´ RMSD faible comme elev ´ e. ´ Irmsd (Å) Score 0 20 −210 2980 Irmsd (Å) Score 0 20 −1190 4730 Irmsd (Å) Score 0 20 −930 5030 FIGURE 2.6 – Meilleurs exemples de diagrammes d’energie en fonction du I ´ RMSD pour la fonction de score ROS sur 3 complexes. On remarque un entonnoir s’arretant rapide- ˆ ment. Rares sont les complexes montrant des diagrammes semblables pour la fonction de score ROS. Si la fonction de score non optimisee ROS n’est pas adapt ´ ee´ a la pr ` ediction d’in- ´ teractions proteine-ARN, il est possible d’optimiser une fonction de score similaire. ´ Nous verrons lors de l’optimisation de la fonction de score, avec le filtrage a priori, que ROS est initialement apprise pour predire des candidats dont certains leurres sont ´ 242.3. Optimisation de la fonction de score dej ´ a filtr ` es. Il s’agit notamment des candidats avec trop d’interp ´ en´ etrations, aussi ap- ´ pelees ´ clashes, notion modelis ´ ee par le terme de score fa ´ rep. Ce constat, couple au ´ fait que ROS n’a pas et ´ e construite pour pr ´ edire d’interactions prot ´ eine-ARN, explique ´ son echec sur la pr ´ ediction d’interactions prot ´ eine-ARN. Mais nous verrons aussi et ´ surtout d’autres approches d’optimisation. 2.3 Optimisation de la fonction de score La combinaison lineaire de termes physico-chimiques est la seule forme de fonc- ´ tion de score que RosettaDock peut nativement utiliser. Nous mettons donc en œuvre l’apprentissage d’une fonction de score etant la combinaison lin ´ eaire des 10 attributs ´ physico-chimiques atomiques disponibles pour chaque candidat. L’equation 2.9 montre ´ pour un candidat c la combinaison lineaire ´ E(c) des |A| attributs physico-chimiques ai . wai representent les poids de la fonction de score et ´ Eai (c) la valeur de l’attribut ai pour le candidat c. E(c) = X |A| i=1 waiEai (c) (2.9) Une autre formulation envisageable est celle present ´ ee dans l’ ´ equation 2.10 avec ´ des notations plus classiquement utilisees en apprentissage. On retrouve ´ X qui designe ´ le candidat c, xi qui represente la valeur de l’attribut ´ Eai pour le candidat c (Eai (c)) et wi le poids du i eme attribut. E(X) = X |A| i=1 wixi (2.10) Par souci de simplicite et pour ´ eviter d’introduire un formalisme trop distant des ´ conventions usuelles en apprentissage automatique, nous utiliserons les notations present ´ ees dans l’ ´ equation 2.10. ´ Les poids wi doivent etre d ˆ efinis soit ´ a partir de connaissances physico-chimiques, ` soit a partir de donn ` ees d ´ ej ´ a connues, c’est- ` a-dire des complexes prot ` eine-ARN pour ´ lesquels un ensemble de presque-natifs et un ensemble de leurres sont connus. Pour conserver la semantique biologique de la fonction de score qui repr ´ esente une ´ energie, ´ les presque-natifs doivent avoir des scores de valeurs inferieures ´ a ceux des leurres. ` Si nous arrivons a construire une telle fonction de score, nous pourrons l’utiliser ` a des fins pr ` edictives. C’est- ´ a-dire que seules les candidats (ou exemples) ayant les ` valeurs les plus faibles pour ce score seront retenus. Du point de vue de l’apprentissage, cela implique qu’il existe une correlation entre ´ la probabilite d’ ´ etre un candidat presque-natif et la valeur du score. Nous pouvons ˆ donc estimer la probabilite conditionnelle ´ P(Pr esque −natif|E(X)) et de maniere plus ` gen´ erale ´ P(Pr esque − natif|X). Dans notre cadre de travail, nous disposons de deux classes : presque-natif et leurre. Nous noterons 1 la classe presque-natif et 0 la classe leurre. 25Chapitre 2. Approche Rosetta et adaptation Notre objectif se reformule donc comme l’estimation de la probabilite condition- ´ nelle : P(y = 1|X). Compte tenu du cadre impose par RosettaDock, nous cherchons ´ a estimer ` P(y = 1|X) ∼ E(X) = P|A| i=1 wixi . Nous devons donc determiner les poids ´ wi tels que E(X) represente bien la probabilit ´ e pour ´ X d’etre un presque-natif. Pour ˆ etre tout ˆ a fait ` rigoureux, sachant que E(X) represente (d’un point de vue biologique) l’ ´ energie du ´ candidat X, plus cette energie est faible alors plus la probabilit ´ e que le candidat ´ X soit un presque-natif est elev ´ ee. ´ Nous cherchons donc a d ` eterminer les poids ´ wi tels que P(y = 1|X) = 1 − E(X) = 1 − P|A| i=1 wixi aient une valeur maximale pour X presque-natif. Plusieurs approches peuvent etre mises en œuvre pour estimer les poids ˆ wi . Nous presentons dans les sous-sections 2.3.1 et 2.3.2 deux approches permettant ´ de determiner ces poids. ´ 2.3.1 Estimation des poids par regression logistique ´ Nous allons montrer dans cette section le bien fonde de la mod ´ elisation de ´ P(y = 1|X) par une combinaison lineaire des attributs de ´ X Sachant que notre objectif est de pouvoir identifier les presques-natifs, nous pouvons redefinir notre objectif principal : ´ estimer au mieux le ratio P(y = 1|X)/P(y = 0|X). Si le ratio est superieur ou ´ egal ´ a 1 alors le candidat sera pr ` edit comme ´ etant un ´ presque-natif, sinon, il sera predit comme ´ etant un leurre. ´ Par un simple jeu de re´ecriture des probabilit ´ es conditionnelles, nous pouvons re- ´ formuler le rapport P(y = 1|X)/P(y = 0|X) comme indique dans l’ ´ equation 2.11. ´ P(y = 1|X) P(y = 0|X) = P(y = 1) P(y = 0) ∗ P(X|y = 1) P(X|y = 0) (2.11) Classiquement la fraction P(y=1) P(y=0) est estimee´ a partir du rapport des contingences ob- ` servees sur le jeu d’apprentissage : ´ P(y=1) P(y=0) = nb(y=1) nb(y=0) ou` nb(y = 1) (resp. = 0) represente ´ le nombre de candidats presque-natifs (resp. leurres) dans le jeu d’apprentissage. L’estimation du rapport des probabilites conditionnelles exprim ´ e dans l’ ´ equation ´ 2.11 repose donc sur l’estimation du rapport defini dans l’ ´ equation 2.12. ´ P(X|y = 1) P(X|y = 0) (2.12) Pour estimer le rapport 2.12, la regression logistique pose l’hypoth ´ ese fondamen- ` tale que le logarithme nep´ erien du rapport des probabilit ´ es conditionnelles peut s’ex- ´ primer comme une combinaison lineaire des attributs d ´ ecrivant ´ X (voir equation 2.13). ´ ln  P(X|y = 1) P(X|y = 0) = a0 + X |A| i=1 aixi (2.13) Sachant que nous cherchons a estimer la probabilit ` e d’un candidat d’ ´ etre un presque- ˆ natif, nous devons estimer P(y = 1|X). 262.3. Optimisation de la fonction de score Nous pouvons obtenir une estimation de P(y = 1|X) grace ˆ a l’ ` equation 2.14 avec ´ w0 = ln P(y=1) P(y=0) + a0 et wi = ai . LOGIT(P(y = 1|E)) = ln P(y = 1|X) 1 − P(y = 1|X) = w0 + X |A| i=1 wiEi (2.14) L’estimation de P(y = 1|X) est fournie par l’equation 2.15. ´ P(y = 1|X) = e w0+ P|A| i=1 wi xi 1 − e w0+ P|A| i=1 wi xi (2.15) Rappelons que notre objectif est de determiner les poids ´ wi permettant d’estimer au mieux P(y = 1|X). Plusieurs methodes peuvent ´ etre utilis ˆ ees pour d ´ eterminer ces ´ poids. Classiquement en regression logistique, ces poids sont estim ´ es par maximum ´ de vraisemblance a partir d’un ` echantillon de donn ´ ees consid ´ er´ e comme repr ´ esentatif. ´ Nous ne detaillerons pas les calculs n ´ ecessaires pour l’estimation par maximum ´ de vraisemblance. Le lecteur interess ´ e par le maximum de vraisemblance appliqu ´ e au ´ raffinement de structures 3D pourra se ref´ erer ´ a [184]. ` D’autres approches peuvent etre utilis ˆ ees pour estimer les valeurs des poids, par ´ exemple des approches d’optimisation stochastiques telles que les algorithmes de type evolutionnaire. ´ 2.3.2 Algorithmes evolutionnaires ´ Les algorithmes evolutionnaires appartiennent ´ a la famille des m ` ethodes d’optimi- ´ sation stochastiques. Ces algorithmes permettent d’obtenir une solution approchee´ a` un probleme. ` Dans notre cadre de travail, notre objectif est de pouvoir determiner, ´ a partir d’un ` ensemble d’attributs associes´ a un candidat, si celui-ci est un presque-natif ou non. Si ` nous nous replac¸ons dans le cadre de RosettaDock, nous cherchons a d ` eterminer les ´ poids wi tels que E(X) = P|A| i=1 wixi soit minimal si X est un presque-natif. Pour determiner les poids ´ wi , nous avons vu que nous pouvons estimer ces poids par maximum de vraisemblance, mais nous pouvons aussi determiner ces poids par ´ rapport a une fonction objectif et un jeu de donn ` ees ´ etiquet ´ ees. Et comme indiqu ´ e´ prec´ edemment, notre objectif est de d ´ eterminer les poids ´ wi tels que les presque-natifs obtiennent des valeurs faibles pour E et les leurres des valeurs elev ´ ees. ´ Nous avons choisi de mettre en œuvre l’approche ROGER (ROC-based Evolutionary learneR) [228]. Il s’agit d’une implementation en C d’un algorithme g ´ en´ etique cher- ´ chant a optimiser un vecteur de valeurs selon une fonction objectif. R ` OGER a pour fonction objectif l’aire sous la courbe Receiver Operating Characteristic (ROC-AUC), a` maximiser. En pratique, ROGER minimise la somme des rangs des exemples positifs, qui est un equivalent de la maximisation de l’aire sous la courbe ROC. ´ Le principe de ROGER (principe gen´ eral des algorithmes ´ evolutionnaires) est illustr ´ e´ dans la figure 2.7. 27Chapitre 2. Approche Rosetta et adaptation Le principe consiste a manipuler des individus g ` en´ etiques qui vont ´ evoluer dans ´ l’espace de recherche au moyen de mutations et de croisements de leur patrimoine gen´ etique. ´ Plusieurs espaces de recherche peuvent etre d ˆ efinis. Dans notre cadre de travail, ´ l’espace de recherche est R |A| car les |A| attributs caracterisant un candidat sont ´ a` valeur reelle. ´ Un individu gen´ etique est d ´ efini comme l’ensemble des ´ |A| poids wi que nous cherchons a d ` efinir. ´ Etant donn ´ e un individu g ´ en´ etique, tous les candidats du jeu d’appren- ´ tissage sont evalu ´ es et le score obtenu pour chaque individu permet d’ordonner tous ´ les candidats par valeur croissante de ce score (E tel que defini dans l’ ´ equation 2.10). ´ La qualite d’un individu g ´ en´ etique ´ f est evalu ´ ee´ a partir de ce tri. Cette qualit ` e se ´ definit simplement par la somme des rangs des exemples presque-natifs. ´ Le principe gen´ eral de R ´ OGER comporte globalement les cinq etapes suivantes ´ (voir fig. 2.7) : 1. gen´ eration al ´ eatoire de la population initiale des individus g ´ en´ etiques ( ´ µ parents), puis evaluation de cette population ; ´ 2. verification de la qualit ´ e de la population. Fin de l’algorithme si au moins l’un des ´ criteres d’arr ` et est atteint ; ˆ 3. evolution de cette population pour obtenir un ensemble d’enfants de cardinalit ´ e´ λ ; La gen´ eration de ces ´ λ enfants est realis ´ ee par mutation et croisement ´ a partir ` des µ parents de la population courante ; 4. evaluation de l’ensemble des ´ λ nouveaux enfants ; 5. selection de la nouvelle population, ne conservant que les ´ µ meilleurs individus gen´ etiques ´ a partir de l’ensemble des individus de la population courante, ` i.e. les µ parents + λ enfants. Nous avons teste diff ´ erents couples de valeurs pour ´ µ et λ. Compte tenu des performances obtenues et des temps de calculs, le meilleur couple de valeurs est (µ, λ) = (10, 80). Nous avons defini trois crit ´ eres d’arr ` et pour l’algorithme : ˆ – le nombre maximum d’iterations est atteint (100 000 it ´ erations) ; ´ – le nombre maximum d’iterations sans am ´ elioration de la fonction objectif est at- ´ teint (20 000 iterations) ; ´ – l’optimum de la fonction objectif est atteint, c’est-a-dire que l’aire sous la courbe ` ROC est egale ´ a 1. ` ROGER peut apprendre differents types de fonctions parmis lesquels nous retrou- ´ vons des fonctions lineaires, polynomiales, logistiques, ´ etc. 2.3.3 Methodologie d’optimisation de la fonction de score atom- ´ ique La methodologie g ´ en´ erale d’optimisation de la fonction de score atomique de Roset- ´ taDock peut se decomposer en 3 parties : ´ 282.3. Optimisation de la fonction de score Initialisation Enfants (λ vecteurs) Mutations et brassages Fonction objectif Évaluation Critère d'arrêt (AUC, itérations... ) Parents (μ vecteurs) Remplacement Meilleurs parmi μ + λ Évaluation FIGURE 2.7 – Illustration de l’algorithme gen´ eral de R ´ OGER. Les parents et enfants que ROGER manipule sont des vecteurs de valeurs. En encadres verts se trouvent ´ les vecteurs. Les etapes du processus sont encadr ´ ees en bleu et l’entr ´ ee et la sortie ´ sont en encadres noirs. R ´ OGER commence par choisir au hasard µ parents et les evaluer. Puis, il g ´ en´ ere ` λ enfants par mutation et recombinaison a partir des ` µ parents. ROGER evalue et s ´ electionne ensuite selon la fonction objectif les ´ µ meilleurs vecteurs parmi les µ parents et λ enfants. Ces µ meilleurs vecteurs deviennent les µ parents de l’iteration suivante, jusqu’ ´ a atteindre un crit ` ere d’arr ` et. ˆ – la constitution des jeux de donnees, d ´ ej ´ a pr ` esent ´ ee au chapitre 1 ; ´ – l’apprentissage de la fonction de score sur l’ensemble des 120 complexes et l’apprentissage des 120 fonctions de score en leave-”one-pdb”-out, present ´ es´ prec´ edemment dans cette m ´ eme section ; ˆ – l’evaluation des 120 fonctions de score en ´ leave-”one-pdb”-out sur les candidats de leur jeu d’evaluation et celle de la fonction de score sur les 40 000 candidats ´ de l’ensemble de validation. Sur le diagramme 2.8, la premiere partie est d ` elimit ´ ee par les points ´ a, b et c. Ces points a, b et c correspondent respectivement a la g ` en´ eration des candidats ´ par perturbation, a leur ` etiquetage en presque-natifs, leurres et leurres du test et ´ a` l’echantillonnage sans remise des candidats des classes presque-natifs et leurres pour ´ constituer le jeu d’apprentissage. La seconde partie intervient aux points d et e dans la construction des fonctions de score, qu’il s’agisse des 120 fonctions de score apprises en leave-”one-pdb”-out – point d – ou de la fonction de score apprise sur l’ensemble des 120 complexes – point e. La derniere partie est repr ` esent ´ ee par le point ´ f, avec le calcul et l’observation des differentes mesures d’ ´ evaluation sur les exemples ´ de validation. 29Chapitre 2. Approche Rosetta et adaptation PRIDBnr 133 pdb Génération de candidats par perturbation 10 000 structures par pdb Filtre : pdb avec seulement 2 partenaires en interaction 133 pdb oui 120 * 10 000 candidats 3 600 presque-natifs 3 600 leurres 120 pdb 354 344 leurres a b c Sépare les candidats Irmsd(presque-natifs) ≤ 5 Å Irmsd(leurres) > 8 Å leurres de test sinon Jeu d'apprent. 7 200 candidats Pour tout pdb : #cand.(Irmsd ≤ 5 Å) ≥ 30 et #cand.(Irmsd > 8 Å) ≥ 30 ? non 590 707 presquenatifs 120 * 10 000 candidats 254 949 leurres de test Échantillonnage sans remise : candidats avec #presque-natifs=#leurres=30 Ensemble d'apprent. 1 200 000 candidats Apprentissage + évaluation Leave-"one-pdb"-out Critères globaux Inspection visuelle Courbe ROC + ROC-AUC #presque-natifs(top10) #cand.(sous énergie native) Score d'enrichment d Apprentissage 1 fonction de score ROGER Logistique e Modèle de fonction de score 1 modèle f 120 modèles FIGURE 2.8 – Illustration de la methodologie d’optimisation de la fonction de score ´ atomique. 2.4 Evaluation de la fonction de score optimis ´ ee´ Le modele utilis ` e pour l’apprentissage et pr ´ esent ´ e pr ´ ec´ edemment peut faire l’objet ´ de variantes pour ameliorer le pouvoir pr ´ edictif tel qu’il est refl ´ et´ e par les diff ´ erentes ´ mesures d’evaluation. ´ Les choix sur les variantes dependent des connaissances ´ a priori sur le contexte de la prediction prot ´ eine-ARN. D’une part, nous choisissons de tester les m ´ ethodologies ´ mises en œuvre dans la prediction d’interactions prot ´ eine-prot ´ eine. D’autre part, nous ´ prenons en compte les caracteristiques propres des ARN par rapport aux prot ´ eines, ´ notamment sa plus grande flexibilite. Parmi ces choix, nous pouvons identifier : ´ – la definition de l’intervalle de valeurs des poids des termes de score ; ´ – le filtrage a priori des candidats pour chaque complexe ; – la categorisation des complexes en fonction de crit ´ eres sur leurs partenaires ` 302.4. Evaluation de la fonction de score optimis ´ ee´ combinee´ a la mod ` elisation d’une fonction de score par cat ´ egorie de complexes. ´ 2.4.1 Pouvoir predictif en fonction des contraintes ´ L’intervalle de valeurs dans lequel les poids des termes de score sont recherches´ influence les performances de la fonction de score obtenue pour maximiser la fonction objectif. Une contrainte imposee sur cet intervalle de valeurs permet de simplifier la ´ recherche du maximum global en diminuant la taille de l’espace de recherche. Mais contraindre l’intervalle de valeurs des poids peut aussi empecher de trouver les poids ˆ permettant d’obtenir le maximum global. Il convient donc d’utiliser une contrainte astucieusement choisie pour eviter les minima locaux tout en conservant dans l’intervalle ´ de valeurs les poids permettant d’obtenir le maximum global. Quelles que soient les contraintes appliquees ´ a l’apprentissage dans R ` OGER, les fonctions de score optimisees pour l’amarrage prot ´ eine-ARN surpassent les perfor- ´ mances de la fonction de score optimisee pour l’amarrage prot ´ eine-prot ´ eine qui est, ´ rappelons-le, la fonction par defaut de RosettaDock (voir tableau 2.3). La fonction de ´ score optimisee pour l’amarrage prot ´ eine-prot ´ eine a une AUC moyenne inf ´ erieure ´ a 0.4 ` et n’a que la moitie des complexes avec un nombre de presque-natifs non nul parmi le ´ top10 des candidats tries en ´ energie. De plus, seuls 15 des complexes ont une AUC ´ superieure ´ a 0.5. ` La contrainte a poids positifs, issue de la connaissance experte de l’amarrage ` proteine-prot ´ eine, donne de meilleurs r ´ esultats que la contrainte ´ a poids n ` egatifs ou ´ meme que l’absence de contrainte [101]. Les fonctions de score ˆ a poids positifs ont ` une ROC-AUC moyenne superieure de plus de 0.1 ´ a la ROC-AUC moyenne des autres ` fonctions de score. De plus, les fonctions de score a poids positifs ont une dizaine ` de complexes de plus avec une ROC-AUC superieure ´ a 0.5 et avec un nombre de ` presque-natifs non nul dans le top10 des candidats tries en ´ energie. ´ La contrainte a poids n ` egatifs donne des r ´ esultats quasi-identiques ´ a l’absence ` de contrainte. Ces deux manieres d’apprendre les fonctions de score donnent une ` ROC-AUC moyenne de 0.64, 105 complexes avec une ROC-AUC superieure ´ a 0.5 et ` 109 complexes avec au moins 1 presque-natif dans le top10 des candidats tries en ´ energie. En l’absence de contrainte, les poids sont pi ´ eg´ es dans des minima locaux. Ce ´ sont justement ces minima locaux qui sont evit ´ es en appliquant la contrainte des poids ´ positifs. Etant donn ´ ee la similarit ´ e de r ´ esultats entre la contrainte n ´ egative et l’absence ´ de contrainte, la question est de savoir si les poids sont aussi similaires. Il se trouve que les minima locaux des fonctions de score sans contrainte appliquee´ sur leurs poids sont pour certains negatifs ou nuls (voir fig. 2.9). Les poids en question ´ des fonctions de score sans contrainte sont donc effectivement pieg´ es dans l’intervalle ´ de valeurs negatif. ´ Les poids finalement acceptes ont surtout des valeurs non nulles pour quatre ter- ´ mes de score (voir fig. 2.10). Parmi ces quatre termes de score, trois d’entre eux correspondent a des types de liaisons hydrog ` ene et ont une valeur proche de 1 pour quasi- ` ment tous les complexes. Ceci montre a quel point la formation des liaisons hydrog ` ene ` dans une interaction proteine-ARN est importante dans les structures biologiquement ´ 31Chapitre 2. Approche Rosetta et adaptation Classifieur ROC-AUC ROC-AUC > 0.5 #(top10E(Candidats))> 0 ROS 0.363±0.016 15 61 NEG 0.640±0.016 105 109 ALL 0.643±0.016 105 109 POS 0.798±0.018 119 117 TABLE 2.3 – Pour chaque intervalle de valeurs utilise comme contrainte d’apprentis- ´ sage des poids par ROGER lineaire sont indiqu ´ es : la moyenne et la variance de la ´ ROC-AUC, le nombre de complexes pour lesquels la ROC-AUC est superieure ´ a 0.5 et ` le nombre de complexes avec un #presque-natifs (top10E(Candidats)) non nul. ROGER lineaire positif (POS) a pour contrainte l’intervalle de valeurs positif [0 ; 1], R ´ OGER lineaire (ALL) l’intervalle de valeurs sans contrainte [ ´ −1 ; 1] et ROGER lineaire n ´ egatif ´ (NEG) l’intervalle de valeurs negatif [ ´ −1 ; 0]. La fonction de score par defaut est celle ´ implement ´ ee dans RosettaDock et optimis ´ ee pour l’amarrage prot ´ eine-prot ´ eine. ´ actives. Le seul type de liaison hydrogene qui n’est pas privil ` egi ´ e correspond aux li- ´ aisons hydrogene entre les atomes de la cha ` ˆıne laterale de l’un des partenaires et les ´ atomes du squelette de l’autre partenaire. Le dernier terme de score a une valeur qui avoisine les 0.2 et correspond a l’affinit ` e entre paires d’atomes. ´ 2.4.2 Fonction de score dedi ´ ee pour chaque type d’ARN ´ Une des hypotheses de travail est de consid ` erer que l’interaction entre la prot ´ eine et ´ l’ARN depend de la forme des partenaires. Dans cette optique, nous avons cat ´ egoris ´ e´ les complexes en trois types, en fonction de la forme gen´ erale de l’ARN : simple brin ´ (ss), double brin (ds) et ARN de transfert mature (tRNA). Puis, nous avons modelis ´ e´ une fonction de score pour chaque categorie de complexes. Pour chaque fonction ´ de score ainsi modelis ´ ee, nous avons proc ´ ed´ e, en amont de l’apprentissage et de ´ l’evaluation, ´ a un filtre des complexes pour ne garder que les complexes de la cat ` egorie ´ correspondant a la fonction. ` Les resultats de l’ ´ evaluation indiquent que les complexes mettant en jeu un tRNA ´ mature sont un peu mieux modelis ´ es avec une fonction de score d ´ edi ´ ee (voir tableau ´ 2.4). Les deux autres fonctions de score dedi ´ ees ne montrent pas d’am ´ elioration par ´ rapport a la fonction de score R ` OGER a poids positifs. ` 2.4.3 Combinaison lineaire ´ a poids positifs ` Apres apprentissage de la fonction de score ` a combinaison lin ` eaire par R ´ OGER avec des coefficients des termes de score contraints aux valeurs dans [0 ; 1], la fonction de score est evalu ´ ee. Pour chaque mesure d’ ´ evaluation, nous allons ´ evaluer les ´ 120 fonctions de score gen´ er´ ees par ´ leave-”one-pdb”-out et la fonction de score globale sur le jeu de donnees issu des ´ Benchmarks I et II. 322.4. Evaluation de la fonction de score optimis ´ ee´ ● ● ● ● ● ● ●● ● ● ● ● ● ● −1.0 −0.5 0.0 0.5 1.0 Poids ● ●● ● ● ● ● ●● ● ● ● ● ●●● ● ●● ● ● ●● ● ● ● ● ● ● ● ●● ● ●● ● ● ● ● ● ● ● ● ●● ● −1.0 −0.5 0.0 0.5 1.0 fa_atr fa_rep fa_dun fa_sol fa_pair hbond_lr_bb hbond_sr_bb hbond_bb_sc hbond_sc hack_elec FIGURE 2.9 – Repartition de la valeur des coefficients par poids et contrainte d’inter- ´ valle de valeurs, pour les 120 fonctions de score gen´ er´ ees par le ´ leave-”one-pdb”-out mis en œuvre sur la PRIDB. Les points en losange jaune correspondent aux valeurs des coefficients des poids de la fonction de score par defaut de RosettaDock, ROS. ´ Les boˆıtes a moustache repr ` esentent les valeurs des coefficients des termes de score ´ pour un intervalle de definition n ´ egatif (en bleu) ou sans contrainte (en noir). ´ 2.4.3.1 Pouvoir predictif de la fonction de score ´ La ROC-AUC est superieure ´ a 0.7 pour 89 des 120 complexes, montrant un pouvoir ` predictif important (voir tableau S12). Globalement, les presque-natifs sont donc bien ´ separ ´ es des leurres. La ROC-AUC est en moyenne de 0.8 et sa variance de 0.02. ´ Lges courbes ROC ont une pente a l’origine ` elev ´ ee, comme on peut le voir pour les ´ 33Chapitre 2. Approche Rosetta et adaptation FIGURE 2.10 – Repartition de la valeur des coefficients par poids, pour les 120 fonc- ´ tions de score gen´ er´ ees par le ´ leave-”one-pdb”-out mis en œuvre sur la PRIDB. Les points en losange correspondent aux valeurs des coefficients des poids de la fonction de score par defaut de RosettaDock, ROS. ´ complexes etant ´ a la m ` ediane, au premier quartile et au troisi ´ eme quartile en ROC- ` AUC (voir fig. 2.11). Sur l’ensemble des complexes, seuls 8 des 120 ont une pente a` l’origine insatisfaisante (voir fig. 2.12). Dans le jeu de donnees issu des ´ Benchmarks I et II, les resultats des fonctions de ´ score ROGER sont similaires a ceux pour le jeu de donn ` ees de perturbations issu de ´ la PRIDB (voir fig 2.11). 342.4. Evaluation de la fonction de score optimis ´ ee´ Categorie ´ Mediane(ROC-AUC) ´ ROC-AUC > 0.7 ROC-AUC > 0.6 Complexes POS 0.82 0.73 0.88 120 POS ds 0.81 0.69 0.87 55 POS ss 0.80 0.76 0.88 33 POS tRNA 0.87 0.84 0.97 32 TABLE 2.4 – Evaluation du mod ´ ele de pr ` ediction d ´ edi ´ e par cat ´ egorie de complexes. Les ´ categories double brin (POS ds), simple brin (POS ss) et ARN de transfert (POS tRNA) ´ sont comparees ´ a la fonction de score sans cat ` egorisation des complexes (POS). La ´ mediane de la ROC-AUC, et la proportion des complexes v ´ erifiant une condition sur la ´ ROC-AUC parmi les complexes de la categorie sont compar ´ ees. La derni ´ ere colonne ` correspond au nombre de complexes dans la categorie. On peut remarquer que la ´ fonction de score dedi ´ ee aux complexes avec un ARNt mature donne de meilleures ´ performances que la fonction de score traitant indifferemment les complexes. Les deux ´ autres fonctions de score dedi ´ ees donnent des r ´ esultats similaires ´ a la fonction de ` score non dedi ´ ee. ´ 2.4.3.2 Enrichissement du tri des candidats Le score d’enrichissement defini au chapitre 1 montre un enrichissement du tri pour ´ 27 des 120 complexes : ces 27 complexes ont un score d’enrichissement superieur ´ a 6. Sur les 120 complexes, 6 complexes ont un enrichissement inf ` erieur ´ a 1. ` A la ` lumiere de ces r ` esultats, il faut rappeler que la fonction de score apprend ´ a s ` eparer ´ deux classes - presque-natifs et leurres - qui sont distinguees l’une de l’autre par un ´ seuil fixe de 5A en I ˚ RMSD. Or, le score d’enrichissement considere les 10 % premiers ` candidats en IRMSD comme des presque-natifs et regarde parmi eux la proportion des 10 % premiers candidats en energie. Dans un ensemble de candidats g ´ en´ er´ es par ´ faible perturbation, il arrive frequemment qu’un seuil d ´ efini ´ a 10 % des candidats en ` IRMSD soit tres inf ` erieur ´ a 5 ` A (de l’ordre de 1 ˚ a 2 ` A). De mani ˚ ere g ` en´ erale, le score ´ d’enrichissement est donc d’autant moins bon que le seuil a 10 % des candidats en ` IRMSD s’ecarte de 5 ´ A. Le r ˚ esultat obtenu est plus coh ´ erent avec les autres mesures ´ d’evaluation pour un score d’enrichissement ´ a` X % ou` X est la proportion de candidats necessaires pour avoir un seuil en I ´ RMSD de 5A. Pour R ˚ OGER, le score d’enrichissement ainsi calcule est sup ´ erieur ´ a 6 pour 94 des 120 complexes, contre seulement ` 42 complexes pour ROS. Et aucun complexe n’a un score inferieur ´ a 2 pour le score ` ROGER, contre 41 complexes pour ROS. 2.4.3.3 Detection d’entonnoir ´ Les courbes d’EvsIrms permettent de detecter un entonnoir pour 94 des 120 com- ´ plexes (voir fig. S1). Ceci suggere que la fonction de score est utilisable en amarrage ` atomique pour affiner une structure 3D dont on a detect ´ e l’ ´ epitope. ´ On pourrait penser que la separation des candidats en presque-natifs et leurres ´ selon un seuil fixe a un impact sur la signification de la prediction. Si la fonction de ´ 35Chapitre 2. Approche Rosetta et adaptation FIGURE 2.11 – Courbes ROC pour trois complexes de la PRIDB avec la fonction de score POS (a) et ROS (b), avec les courbes ROC pour trois complexes du Benchmark I (c) et du Benchmark II (d). Les trois complexes utilises´ a chaque fois sont choisis ` parce qu’ils sont les plus proches de la mediane (en trait plein), le 1 ´ er quartile et le 3e quartile (en pointilles) en ROC-AUC. La ROC-AUC de la m ´ ediane est ´ a chaque fois ` indiquee. ´ score apprend correctement a s ` eparer les classes, les candidats pr ´ edits presque-natifs ´ ont une forte chance d’avoir un IRMSD ≤ 5A. Mais la pr ˚ ediction pourrait ne pas don- ´ ner d’information plus forte sur la divergence entre le presque-natif et la structure native. Pourtant, on constate avec la detection d’entonnoir que les caract ´ eristiques de ´ l’interaction ont correctement et ´ e mod ´ elis ´ ees par la fonction de score pour approxima- ´ tivement 100 des 120 complexes. En effet, les candidats de meilleure energie tendent ´ 362.4. Evaluation de la fonction de score optimis ´ ee´ 0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0 Irmsd Score FIGURE 2.12 – Courbes ROC pour 8 complexes de la PRIDB avec la fonction de score POS. Ces 8 complexes ont et ´ e choisis pour la faible valeur de leur pente ´ a l’origine. ` aussi a` etre ceux qui ont le meilleur I ˆ RMSD et non n’importe quel IRMSD entre 0 et 5A. Cette information a ˚ et ´ e retrouv ´ ee par le mod ´ ele de fonction de score alors qu’elle ` n’etait pas fournie en entr ´ ee de l’apprentissage. ´ Il reste neanmoins des cas o ´ u un entonnoir n’est tout simplement pas d ` etect ´ e.´ Pour ces complexes pour lesquels l’interaction n’est pas capturee, une structure 3D ´ alternative est quelque fois proposee par la fonction de score, d’ ´ energie plus ´ elev ´ ee´ que l’interaction recherchee. Il s’agit ici de 1jbs et 1t0k, pour lesquels plusieurs leurres ´ de meme I ˆ RMSD sont proposes par la fonction de score. ´ Mais il y a aussi des cas ou la fonction de score privil ` egie de fac¸on consistante des ´ structures plus eloign ´ ees de la native, sans pour autant qu’il s’agisse de leurres. C’est ´ 37Chapitre 2. Approche Rosetta et adaptation 1jbs (ES = 0.79) Irmsd (Å) Score 0 20 −22 −12 0 20 1t0k (ES = 1.34) Irmsd (Å) Score 0 20 21 34 0 20 FIGURE 2.13 – Diagrammes d’energie en fonction du I ´ RMSD pour deux complexes de la PRIDB avec la fonction POS. On constate que la fonction de score propose une interaction differente de celle de la structure native, alors qu’elle d ´ etecte tr ´ es bien un ` entonnoir pour 94 des 120 complexes. notamment le cas pour 1feu, 1j1u ou 1pgl, ainsi que, dans une moindre mesure, pour 1asy, 1av6 ou 1b23. Pour certains de ces complexes, les candidats mis en avant par la prediction ´ evitent davantage l’interp ´ en´ etration des partenaires que la structure native. ´ Pour d’autres, un entonnoir est meme visible en plus du premier entonnoir et laisse ˆ suspecter une potentielle interaction de plus haute energie. Les complexes 2bx2, 2d6f ´ et, surtout, 3egz montrent en effet qu’une seconde interaction est compatible avec le modele de fonction de score (voir fig. 2.14). ` 2bx2 (ES = 2.08) Irmsd (Å) Score 0 20 2 12 0 20 2d6f (ES = 2.75) Irmsd (Å) Score 0 20 6 17 0 20 3egz (ES = 3.05) Irmsd (Å) Score 0 20 −17 −6 0 20 FIGURE 2.14 – Diagrammes d’energie en fonction du I ´ RMSD pour trois complexes de la PRIDB avec la fonction POS. On constate que la fonction de score propose, en plus de presque-natifs proches de la structure native, une interaction alternative a celle de ` la structure native. 2.4.3.4 Repartition des coefficients des termes de score ´ Les coefficients des termes de score nous permettent de mieux comprendre les forces en jeu influenc¸ant le plus les interactions entre proteines et ARN. On peut re- ´ marquer plusieurs types de comportements parmi tous les complexes. Notamment, le 382.4. Evaluation de la fonction de score optimis ´ ee´ comportement le plus remarque est celui o ´ u les termes de score hbond, repr ` esentant ´ la stabilite provenant des liaisons hydrog ´ ene, ont des coefficients ` elev ´ es. Mais sur ´ les quatre types de termes de score hbond, seuls trois d’entre eux ont des valeurs elev ´ ees : le coefficient reste tr ´ es faible pour le score hbond ` bb sc, qui represente les ´ liaisons hydrogene entre le squelette d’un partenaire et les cha ` ˆınes laterales de l’autre ´ partenaire. Ceci indique que les complexes proteine-ARN ont tendance ´ a former des ` liaisons entre les atomes de leurs squelettes a courte et moyenne port ` ee, mais aussi ´ entre les atomes des chaˆınes laterales. ´ Code PDB fa atr fa rep fa dun fa sol fa pair 1h3e 0.000496 0.000793 0.000009 0.000944 0.22261 1j2b 0.000653 0.000337 0.000023 0.000474 0.175237 3ex7 0.00058 0.000314 0.000009 0.000511 0.166342 Code PDB hbond lr bb hbond sr bb hbond bb sc hbond sc hack elec 1h3e 0.999557 0.999906 0.000132 0.999968 0.000726 1j2b 0.999245 0.999941 0.000627 0.99933 0.000559 3ex7 0.999739 0.999963 0.000301 0.999195 0.000479 TABLE 2.5 – Trois exemples types de coefficients des termes de score hbond elev ´ es. ´ Les valeurs des coefficients tournent toujours autour de valeurs tres faibles ( ` < 10−3 ) ou tres hautes ( ` > 1−10−3 ). Le seul terme de score faisant exception a la r ` egle est le terme ` de score fa pair, modelisant l’affinit ´ e entre atomes en fonction de leur environnement. ´ 2.4.4 Filtrage a priori des candidats du modele atomique ` Avec le filtrage a priori des candidats pour chaque complexe, le modele rejette ` d’emblee de la pr ´ ediction une partie des candidats, principalement pour deux raisons. ´ D’une part, les candidats peuvent etre rejet ˆ es parce qu’ils sont des leurres ´ evidents. ´ D’autre part, pour certains candidats, il peut etre trop difficile de discriminer entre ˆ presque-natif et leurre. Il devient alors acceptable de rejeter ces candidats si la proportion de presque-natifs parmi eux est suffisamment faible et si les retirer du jeu d’apprentissage permet d’ameliorer la pr ´ ediction. ´ Nous avons proced´ e´ a un filtre en fonction du score donn ` e par le terme de score ´ fa rep, qui donne une quantification du chevauchement entre les deux partenaires. Nous ne conservons que les candidats en-dessous de la mediane du terme de score ´ de fa rep, ce qui signifie que nous choisissons systematiquement de ne conserver que ´ les 5 000 meilleurs candidats en fa rep. En realit ´ e, il ne s’agit pas exactement des 5 000 ´ meilleurs candidats en fa rep. Le nombre exact de candidats retenu peut etre sup ˆ erieur ´ a 5 000, puisque la valeur en fa ` rep peut etre identique entre candidats autour du seuil ˆ des 5 000 meilleurs candidats en fa rep. Sur les 120 complexes de la PRIDB, 54 n’ont que des complexes presque-natifs apres utilisation du filtre. Ceci montre l’importance du terme de score fa ` rep dans la 39Chapitre 2. Approche Rosetta et adaptation determination des structures repr ´ esentant le mieux l’interaction, mais aussi que ce ´ terme de score ne suffit pas a pr ` edire l’interaction. ´ Sur les 66 complexes restants, qui disposent encore de leurres, on constate une diminution drastique des performances en ROC-AUC. Sur ces complexes, 28 ont une diminution de plus de 0.05 du ROC-AUC pour POS. Le filtre a permis d’ecarter des ´ candidats qui etaient des leurres tr ´ es faciles ` a discerner des presque-natifs pour les ` fonctions de score employees. ´ Cependant, nous observons aussi une augmentation du nombre de presque-natifs dans le top10. Les 3 complexes pour lesquels il est le plus difficile pour POS de predire ´ des presque-natifs dans le top10 ont, apres filtre, tous au moins un presque-natif dans ` le top10 (voir tableau 2.6). De plus, le nombre de complexes pour lesquels il n’y a aucun presque-natif dans le top10 passe de 59 a 22 pour la fonction de score ROS. ` pdb Enrichissement Top10 Top100 Presque-natifs Seuil ROC-AUC ROS POS ROS POS ROS POS ROS POS 1jbs 0.38 0.40 0 1 35 32 2528 5003 0.49 0.55 1t0k 0.61 1.03 9 8 79 76 3725 5002 0.51 0.56 2anr 0.38 1.04 8 6 43 75 2927 5000 0.43 0.56 TABLE 2.6 – Les trois complexes les plus difficiles a pr ` edire pour la fonction de score ´ POS ont tous au moins 1 candidat presque-natif dans le top10 apres utilisation du filtre ` de la mediane en fa ´ rep, alors qu’ils etaient les seuls ´ a avoir un nombre de presque- ` natif dans le top10 a 0 sans usage du filtre. Pourtant, le ROC-AUC reste faible (0.55 ` environ). Nous pourrions etre tent ˆ es de conserver le filtrage par la m ´ ediane en fa ´ rep dans la suite de ces travaux. En effet, ce filtre a priori permet d’ameliorer les r ´ esultats quant ´ a l’objectif fix ` e de maximiser le nombre de presque-natifs dans le top10. Cependant, ´ il faut se rappeler que les candidats rejetes par ce filtre ´ a priori sont rejetes parce ´ qu’ils presentent une interp ´ en´ etration trop importante. Or, de tels candidats ne sont ´ pas attendus apres une g ` en´ eration de candidats ayant incorpor ´ e l’utilisation d’un filtre ´ adapte pour rejeter les candidats pr ´ esentant des caract ´ eristiques trop ´ eloign ´ ees des ´ attentes biologiques (interpen´ etration trop importante, distance trop importante entre ´ les atomes des partenaires, etc.). Il est ainsi conseille d’employer le filtrage par la m ´ ediane en fa ´ rep en l’absence de tout autre filtre ou de tout amarrage pouvant garantir que les candidats gen´ er´ es ne ´ presentent pas d’interp ´ en´ etration n’ayant aucun sens biologique. Mais l’objectif dans ´ les chapitres suivants est justement d’arriver a un protocole de pr ` ediction d’interactions ´ proteine-ARN o ´ u les candidats soumis ` a la pr ` ediction atomique ont un sens biologique. ´ 402.5. Conclusions sur la fonction de score atomique 2.5 Conclusions sur la fonction de score atomique Nous avons pu voir dans ce chapitre la fonction de score atomique implement ´ ee´ par defaut dans RosettaDock, ROS. Vu que ROS n’est pas optimis ´ e pour la pr ´ ediction ´ d’interactions proteine-ARN, ses performances ne permettent pas la pr ´ ediction d’in- ´ teractions entre proteine et ARN, encore moins le raffinement de structures 3D. Nous ´ avons constate que les mesures d’ ´ evaluation globales ne permettent pas d’obtenir d’in- ´ formations sur l’objectif fixe, qui est de maximiser le nombre de presque-natifs dans ´ le top10 des candidats. Dans cette optique, les mesures d’evaluation locales se sont ´ aver´ ees plus utiles. L’optimisation de la fonction de score atomique, en conservant ´ les contraintes de RosettaDock, a permis d’obtenir des performances bien meilleures. Ce gain de performance a et ´ e conditionn ´ e´ a un apprentissage contraint ` a l’intervalle ` de definition positif, [0 ; 1], raison pour laquelle la fonction de score apprise s’appelle ´ POS. Nous avons confronte POS ´ a deux autres fonctions de score, ALL et NEG, re- ` spectivement sur l’intervalle de definition [ ´ −1 ; 1] pour ALL et [−1 ; 0] pour NEG. Cette confrontation a permis de montrer l’efficacite de POS, dont l’intervalle de d ´ efinition ´ est tire de la connaissance ´ a priori de l’amarrage proteine-prot ´ eine. Un filtre ´ a priori permet d’ameliorer la pr ´ ediction donn ´ ee par ROS, mais les r ´ esultats sont encore peu ´ stables, marquant des ecarts de performance importantes entre les diff ´ erents com- ´ plexes. Ce filtre consiste a ne conserver pour la pr ` ediction que les candidats dont la ´ valeur du terme de score fa rep est inferieure ´ a celle de la m ` ediane de fa ´ rep sur les 10 000 candidats gen´ er´ es. ´ Nous avons donc obtenu une fonction de score POS non seulement capable de predire l’interaction prot ´ eine-ARN, mais aussi d’ ´ etre efficace dans le raffinement de ˆ structures 3D proteine-ARN. Il reste maintenant ´ a concevoir une fonction de score ` s’affranchissant des contraintes de RosettaDock, pour esperer mieux mod ´ eliser encore ´ l’interaction. La finalite est d’obtenir un protocole d’amarrage de pr ´ ediction d’interaction ´ proteine-ARN multi- ´ echelle, ce qui implique la mod ´ elisation d’une fonction de score ´ a` une autre echelle. Cette fonction de score sur une autre ´ echelle peut servir de filtre ´ a priori pour diminuer les temps de calcul et ecarter les leurres les plus simples. C’est ´ pourquoi, dans un second temps, nous nous focaliserons sur une echelle gros-grain. ´ 41Chapitre 2. Approche Rosetta et adaptation 42Chapitre 3 Approche a posteriori Nous avons vu, dans le chapitre prec´ edent, l’approche classique mise en œuvre ´ dans RosettaDock pour la gen´ eration et l’ ´ evaluation de candidats. Le choix de Roset- ´ taDock impose de se restreindre a une fonction d’ ` evaluation qui est une combinaison ´ lineaire des attributs associ ´ es´ a chaque candidat. ` Comme nous le verrons par la suite, RosettaDock peut gen´ erer des candidats ´ presque-natifs qui, d’apres la fonction d’ ` evaluation utilis ´ ee, ne sont pas class ´ es parmi ´ les meilleurs candidats. Il n’est donc pas toujours possible, en utilisant seulement une fonction de type combinaison lineaire, de mettre en avant les meilleurs candi- ´ dats gen´ er´ es par RosettaDock. Nous nous sommes donc focalis ´ e sur d’autres familles ´ de fonctions afin de pouvoir ordonner plus efficacement les candidats gen´ er´ es par ´ RosettaDock. Sachant que ces fonctions ne pourront etre appliqu ˆ ees qu’en post- ´ traitement de RosettaDock, c’est-a-dire sans interaction directe avec RosettaDock, ` nous appelerons les approches mises en œuvre pour obtenir ces nouvelles fonctions de tri : modeles ` a posteriori. 3.1 Modeles ` a posteriori Les modeles de fonction de score ` a posteriori ne sont pas utilises directement par ´ RosettaDock et peuvent ainsi s’affranchir de la contrainte de la combinaison lineaire. ´ Les candidats sont initialement gen´ er´ es par RosettaDock puis tri ´ es par une fonction de ´ score appliquee en post traitement. Notons qu’un tri ´ a posteriori ne permet pas d’orienter la gen´ eration des candidats durant l’ ´ etape de g ´ en´ eration. Sachant qu’il est possible ´ de fournir a RosettaDock un ensemble de candidats ` a priori peu divergeant des solutions recherchees, nous pouvons parfaitement envisager de coupler des phases de ´ gen´ eration de candidats suivies de s ´ election des meilleurs candidats en appliquant les ´ fonctions de tri que nous presenterons par la suite. Les meilleurs candidats pourront ´ alors etre utilis ˆ es comme conformations initiales pour l’it ´ eration suivante de Rosetta- ´ Dock. De nombreuses approches peuvent etre mises en œuvre pour apprendre des fonc- ˆ tions de score a partir des attributs disponibles pour chaque candidat. Nous avons ` etudi ´ e diff ´ erentes approches reposant sur l’apprentissage de mod ´ eles : fonctions de ` 43Chapitre 3. Approche a posteriori score de type combinaison lineaire ´ etendue, arbres ou r ´ egles de d ` ecision, mod ´ ele` bayesien na ´ ¨ıf, etc. 3.1.1 Combinaison lineaire ´ La combinaison lineaire de termes physico-chimiques est la seule forme de fonc- ´ tion de score que RosettaDock peut nativement utiliser. L’equation 3.1 montre pour le ´ candidat X la combinaison lineaire ´ f(X) des attributs xi ou` wi representent les poids ´ qui doivent etre appris pour chaque attribut. ˆ f(X) = X |A| i=1 wixi (3.1) Cette modelisation peut ´ etre ˆ etendue en int ´ egrant la notion de ´ valeur de centrage associee´ a chaque attribut. ` Les valeurs de centrage doivent etre apprises pour chaque attribut. Ces valeurs ˆ vont permettre de determiner si la contribution au score de chaque attribut est lin ´ eaire ´ ou non. La nouvelle fonction de score obtenue, fc, est definie par l’ ´ equation 3.2, o ´ u` X represente le candidat, ´ xi la valeur du i e attribut, wi son poids et ci sa valeur de centrage. Ainsi, la prise en consideration des valeurs de centrage, permet d’obtenir, pour ´ chaque attribut, un comportement lineaire par partie : croissant (resp. d ´ ecroissant) ´ jusqu’a un seuil ` ci puis decroissante (resp. croissant) apr ´ es le seuil. Notons que la ` contribution de xi est nulle au point ci . fc(X) = X |A| i=1 wi |xi − ci | (3.2) A l’image des diff ` erents noyaux utilis ´ es pour les SVM, d’autres types de fonctions ´ peuvent etre prises en consid ˆ eration : polynomiales, quadratiques, gaussiennes, ´ etc. Notre principal objectif n’etant pas d’apprendre une fonction d’ordonnancement des ´ candidats, mais plutot de pouvoir identifier efficacement les candidats presque-natifs, ˆ nous nous sommes focalises sur des approches permettant d’apprendre des mod ´ eles ` predicitifs. ´ 3.1.2 Approches dites ”explicatives” : arbres et regles de d ` ecision ´ Les arbres et les regles de d ` ecision appartienent ´ a la famille des mod ` eles ”expli- ` catifs” ou ”comprehensibles”. En effet, lorsqu’un arbre de d ´ ecision est appris sur des ´ donnees, il est ais ´ e de proposer ´ a l’expert une repr ` esentation graphique des donn ´ ees. ´ L’expert peut alors tres facilement comprendre le mod ` ele obtenu et se l’approprier. ` L’une des limitations de ces approches (arbres ou regles de d ` ecision) est la taille de ´ l’arbre obtenu (ou la quantite de r ´ egles). ` 443.1. Modeles a posteriori ` Pour illustration, voici un exemple simple d’arbre de decision (voir fig. 3.1). Sur trois ´ attributs fa dun, fa pair et fa rep, 50 exemples fictifs sont utilises pour la pr ´ ediction : ´ 25 presque-natifs et 25 leurres. La valeur de chacun des attributs est dans l’intervalle [0 ; 1] pour les 50 exemples. Voici le resultat de l’apprentissage d’un arbre d ´ ecisionnel ´ sur ces 50 exemples fictifs : • fa dun≥ 0.43 • fa rep≤ 0.72 (presque-natifs) : 13 presque-natifs et 5 leurres • fa rep> 0.72 (leurres) : 16 leurres et 4 presque-natifs • fa dun< 0.43 • fa pair< 0.14 (presque-natifs) : 2 presque-natifs • fa pair≥ 0.14 • fa rep> 0.65 (leurres) : 3 leurres • fa rep≤ 0.65 (presque-natifs) : 6 presque-natifs et 1 leurre FIGURE 3.1 – Exemple d’arbre de decision sur 50 exemples fictifs r ´ epartis en 25 ´ presque-natifs et 25 leurres, avec 3 attributs : fa dun, fa pair et fa rep. Cet exemple fictif commence par separer en deux les 50 exemples selon fa ´ dun, avec un seuil de 0.43. Les exemples avec fa dun≥ 0.43 sont ensuite separ ´ es selon ´ fa rep, avec un seuil de 0.72, a la suite de quoi deux feuilles sont donc cr ` e´ees. La ´ premiere feuille correspond aux exemples avec fa ` dun≥ 0.43 et fa rep≤ 0.72 et est peuple de 13 presque-natifs et 5 leurres. En pr ´ ediction, comme cette feuille est ma- ´ joritairement peuplee de presque-natifs, un exemple dont la classe est ´ a pr ` edire et qui ´ serait attribue´ a cette feuille serait pr ` edit presque-natif. La seconde feuille correspond ´ aux exemples avec fa rep> 0.72 parmi les exemples de fa dun≥ 0.43. Cette feuille est peuplee de 16 leurres et 4 presque-natifs, et pr ´ edit comme un leurre tout exemple ´ correspondant a ses seuils. ` Pour les exemples avec fa dun< 0.43, une seconde separation est effectu ´ ee avec ´ un seuil de 0.14 sur fa pair. Nous tombons directement sur une feuille pour fa dun< 0.43 et fa pair< 0.14, peuplee de 2 presque-natifs. Pour fa ´ dun< 0.43 et fa pair≥ 0.14, une troisieme s ` eparation selon fa ´ rep est effectuee, avec un seuil de 0.65. Les ´ exemples avec fa dun< 0.43, fa pair≥ 0.14 et fa rep> 0.65 sont au nombre de 3 et sont tous des leurres. La derniere feuille a 7 exemples, dont 6 presque-natifs et ` 1 leurre, avec fa dun< 0.43, fa pair≥ 0.14 et fa rep≤ 0.65. Cette feuille predit les ´ exemples comme etant des presque-natifs. ´ Dans cet exemple fictif, on peut remarquer deux cas de figure : les feuilles ou les ` exemples sont de meme classe et les feuilles o ˆ u il y a des exemples des deux classes. ` Dans le cas ou les exemples sont de m ` eme classe, il para ˆ ˆıt evident que les exemples ´ a pr ` edire dont les valeurs d’attributs correspondent ´ a cette feuille sont pr ` edits comme ´ etant de la classe des exemples de la feuille. Dans le second cas, c’est la classe ´ majoritaire qui est consider´ ee comme ´ etant la classe de la feuille. ´ On peut aussi remarquer que les deux premieres feuilles sont peupl ` ees d’exemples ´ des deux classes, alors qu’il reste un dernier attribut selon lequel les exemples n’ont pas et ´ e s ´ epar ´ es. L’apprentissage de l’arbre a consid ´ er´ e que cette s ´ eparation en fa ´ pair n’apportait pas d’information supplementaire ´ a la pr ` ediction. ´ 45Chapitre 3. Approche a posteriori La taille de l’arbre est ici relativement petite, mais cette taille peut grandement augmenter avec le nombre d’attributs et d’exemples. Le principal inter´ et des arbres (ou r ˆ egles) de d ` ecision dans notre travail ne r ´ eside ´ pas dans leur pouvoir explicatif mais plutot dans la m ˆ ethode mise en œuvre pour ap- ´ prendre les modeles. ` L’apprentissage des arbres de decision repose sur le principe ´ diviser-pour-regner ´ . Le principe gen´ eral est de diviser it ´ erativement, chaque fois selon un attribut, l’ensem- ´ ble des exemples en sous-ensembles pour lesquels les exemples ont plus de probabilite d’ ´ etre d’une classe donn ˆ ee. La construction de l’arbre de d ´ ecision d ´ ebute l’ensem- ´ ble des exemples. L’objectif est de determiner le couple (attribut, valeur) permettant ´ d’obtenir une partition ”optimale” des donnees. Plusieurs mesures permettent d’ ´ evaluer ´ la qualite des partitions obtenues. Parmi les crit ´ eres classiquement utilis ` es, nous pou- ´ vons citer le gain de Gini, l’entropie de Shannon, etc. Sans rentrer dans les details techniques de l’algorithme que nous avons utilis ´ e,´ a` savoir C4.5 [207] (algorithme de ref ´ erence pour les arbres de d ´ ecision), nous pr ´ ecisons ´ tout de meme que le crit ˆ ere utilis ` e pour s ´ electionner les couples (attribut, valeur) per- ´ mettant de construire un arbre de decision est l’entropie de Shannon. ´ L’algorithme ne procede pas ` a une s ` eparation en nœuds fils s’il se trouve dans l’un ´ des cas suivants : – tous les exemples du nœud courant sont de la meme classe ˆ y, ce qui cree une ´ feuille etiquet ´ ee avec la classe ´ y ; – tous les attributs obtiennent un gain d’information normalise nul, ce qui cr ´ ee une ´ feuille etiquet ´ ee de la classe majoritaire ; ´ – la taille d’au moins une des partitions cre´e est inf ´ erieure ´ a un seuil pr ` ed´ efini. ´ Dans le premier cas, le classement est parfait suivant les exemples du jeu d’apprentissage. Dans le second cas, les attributs ne permettent pas d’ameliorer davantage le ´ gain d’information et toute inference suppl ´ ementaire de r ´ egles de d ` ecision est donc ´ inutile du point de vue des donnees disponibles en apprentissage. Le troisi ´ eme cas ` correspond a la situation o ` u, malgr ` e l’ensemble des tests d ´ ej ´ a effectu ` es, la partition ´ courant n’est toujours pas pure mais sa taille est telle qu’il n’est pas raisonnable de continuer a rafiner car cela impliquerait du surapprentissage. ` D’autres arbres de decision peuvent ´ etre obtenus, par exemple des arbres de ˆ decision partiels tels que l’algorithme P ´ ART permet d’en construire. L’algorithm PART gen´ ere des arbres de d ` ecision partiels sans optimisation globale des r ´ egles apprises. ` La meme strat ˆ egie d’apprentissage que celle pr ´ esent ´ ee pr ´ ec´ edemment pour les ar- ´ bres de decision, ´ a savoir diviser-pour-r ` egner, est utilis ´ ee dans P ´ ART. PART commence par creer un arbre de d ´ ecision ´ elagu ´ e, qui divise les candidats en sous-ensembles ´ dans les nœuds de l’arbre. Pour ce faire, PART divise en sous-ensembles les candidats d’un sous-ensemble n’etant pas encore divis ´ e selon un test sur la valeur d’un ´ attribut au hasard. PART rep´ ete ce processus r ` ecursivement jusqu’ ´ a ce que tous les ` sous-ensembles soient des feuilles contenant des candidats d’une seule classe. Pour l’elagage de l’arbre, P ´ ART annule la division de n’importe quel sous-ensemble en feuilles si l’erreur calculee sur les feuilles est sup ´ erieure ou ´ egale ´ a l’erreur calcul ` ee´ sur le sous-ensemble. Une fois un arbre de decision ´ elagu ´ e, P ´ ART infere une r ` egle de ` decision en ne choisissant que le chemin de la racine vers la feuille la plus peupl ´ ee´ 463.1. Modeles a posteriori ` de l’arbre. Un nouvel arbre de decision est ensuite construit en ne consid ´ erant que ´ les candidats qui ne sont pas couverts par une regle de d ` ecision. P ´ ART itere jusqu’ ` a` couvrir tous les candidats. Comme indique pr ´ ec´ edemment, parmi les approches dites ”explicatives”, nous trou- ´ vons des approches permettant d’apprendre des regles de d ` ecision. Parmi ces ap- ´ proches, nous avons retenu RIPPER qui est une amelioration de IREP ´ (Incremental Reduced Error Pruning) [50]. L’apprentissage des regles de d ` ecision avec R ´ IPPER repose sur deux etapes s’ex ´ ecutant s ´ equentiellement : 1) la construction avec croissance ´ et elagage et 2) l’optimisation des r ´ egles de d ` ecision. Pour chaque classe, de la moins ´ peuplee´ a la plus peupl ` ee, R ´ IPPER commence par iterer l’ ´ etape de construction sur ´ l’ensemble des attributs par series de croissance et d’ ´ elagage de r ´ egles. Une ` etape ´ de construction commence par une partition de l’ensemble d’apprentissage en un ensemble de croissance et un ensemble d’elagage. La construction des r ´ egles s’arr ` ete ˆ lorsque : – la longueur de description de la regle en construction a 64 bits de plus que celle ` de la regle de longueur de description la plus petite parmi les r ` egles trouv ` ees ; ´ – il n’y a plus d’exemple positif, auquel cas l’ensemble de regles est retourn ` e tel ´ quel ; – le taux d’erreur est superieur ou ´ egal ´ a 50 %, auquel cas l’ensemble de r ` egles ` retourne contient toutes les r ´ egles construites sauf la derni ` ere r ` egle. ` La croissance rajoute une a une les conditions permettant d’augmenter le plus ` vite le gain d’information (par approche gloutonne), jusqu’a obtenir une pr ` ecision de ´ 100%. La croissance teste toutes les valeurs possibles a chaque fois qu’elle ajoute ` une condition. L’elagage est incr ´ emental pour chaque r ´ egle : l’ ` elagage supprime la ´ condition dont l’effacement ameliore la mesure d’ ´ elagage. La mesure d’ ´ elagage utilis ´ ee´ dans JRip (implantation de RIPPER dans Weka) est egale ´ a ( ` p + 1)/(p + n + 2) avec p le nombre d’exemples positifs correctement predits et ´ n le nombre d’exemples negatifs ´ correctement predits parmi les exemples d’ ´ elagage. Lorsqu’une r ´ egle est construite, ` les exemples qu’elle couvre sont retires des exemples utilis ´ es pour la construction des ´ futures regles. ` L’etape d’optimisation consiste en la construction de deux variantes pour chaque ´ regle, en utilisant comme ensemble d’apprentissage un sous-ensemble al ` eatoire des ´ exemples de l’ensemble d’apprentissage. La premiere variante ajoute des conditions ` a une r ` egle vide. La seconde variante ajoute les conditions par approche gloutonne ` a` la regle initiale. Pour l’optimisation, le mesure d’ ` elagage est ( ´ p + n)/(P + N), avec P le nombre d’exemples positifs et N le nombre d’exemples negatifs parmi les exemples ´ d’elagage. Une fois les variantes construites, la variante de longueur de description la ´ plus petite est conservee. Enfin, les r ´ egles augmentant la longueur de description de ` l’ensemble de regles sont retir ` ees. ´ 3.1.3 Approches dites non explicatives Les forets al ˆ eatoires ´ se fondent sur l’apprentissage de B arbres decisionnels ´ d’une hauteur maximale h en utilisant a chaque fois ` k attributs au hasard. Pour chaque 47Chapitre 3. Approche a posteriori arbre decisionnel (ou arbre al ´ eatoire), un ´ echantillon al ´ eatoire du jeu de donn ´ ees d’ap- ´ prentissage est utilise pour l’apprentissage. De plus, pour chaque arbre d ´ ecisionnel, ´ seul un sous-ensemble de k attributs aleatoires est utilis ´ e pour l’apprentissage. Un ´ arbre decisionnel est l’arborescence d’une succession de tests conditionnels ´ a ef- ` fectuer sur les valeurs des attributs de l’exemple a pr ` edire. ´ A chaque nœud d’un arbre ` decisionnel correspond une test sur un attribut, menant ´ a l’un de ses nœuds fils en ` fonction de la valeur de l’attribut teste. Pour d ´ ecider de la classe d’un exemple en ´ utilisant un arbre decisionnel, il faut successivement tester, du noeud racine jusqu’ ´ a` une feuille, les nœuds vers lesquels dirigent le resultat de chaque decision. Un arbre ´ decisionnel est appris par mesure statistique sur les diff ´ erents attributs au sein des ex- ´ emples de chacune des classes. Cette mesure statistique se fonde sur une approche frequentiste. ´ Le classifieur bayesien na¨ıf ´ repose sur le theor ´ eme de Bayes. Le classifieur ` bayesien na ´ ¨ıf est appele na ´ ¨ıf en ce sens qu’il fait l’hypothese d’ind ` ependance des ´ differents attributs entre eux (voir ´ eq. 3.3). La probabilit ´ e qu’un exemple soit d’une cer- ´ taine classe y sachant la valeur de chacun de ses attributs est egale ´ a sa probabilit ` e´ a priori d’etre de la classe ˆ y multipliee par le produit des probabilit ´ es qu’un exemple ´ de cette classe ait la valeur de chacun de ses attributs. Les differents param ´ etres du ` modele sont estim ` es par calcul de fr ´ equences sur l’ensemble d’apprentissage. Il est ´ par ailleurs fait l’hypothese que les variables al ` eatoires sous-jacentes aux param ´ etres ` suivent une loi normale. P (y|X) = P (y) Y |A| i=1 P (xi |y) (3.3) Un autre classifieur est dit na¨ıf, le 1-plus-proche-voisin. Le 1-plus-proche-voisin est une instance du k-plus-proche-voisin pour k = 1. Le k-plus-proche-voisin predit ´ qu’un exemple est de la classe majoritaire parmi les k exemples appris les plus proches. Pour k pair, en cas d’egalit ´ e, il est possible de privil ´ egier une classe par rapport ´ a` l’autre ou de ponderer le vote de chaque voisin par l’inverse de sa distance ´ a l’exemple ` a pr ` edire Le choix de la distance employ ´ ee influence la pr ´ ediction. Traditionnellement, ´ la distance euclidienne est mesuree pour d ´ eterminer la distance entre deux exem- ´ ples. Mais d’autres distances – comme la distance de Manhattan ou la distance de Mahalanobis – sont plus adaptees ´ a certaines probl ` ematiques. Les coordonn ´ ees des ´ exemples sont les valeurs de leurs attributs. Plus k est grand et moins la methode est ´ sensible aux erreurs presentes dans les jeux de donn ´ ees, mais aussi plus la limite ´ entre les classes est floue. Le 1-plus-proche-voisin fait l’hypothese que les exemples ` se comportent localement de la meme mani ˆ ere : leur classe est la m ` eme si les valeurs ˆ de leurs attributs sont proches. De plus, tous les attributs sont comparables dans le poids qui leur est donne pour le calcul de la distance. ´ Tous ces classifieurs sont plus adaptes´ a certaines probl ` ematiques qu’ ´ a d’autres. ` Mais il existe des classifieurs dont la particularite est de tirer partir de la combinaison ´ de classifieurs d’approches tres diff ` erentes : il s’agit des ´ metaclassifieurs ´ . Si plusieurs classifieurs peuvent chacun capturer des informations differentes sur la pr ´ ediction, le ´ metaclassifieur a plus de chances de donner une meilleure pr ´ ediction que chacun ´ 483.1. Modeles a posteriori ` des classifieurs dont il depend. Les m ´ etaclassifieurs offrent le plus de flexibilit ´ e en ´ combinant les scores de plusieurs modeles de fonction de score. ` AdaBoost est un metaclassifieur reposant sur l’apprentissage successif de classi- ´ fieurs faibles. Chaque iteration d’AdaBoost apprend un nouveau classifieur faible. Pour ´ le premier classifieur appris, tous les exemples ont un poids identique. Chaque autre classifieur faible appris rec¸oit en entree de son apprentissage, pour chaque candidat, ´ un poids augmentant avec les erreurs commises par les classifieurs faibles prec´ edents ´ sur ce candidat. Cette ponderation donne plus d’importance aux exemples n’ayant pas ´ et ´ e captur ´ es par les classifieurs faibles pr ´ ec´ edemment construits. Au fur et ´ a mesure ` des iterations, les exemples les plus difficiles ´ a classer rec¸oivent un poids ` elev ´ e, jusqu’ ´ a` ce que l’un des classifieurs les classe correctement. Vote attribue pour chaque exemple a pr ` edire une classe selon un principe de vote. ´ Le principe de vote peut utiliser la moyenne, la mediane, le minimum ou m ´ eme le ˆ maximum. Les machines a vecteurs de support ` (SVM, Support Vector Machines) ont pour principe gen´ eral d’apprendre une fonction de s ´ eparation qui maximise la marge en- ´ tre les exemples et leur separation. Maximiser la marge de s ´ eparation a pour objec- ´ tif de minimiser l’erreur de gen´ eralisation. Les SVM mettent en jeu des noyaux pour ´ determiner cette s ´ eparation. Avec les SVM, le mod ´ ele est param ` etr ´ e par l’hyperplan ´ utilise pour s ´ eparer les exemples pr ´ edits positifs des exemples pr ´ edits n ´ egatifs. De ´ plus, il est possible d’utiliser une fonction noyau pour transformer les exemples et gen´ erer un mod ´ ele implicitement non-lin ` eaire. Selon la probl ´ ematique, les diff ´ erents ´ noyaux sont plus ou moins adaptes. Les SVM ne tiennent cependant pas compte de ´ la difference de distribution des exemples en fonction de leur classe. En effet, les SVM ´ ont pour objectif de maximiser la marge de separation, ´ i.e. la distance minimale entre la fonction de separation apprise et les exemples de chaque classe. Or, les exemples ´ peuvent se distribuer differemment selon la classe ´ a laquelle ils appartiennent. Les ex- ` emples d’une classe peuvent etre tr ˆ es proches les uns des autres alors que les exem- ` ples d’une autre classe peuvent etre comparativement plus ˆ etendus. Dans un tel cas ´ de figure, il serait plus judicieux, pour minimiser l’erreur de gen´ eralisation, de donner ´ un poids plus important a la distance aux exemples de la classe la plus ` etendue qu’aux ´ autres exemples. La fonction de separation serait alors plus proches des exemples de ´ la classe dont la distribution est la moins etendue. ´ 3.1.4 Boˆıte a outils utilis ` ee pour apprendre les mod ´ eles ` Weka [103] est une boˆıte a outils impl ` ement ´ ee en Java d’algorithmes de fouille de ´ donnees. Weka prend en donn ´ ees d’entr ´ ee des exemples munis de descripteurs et ´ peut visualiser la correlation entre ces descripteurs au sein des donn ´ ees. Weka peut ´ filtrer les donnees d’entr ´ ee et utiliser des m ´ ethodes de clustering ou de s ´ election de de- ´ scripteurs. Weka peut aussi apprendre des modeles de pr ` ediction sur ces donn ´ ees, les ´ tester et sortir les modeles et leurs ` evaluations. Les classifieurs disponibles dans Weka ´ sont ranges par cat ´ egories : les classifieurs bay ´ esiens, les fonctions, les classifieurs ´ na¨ıfs, les metaclassifieurs, les r ´ egles de d ` ecision, les arbres de d ´ ecision, les classi- ´ 49Chapitre 3. Approche a posteriori fieurs multi-instances et les classifieurs n’ayant pas pu etre rang ˆ es dans les autres ´ categories. Les classifieurs sont appris avec la version 3.6 de Weka. Les classifieurs ´ presents dans Weka et utilis ´ es ici sont : ´ – J48 (implementation de C4.5 [207]) ; ´ – JRip (implementation de R ´ IPPER, Repeated Incremental Pruning to Produce Error Reduction [50]) ; – PART (variante de C4.5 et de RIPPER reposant sur des arbres de decision partiels ´ [86]) ; – RandomForest (implementation des for ´ ets al ˆ eatoires [30]) ; ´ – NaiveBayes (implementation du classifieur bay ´ esien na ´ ¨ıf [127]) ; – IB1 (implementation du 1-plus-proche-voisin [2]) ; ´ – AdaBoostM1 (implementation d’AdaBoost [223]) ; ´ – Vote [135] ; – Machines a vecteurs de support (SVM [38]). ` 3.1.5 Methodologie d’optimisation des fonctions de score ´ a posteriori La methodologie g ´ en´ erale d’optimisation des fonctions de score ´ a posteriori se decompose en quatre phases : ´ – reprendre les jeux de donnees pr ´ epar ´ es et pr ´ esent ´ es au chapitre 1 ; ´ – l’apprentissage des fonctions de score par les differents classifieurs sur l’ensem- ´ ble des 120 complexes et le meme apprentissage, mais effectu ˆ e en ´ leave-”onepdb”-out ; – l’apprentissage par ROGER des metascores avec comme attributs les termes de ´ score physico-chimiques et les scores des differents classifieurs ; ´ – l’evaluation des diff ´ erentes fonctions de score des classifieurs ainsi que des ´ metascores. ´ 3.2 Evaluation des fonctions de score ´ a posteriori A posteriori, il est possible d’utiliser une fonction de score plus complexe qu’une combinaison lineaire de termes d’ ´ energie. L’utilit ´ e de ce proc ´ ed´ e est de pouvoir re- ´ trier un ensemble de candidats gen´ er´ es par RosettaDock, pour pouvoir r ´ einjecter les ´ meilleurs candidats dans un amarrage atomique, pour affiner les structures obtenues. Cela necessite que la fonction de score ´ a posteriori permette de mieux identifier les presque-natifs qu’une fonction de score etant une combinaison lin ´ eaire de termes ´ d’energie. Les r ´ esultats suivants ´ evaluent plusieurs mod ´ eles de fonctions de score ` a posteriori. Pour que chaque terme de score puisse participer dans la meme mesure ˆ a la fonc- ` tion de score, il est necessaire que l’intervalle de valeurs de chaque terme de score ´ soit reduit ´ a l’intervalle unit ` e. Les termes de score ´ a valeurs positives sont ramen ` es´ a l’intervalle [0 ; 1] alors que les termes de score ` a valeurs n ` egatives sont ramen ´ es´ a` 503.2. Evaluation des fonctions de score a posteriori ´ l’intervalle [−1 ; 0]. La repartition des candidats pour chaque terme de score est donc ´ etudi ´ ee pour mieux comprendre l’influence de chaque terme. ´ 3.2.1 Repartition des candidats par terme de score ´ Pour etudier au mieux le comportement des termes de score pour l’ensemble des ´ candidats presque-natifs et leurres, les valeurs reduites ´ a l’intervalle unit ` e sont in- ´ diquees entre parenth ´ eses, sauf pour les scores issus des classifieurs, qui donnent ` dej ´ a des valeurs dans l’intervalle unit ` e. L’ ´ etude se fait sur l’ensemble des 1 200 000 ´ candidats et sur les termes de score physico-chimiques comme sur ceux issus des classifieurs (voir tableau 3.1). On peut notamment remarquer que la valeur du terme de score fa dun est plus elev ´ ee pour les presque-natifs que pour les leurres : la m ´ ediane est de 683 (0.10) ´ pour les presque-natifs contre 549 (0.08) pour les leurres. La terme de score fa dun correspond a la p ` enalit ´ e donn ´ ee par la base de donn ´ ees Dunbrack pour les rotam ´ eres ` presents dans la structure ´ evalu ´ ee. Pour les deux classes d’exemples, les valeurs ´ se distribuent densement autour de la m ´ ediane et d ´ epassent largement la valeur ´ moyenne, respectivement a 848 (0.12) et 682 (0.10). Cette r ` epartition montre que seul ´ un petit nombre d’acides amines est, pour chaque complexe, assimil ´ e´ a une p ` enalit ´ e´ elev ´ ee, mais aussi que ce nombre est plus ´ elev ´ e pour les presque-natifs que pour les ´ leurres. On peut en conclure que les chaˆınes laterales des acides amin ´ es se compor- ´ tent differemment de ce qui est attendu par la base de donn ´ ees Dunbrack lorsqu’elles ´ sont en interaction avec un ARN. Les termes de score fa rep et fa pair sont quant a eux plus faibles pour les presque- ` natifs que pour les leurres. Pour fa rep, les presque-natifs ont une mediane de 352 ´ (0.27), alors que les leurres ont une mediane de 406 (0.32). Pour fa ´ pair, la mediane ´ est a 37 (0.17), contre 51 (0.23) pour les leurres. Ils ont effectivement pour but de ` donner une penalit ´ e aux candidats mettant en jeu des atomes trop proches les uns ´ des autres (fa rep) ou rarement rencontres ensemble (fa ´ pair). Le terme de score fa sol a un comportement different dans les valeurs n ´ egatives, ´ puisqu’il a des valeurs plus faibles en valeur absolue pour les presque-natifs que pour les leurres. La mediane de fa ´ sol est de −9 (−0.22) pour les presque-natifs et de −11 (−0.27) pour les leurres. Le score le plus remarquable issu des classifieurs est le score donne par le 1- ´ plus-proche-voisin : sa moyenne est de 0.62 pour les presque-natifs et 0.55 pour les leurres. Les autres scores appris a l’aide des classifieurs ne permettent pas de discriminer ` les presque-natifs des leurres. Mais nous allons tout de meme ˆ evaluer l’ensemble des ´ classifieurs a l’aide des diff ` erentes mesures d’ ´ evaluation. ´ 3.2.2 Weka Les fonctions de score gen´ er´ ees avec les diff ´ erentes strat ´ egies d’apprentissage ´ selectionn ´ ees dans Weka montrent des performances hasardeuses (voir tableau 3.2). ´ 51Chapitre 3. Approche a posteriori Exemples Score 1 er quartile Mediane ´ Moyenne 3 e quartile +1 fa dun 366 (0.05) 683 (0.10) 848 (0.12) 1165 (0.16) +1 fa pair 19 (0.08) 37 (0.17) 50 (0.22) 70 (0.31) +1 fa rep 228 (0.18) 352 (0.27) 425 (0.33) 607 (0.47) +1 fa sol -3 (-0.08) -9 (-0.22) -11 (-0.27) -17 (-0.40) +1 hack elec -8 (-0.09) -17 (-0.21) -18 (-0.23) -25 (-0.31) +1 hbond bb sc -13 (-0.07) -29 (-0.16) -37 (-0.21) -55 (-0.31) +1 NearestNeighbor 0.00 1.00 0.62 1.00 +1 NaiveBayes 0.34 0.42 0.50 0.60 +1 JRip 0.44 0.54 0.51 0.57 +1 J48 0.44 0.52 0.53 0.74 +1 PART 0.45 0.52 0.55 0.68 +1 RandomForest 0.40 0.60 0.56 0.70 -1 fa dun 282 (0.04) 549 (0.08) 682 (0.10) 927 (0.13) -1 fa pair 25 (0.11) 51 (0.23) 60 (0.27) 82 (0.37) -1 fa rep 267 (0.21) 406 (0.32) 487 (0.38) 671 (0.52) -1 fa sol -6 (-0.13) -11 (-0.27) -14 (-0.32) -20 (-0.48) -1 hack elec -9 (-0.11) -18 (-0.22) -20 (-0.25) -26 (-0.33) -1 hbond bb sc -17 (-0.10) -40 (-0.23) -46 (-0.26) -60 (-0.34) -1 NearestNeighbor 0.00 1.00 0.55 1.00 -1 NaiveBayes 0.34 0.41 0.47 0.54 -1 JRip 0.43 0.53 0.49 0.57 -1 J48 0.43 0.47 0.51 0.64 -1 PART 0.44 0.48 0.51 0.58 -1 RandomForest 0.40 0.50 0.53 0.70 TABLE 3.1 – Pour chaque terme de score sont indiques la valeur du premier quartile, de ´ la mediane, de la moyenne et du troisi ´ eme quartile, sur les presque-natifs (exemples ` +1) et les leurres (exemples -1). Entre parentheses se trouvent les valeurs des scores ` ramenees ´ a l’intervalle unit ` e quand ce n’est pas d ´ ej ´ a le cas. NearestNeighbor corre- ` spond au score donne par la fonction de score apprise au moyen du 1-plus-proche- ´ voisin, NaiveBayes au classifieur bayesien na ´ ¨ıf, JRip a l’impl ` ementation de R ´ IPPER, J48 a l’impl ` ementation de C4.5, P ´ ART est une variante de C4.5 et RandomForest a` l’apprentissage de forets al ˆ eatoires. ´ De maniere g ` en´ erale, moins de la moiti ´ e des complexes ont une ROC-AUC sup ´ erieure ´ a 0.5. Les performances de Vote ne sont pas indiqu ` ees car la fonction de score ap- ´ prise par Vote classe systematiquement les candidats comme presque-natifs. Seul le ´ classifieur bayesien na ´ ¨ıf donne des resultats satisfaisants, avec 108 des 120 com- ´ plexes ayant une ROC-AUC superieure ´ a 0.5 et 81 complexes avec un #presque- ` natifs (top10E(Candidats)) non nul. Malgre les performances, il est tout de m ´ eme int ˆ eressant d’observer par exemple ´ les premiers termes de score utilises par les arbres de d ´ ecision (voir fig. 3.2). Ce ´ 523.2. Evaluation des fonctions de score a posteriori ´ Classifieur ROC-AUC ROC-AUC > 0.5 #(top10E(Candidats))> 0 ROGER lineaire ´ 0.798±0.018 119 117 JRip 0.314±0.164 36 8 IB1 0.449±0.122 53 3 PART 0.472±0.039 49 18 J48 0.493±0.020 60 16 RandomForest 0.498±0.022 60 56 NaiveBayes 0.649±0.015 108 81 TABLE 3.2 – Pour chaque classifieur Weka selectionn ´ e sont indiqu ´ es : la moyenne ´ et la variance de la ROC-AUC, le nombre de complexes pour lesquels la ROCAUC est superieure ´ a 0.5 et le nombre de complexes avec un #presque- ` natifs (top10E(Candidats)) non nul. sont les termes de score fa dun – qui correspond au terme de score des rotameres ` Dunbrack – hack elec (terme de score electrostatique), fa ´ sol (terme de solvatation), fa pair (terme d’affinite entre pairs d’atomes), fa ´ rep (terme de repulsion universelle) ´ et les termes de score hbond qui sont mis en avant. Nous avons vu dans l’etude de la ´ repartition des valeurs des termes de score entre presque-natifs et leurres que fa ´ dun donnait pour les presque-natifs des valeurs plus elev ´ ees que pour les leurres. Et en ´ effet, une petite partie des presque-natifs correspond a un pic de valeurs extr ` emes en ˆ fa dun, avec de nombreuses chaˆınes laterales dans des conformations ordinairement ´ peu probables dans une proteine. Ceci nous conforte dans l’id ´ ee que la distribution des ´ conformations des chaˆınes laterales des acides amin ´ es d’une prot ´ eine peut changer ´ a l’interaction avec un ARN. Les termes de score ` electrostatique, d’affinit ´ e entre pairs ´ d’atomes et des liaisons hydrogene ont d ` ej ´ a` et´ e vus dans la section 2.4.3.4 comme ´ etant des facteurs importants de l’interaction prot ´ eine-ARN. Le terme de score fa ´ rep a aussi et ´ e vu dans le filtre par la m ´ ediane en fa ´ rep comme etant important pour ´ ecarter ´ les leurres comportant trop d’interpen´ etration (voir section 2.4.4). Seul le terme de ´ solvatation n’avait jusqu’a lors pas ` et´ e vu dans le chapitre pr ´ ec´ edent comme important ´ pour l’interaction proteine-ARN. ´ 3.2.3 ROGER non lineaire ´ Lever la contrainte de linearit ´ e de la fonction de score permet d’explorer des solu- ´ tions plus complexes, pouvant prendre en compte des informations qu’une combinaison lineaire des termes de score n’atteint pas. L’apprentissage de fonctions de score ´ non lineaires avec R ´ OGER a cet objectif. Deux types de fonctions de score sont apprises : l’une apprise uniquement sur les termes de score physico-chimiques, l’autre apprise aussi sur les scores des classifieurs selectionn ´ es dans Weka. ´ Meme si les classifieurs s ˆ electionn ´ es dans Weka ne donnent pas de r ´ esultats satis- ´ faisants, ils ont des performances de classifieur faible pour plusieurs dizaines de complexes chacun. S’ils capturent chacun des informations differentes sur les candidats, il ´ 53Chapitre 3. Approche a posteriori • fa dun ≤ 866.949 • fa dun ≤ 231.186 • fa sol ≤ −23.739 • fa atr ≤ −2023.861 (presque-natifs) • fa atr > −2023.861 (leurres) • fa sol > −23.739 • hbond sc ≤ −12.138 (leurres) • hbond sc > −12.138 (presque-natifs) • fa dun > 231.186 • fa sol ≤ −35.702 • hbond bb sc ≤ −93.066 (leurres) • hbond bb sc > −93.066 (presque-natifs) • fa sol > −35.702 • fa rep ≤ 1042.462 (leurres) • fa rep > 1042.462 (presque-natifs) • fa dun > 866.949 • fa dun ≤ 1499.729 • hbond bb sc ≤ −148.009 • fa rep ≤ 1063.695 (leurres) • fa rep > 1063.695 (presque-natifs) • hbond bb sc > −148.009 • hack elec ≤ −2.433 (leurres) • hack elec > −2.433 (presque-natifs) • fa dun > 1499.729 • fa pair ≤ 65.641 • fa rep ≤ 556.425 (leurres) • fa rep > 556.425 (presque-natifs) • fa pair > 65.641 • hbond sr bb ≤ −8.178 (presque-natifs) • hbond sr bb > −8.178 (leurres) FIGURE 3.2 – Arbre de decision appris avec J48 sur les 120 complexes de la P ´ RIDB. Seuls les nœuds apres au plus 4 bifurcations sont affich ` es, pour donner un aperc¸u des ´ premiers attributs mis en jeu dans l’arbre. peut etre int ˆ eressant de combiner les forces de chacun de ces classifieurs. L’apprentis- ´ sage d’un metascore avec R ´ OGER non lineaire permet de tester cette hypoth ´ ese. Les ` scores des classifieurs selectionn ´ es dans Weka deviennent des termes de score, au ´ meme titre que les termes physico-chimiques. ˆ Dans l’ensemble, les fonctions de score apprises avec ROGER non lineaire don- ´ nent des resultats moins satisfaisants que celles obtenues avec R ´ OGER lineaire (voir ´ tableau 3.3). Sans metascore, les r ´ esultats sont quasiment identiques concernant le ´ nombre de complexes avec une ROC-AUC superieure ´ a 0.5, mais moins satisfaisants ` du point de vue des autres mesures d’evaluation. L’emploi des scores des classifieurs ´ de Weka dans les metascores d ´ egradent les performances. Les m ´ etascores donnent ´ 543.3. Conclusions sur la fonction de score a posteriori tout de meme 114 complexes pour lesquels il y a au moins un presque-natif dans le ˆ top10 des candidats tries en ´ energie, contre 106 pour R ´ OGER non lineaire sans ap- ´ prentissage d’un metascore. ´ Classifieur ROC-AUC ROC-AUC > 0.5 top10> 0 ROGER lineaire ´ 0.798±0.018 119 117 Metascore R ´ OGER non lineaire ´ 0.648±0.015 107 114 ROGER non lineaire ´ 0.649±0.015 115 106 TABLE 3.3 – Pour chaque classifieur ROGER selectionn ´ e sont indiqu ´ es : la ´ moyenne et la variance de la ROC-AUC, le nombre de complexes pour lesquels la ROC-AUC est superieure ´ a 0.5 et le nombre de complexes avec un #presque- ` natifs (top10E(Candidats)) non nul. 3.3 Conclusions sur la fonction de score a posteriori Nous avons commence par observer la r ´ epartition des termes de score en com- ´ parant les presque-natifs avec les leurres. Nous avons formule plusieurs constata- ´ tions, notamment que la base de donnees de rotam ´ eres Dunbrack n’est peut- ` etre ˆ pas adaptee´ a la pr ` ediction d’interaction prot ´ eine-ARN. En plus d’utiliser une base ´ de donnees de rotam ´ eres pour les ARN, il peut ` etre n ˆ ecessaire d’utiliser une base ´ de donnees sp ´ ecifique aux interactions prot ´ eine-ARN pour obtenir les probabilit ´ es as- ´ sociees ´ a chaque rotam ` ere en interaction avec un ARN. Nous avons ` evalu ´ e des fonc- ´ tions de score modelis ´ ees pour ´ etre utilis ˆ ees ´ a posteriori de la gen´ eration de candidats ´ par RosettaDock. Nous avons modelis ´ e des fonctions de score directement apprises ´ grace ˆ a des classifieurs usuels, notamment des arbres et r ` egles de d ` ecision, mais ´ aussi des metascores prenant pour attributs les scores donn ´ es par ces classifieurs ´ en plus des termes de score physico-chimiques. Il s’avere que les fonctions de score ` testees n’ont pas de performances plus int ´ eressantes que celles de la fonction de ´ score atomique POS. C’est la raison pour laquelle nous nous tournons maintenant vers l’usage de termes de score non pas physico-chimiques, mais geom ´ etriques. Nous souhaitons ´ etendre le ´ protocole de prediction des interactions prot ´ eine-ARN en testant la fonction de score ´ atomique POS sur des candidats issus d’une prediction aveugle. Or, POS n’a ´ et´ e´ testee que pour des candidats ´ a au plus une quinzaine d’Angstr ` oms de la structure ¨ native. Nous souhaitons donc concevoir une fonction de score a une ` echelle plus gros- ´ grain avec pour objectif de trouver des candidats utilisables par POS. 55Chapitre 3. Approche a posteriori 56Chapitre 4 Approche multi-echelle ´ 4.1 Principe de l’approche multi-echelle ´ Pour predire l’interaction avec un maximum d’efficacit ´ e – temps de calcul le plus ´ faible possible et qualite des pr ´ edictions – plusieurs approches peuvent ´ etre com- ˆ binees. Nous avons vu l’utilisation de filtres ´ a posteriori, pour reordonner les r ´ esultats ´ du tri apres une g ` en´ eration de candidats qui contiennent au moins quelques presque- ´ natifs. Nous pouvons aussi intervenir en amont de la gen´ eration des candidats ´ a` l’echelle atomique, en g ´ en´ erant des candidats ´ a l’ ` echelle gros-grain. Cette g ´ en´ eration ´ a l’ ` echelle gros-grain a l’int ´ er´ et de possiblement donner un aperc¸u du score qu’aurait ˆ le meme candidat ˆ a l’ ` echelle atomique, mais avec un temps de calcul r ´ eduit. ´ 4.1.1 Representation g ´ eom ´ etrique gros-grain des acides amin ´ es´ et des acides nucleiques ´ Le prix Nobel de Chimie 2013 7 a montre l’importance dans le domaine de la bi- ´ ologie structurale computationnelle des representations multi- ´ echelle combin ´ ees aux ´ modeles physiques simples. Ce mod ` ele correspond en effet au d ` eveloppement des ´ premiers potentiels energ ´ etiques des ann ´ ees 70. La premi ´ ere apparition correspond ` au modele de Levitt [151] dans lequel chaque r ` esidu d’une prot ´ eine ´ etait repr ´ esent ´ e´ par trois points encore appeles ”atomes gros-grains” : deux pour la cha ´ ˆıne principale (squelette) et un pour la chaˆıne laterale. ´ Depuis ce modele initial, de nombreux autres mod ` eles ont ` et´ e d ´ evelopp ´ es [155, ´ 231, 242]. Par exemple, Voth et Izvekoc [117] ont developp ´ e un potentiel multi- ´ echelle ´ gros-grain ou les param ` etres du champ de force sont extraits de simulations de dy- ` namique moleculaire en utilisant un proc ´ ed´ e d’adaptation des forces. Souvent, les ´ parametres obtenus sont tabul ` es de fac¸on ´ a ne pas ` etre restreints ˆ a la forme analytique ` d’un potentiel. Plus recemment, d’autres potentiels du m ´ eme type ont ˆ et´ e d ´ evelopp ´ es´ [105], permettant de simuler le repliement de proteines de petite taille [106]. ´ Les modelisations gros-grain rendent les calculs plus rapides. Par exemple, pour ´ 7. http://www.nobelprize.org/nobel_prizes/chemistry/laureates/2013/ 57Chapitre 4. Approche multi-echelle ´ le passage d’un modele tout atome ` a un mod ` ele r ` eduit avec un point par r ´ esidu/acide ´ nucleique, le nombre d’atomes (pseudo-atomes) est environ divis ´ e par dix, ce qui peux ´ rendre les calculs jusqu’a 100 fois plus rapide. Le m ` eme ordre de grandeur peut ˆ etre ˆ observe lors du passage d’un mod ´ ele r ` eduit avec un point par r ´ esidu ´ a un point par ` el ´ ement de structure secondaire. ´ Toutefois, le degre de pr ´ ecision n ´ ecessaire ´ a la repr ` esentation fine des processus ´ biologiques est souvent atomique. Il est donc difficile de deriver une repr ´ esentation ´ gros-grain gen´ erique pour un ensemble de syst ´ emes et de simulations rendant la ` modelisation peu co ´ uteuse en temps de calcul et pr ˆ ecise quant ´ a la repr ` esentation ´ fine d’un phenom ´ ene biologique. Pour cette raison, de nombreux groupes ont combin ` e´ des approches a gros grains et grains fins dans des simulations mixtes [5]. Une revue ` des differentes approches est disponible [85]. ´ Dans cette etude, je pr ´ esenterai ´ a nouveau rapidement le mod ` ele utilis ` e par le ´ logiciel RosettaDock puis, de fac¸on plus detaill ´ ee, le mod ´ ele de Vorono ` ¨ı utilise pour ´ l’amarrage. Dans le cadre de l’utilisation de RosettaDock, comme indique dans la section ´ 2.1.1.3 du chapitre 2, la representation gros-grain des prot ´ eines comprend l’ensem- ´ ble des atomes du squelette et un a trois atomes pour la cha ` ˆıne laterale appel ´ es´ centro¨ıdes [99]. Dans cette etude, nous nous sommes limit ´ es´ a l’utilisation du mod ` ele` a un centro ` ¨ıde que nous avons etendu ´ a l’ARN et ` a l’ADN. Les coordonn ` ees spatiales ´ des atomes gros-grain des acides nucleiques sont calcul ´ ees ´ a partir des coordonn ` ees ´ atomiques des acides nucleiques. L’ARN et l’ADN sont donc pourvus des coordonn ´ ees ´ spatiales de leurs atomes gros-grain (voir fig. 4.1). a) Representation g ´ eom ´ etrique gros-grain b) Repr ´ esentation g ´ eom ´ etrique atomique ´ FIGURE 4.1 – Modele gros-grain et mod ` ele atomique : exemple de l’uracile. Le groupe- ` ment phosphate et les atomes lourds du sucre sont represent ´ es en gris. a) Le mod ´ ele` gros grain avec le centro¨ıde en rouge b) Le modele atomique avec les atomes de la ` base en bleu. Le centro¨ıde est le centre geom ´ etrique des atomes lourds. ´ Pour l’adenine, par exemple, nous passons d’un mod ´ ele avec 33 atomes ` a un ` modele avec 13 atomes gros-grains. Le m ` eme facteur 3 est observ ˆ e pour les autres ´ acides nucleiques. ´ La taille des centro¨ıdes des acides nucleiques ainsi remplac ´ es est importante, car ´ elle conditionne la distance a partir de laquelle on peut consid ` erer une interp ´ en´ etration ´ des structures. Cette taille doit permettre aux centro¨ıdes d’occuper l’espace des atomes 584.1. Principe de l’approche multi-echelle ´ que chacun d’entre eux represente, pour leur permettre de se comporter de fac¸on ´ semblable. La taille des centro¨ıdes est donc fixee´ a la valeur donn ` ee pour leur version ´ atomique, a savoir 8 ` A. ˚ Pour les proteines, dans le cadre du mod ´ ele de Vorono ` ¨ı, nous avons choisi de travailler avec un seul point par residu, le centre g ´ eom ´ etrique de la cha ´ ˆıne laterale et du ´ Cα. Ce choix permet tout d’abord de travailler sur un nombre reduit de points, mais ´ aussi de s’affranchir des mouvements des chaˆınes laterales. En effet, m ´ eme lorsque ˆ la chaˆıne laterale bouge, ce qui est fr ´ equent ´ a la surface de la prot ` eine, le centre ´ geom ´ etrique n’est souvent pas trop affect ´ e. Pour la suite, la cellule de Vorono ´ ¨ı correspondante est donc presque identique. La triangulation de Delaunay pour les proteines a ´ et´ e le plus souvent effectu ´ ee´ a` partir des carbones α [71, 183, 233, 253]. Nous avons choisi de construire les diagrammes de Vorono¨ı a partir des centres g ` eom ´ etriques des acides amin ´ es, ceux-ci ´ ayant permis d’obtenir de bons resultats dans le cadre de l’amarrage prot ´ eine-prot ´ eine ´ [18, 15, 26, 27]. Ceux-ci ont et ´ e d ´ efinis comme centres de gravit ´ e des atomes de la cha ´ ˆıne laterale ´ et du carbone α, les atomes d’hydrogene n’ ` etant pas pris en compte. Le centre g ´ eo- ´ metrique ainsi obtenu est donc tr ´ es proche du centre de masse de l’acide amin ` e.´ Ce choix est a rapprocher d’une ` etude r ´ ealis ´ ee par S. Karlin d ´ ebut ´ ee en 1994 [131, ´ 130] dans laquelle trois types de distances sont etudi ´ ees : ´ – entre carbones α ; – entre centres de gravite des acides amin ´ es sans prendre en compte les carbones ´ α ; – entre centres de gravite de tous les atomes du r ´ esidu (cha ´ ˆıne laterale et squelette). ´ Ces trois types de distances sont utilises pour mesurer la distance entre deux r ´ esidus ´ dans un ensemble de structures tridimensionnelles de proteines connues. Cette ´ etude ´ statistique montre que les distances entre centres de gravite des cha ´ ˆınes laterales ´ sont tres sensibles aux interactions ` electrostatiques et hydrophobes, mais tr ´ es peu ` aux contraintes steriques, contrairement aux distances entre les centres de gravit ´ e de ´ tous les atomes de chaque residu. Le fait de prendre en compte le carbone ´ α dans le calcul du point qui va representer chaque acide amin ´ e, permet donc d’obtenir des ´ propriet ´ es interm ´ ediaires. S. Karlin et ses collaborateurs montrent ´ egalement que les ´ distances entre carbones α sont largement decorr ´ el ´ ees, ´ a la fois des interactions et ` des contraintes steriques. ´ Le meme mod ˆ ele a ` et ´ e utilis ´ e pour l’ARN o ´ u nous avons aussi un atome gros-grain ` par acide nucleique, situ ´ e au centre g ´ eom ´ etrique des atomes lourds de la base. En ´ effet, le groupement phosphate et les atomes du sucre sont consider´ es comme faisant ´ partie du squelette, tandis que les atomes lourds de la base sont consider´ es comme ´ etant la cha ´ ˆıne laterale. ´ Contrairement aux proteines, qui n’ont que quatre atomes lourds dans leur squelette, ´ les ARN ont douze atomes lourds et donc un squelette de taille importante. Ceci a pour consequence de placer le centro ´ ¨ıde tres loin du squelette et donc de donner ` une grande importance a l’orientation de la base. Cette approche permet ainsi de ` representer g ´ eom ´ etriquement la flexibilit ´ e de l’ARN pour mieux en tenir compte dans ´ les mesures geom ´ etriques, plut ´ ot que de placer un atome gros-grain au centre de ˆ 59Chapitre 4. Approche multi-echelle ´ l’ensemble des atomes lourds de chaque nucleotide. ´ 4.1.2 Mesure des termes geom ´ etriques ´ a l’ ` echelle gros-grain ´ Les termes geom ´ etriques sont uniquement utilis ´ es ici pour les fonctions de score ´ a l’ ` echelle gros-grain. Seuls les acides amin ´ es et les acides nucl ´ eiques ´ a l’interface ` sont consider´ es pour calculer les termes g ´ eom ´ etriques. Ces termes ont d ´ ej ´ a fait leurs ` preuves pour l’amarrage proteine-prot ´ eine [15]. Ils sont calcul ´ es´ a partir du diagramme ` de Vorono¨ı. Le diagramme de Vorono¨ı est un pavage unique de l’espace en cellules de Vorono¨ı a` partir d’un ensemble de sites. Dans le cas qui nous interesse, les sites sont les r ´ esidus ´ ou pseudo-atomes. Le pavage est defini de telle sorte que n’importe quel point de l’es- ´ pace plus proche d’un site que de tout autre appartient a la cellule de Vorono ` ¨ı de ce site. Formellement, soit l’ensemble des n sites {pj}1≤j≤n, l’ensemble des positions spatiales V(pi) qui sont plus proches du site pi que de tout autre site constitue la cellule de Vorono¨ı du site pi (voir eq. 4.1). ´ V(pi) = {x ∈ R d : kx − pik ≤ kx − pjk; ∀j ∈ N, 1 ≤ j ≤ n} (4.1) Les jointures entre les cellules de Vorono¨ı s’appellent des facettes de Vorono¨ı. En 3 dimensions, une cellule de Vorono¨ı est un volume et une facette de Vorono¨ı est une surface. Les facettes de Vorono¨ı representent la surface d’interaction entre les ´ differents sites. Plus les sites sont proches et peu encombr ´ es par les sites environ- ´ nants, plus elles sont grandes. La cellule de Vorono¨ı represente la zone o ´ u le site a le ` plus d’influence par rapport aux autres sites. Intuitivement, la construction du diagramme de Vorono¨ı utilise entre les differents ´ sites le trace des m ´ ediatrices. Pour plus de clart ´ e, l’exemple illustr ´ e montre la construc- ´ tion manuelle d’un diagramme de Vorono¨ı dans un espace en 2 dimensions (voir fig. 4.2). La Computational Geometry Algorithms Library (CGAL [36]) permet la construction du diagramme de Vorono¨ı. CGAL est une librairie implement ´ ee en C++ de g ´ eom ´ etrie ´ computationnelle algorithmiquement efficace. En pratique, pour une plus grande rapidite de calcul, C ´ GAL obtient le diagramme de Vorono¨ı en construisant son dual, la triangulation de Delaunay (voir fig. 4.3). La triangulation de Delaunay est une triangulation uniquement constituee de trian- ´ gles de Delaunay [167]. Un triangle est un triangle de Delaunay si son cercle circonscrit ne contient aucun autre site que les trois sommets du triangle. Dans une triangulation de Delaunay, tous les sites sont relies par des segments de droites formant des tri- ´ angles. L’algorithme construisant la triangulation de Delaunay en 3 dimensions est un algorithme incremental probabiliste de complexit ´ e´ O(n d 3 2 e ). 604.1. Principe de l’approche multi-echelle ´ a) b) c) FIGURE 4.2 – Illustration de la construction intuitive d’un diagramme de Vorono¨ı en 2 dimensions : a) tracer les mediatrices entre chaque paire de sites (repr ´ esent ´ es par des ´ croix), b) puis limiter les segments de droite a leur jointure et c) it ` erer jusqu’ ´ a obtenir ` toutes les cellules de Vorono¨ı. a) b) c) FIGURE 4.3 – Exemple de triangulation de Delaunay (en 2 dimensions), le dual du diagramme de Vorono¨ı. a) Les droites secantes entre les diff ´ erents sites forment des ´ triangles. b) Pour qu’une triangulation soit une triangulation de Delaunay, le cercle circonscrit de chaque triangle ne doit contenir aucun autre site. c) Pour un meme en- ˆ semble de sites, en gris sont represent ´ es les triangles de la triangulation de Delaunay ´ et en noir les facettes de Vorono¨ı. La construction d’une triangulation de Delaunay commence par la selection al ´ eatoire ´ de 3 sites, qui sont toujours une triangulation de Delaunay. Puis, on teste l’insertion aleatoire d’un nouveau site dans la triangulation en formant de nouveaux triangles ´ avec ce site. Si le nouveau site inser´ e forme un triangle dont le cercle circonscrit con- ´ tient un autre site, alors on teste la formation d’autres triangles avec le meme site. ˆ Sinon, on accepte le nouveau site. On itere jusqu’ ` a ce que tous les sites soient ins ` er´ es´ 61Chapitre 4. Approche multi-echelle ´ (voir fig. 4.4). a) b) c) FIGURE 4.4 – Construction d’une triangulation de Delaunay. Cas initial : 3 sites trac¸ant un triangle constituent toujours une triangulation de Delaunay. Etape d’insertion d’un ´ nouveau site : a) inserer al ´ eatoirement un nouveau site, et donc un nouveau trian- ´ gle (l’insertion est valide si aucun autre site que les sommets du triangle n’est dans son cercle circonscrit) ; b) si un autre site appartient au cercle circonscrit, on refuse l’insertion du triangle et c) on teste alors la construction d’un autre triangle. CGAL est couple´ a la ` Easy Structural Biology Templated Library (ESBTL [168]) pour determiner l’interface et obtenir les mesures statistiques. ESBTL est une li- ´ brairie implement ´ ee en C++, munie de ´ templates pour modeliser et manipuler effi- ´ cacement les entites biologiques. Il est notamment possible de s ´ electionner des entit ´ es´ biologiques telles que des chaˆınes d’acides amines ou d’acides nucl ´ eiques, des acides ´ amines, des acides nucl ´ eiques, des atomes. Des filtres peuvent ´ etre utilis ˆ es pour ne ´ selectionner qu’un sous-ensemble d’entit ´ es biologiques en fonction de son type. Nous ´ avons etendu ESBTL pour : ´ – definir des acides nucl ´ eiques ; ´ – construire automatiquement des atomes gros-grain a partir d’atomes de l’ ` echelle ´ atomique ; – calculer l’aire d’une facette de Vorono¨ı et le volume d’une cellule de Vorono¨ı en 3D. L’interface peut etre d ˆ efinie gr ´ ace au diagramme de Vorono ˆ ¨ı. L’usage d’une structure geom ´ etrique telle que le diagramme de Vorono ´ ¨ı permet en effet de s’affranchir des seuils arbitraires de distance utilises pour d ´ efinir si deux atomes sont en inter- ´ action. Ainsi, au sens du diagramme de Vorono¨ı, pour que deux atomes gros-grain soient en interaction, ils doivent partager une facette de Vorono¨ı. L’interface est de cette maniere repr ` esent ´ ee par l’ensemble des atomes gros-grain partageant une facette de ´ 624.1. Principe de l’approche multi-echelle ´ Vorono¨ı avec au moins un atome gros-grain de l’autre partenaire (voir fig. 4.5). C’est cette definition de l’interface qui est utilis ´ ee pour la fonction de score g ´ eom ´ etrique. ´ FIGURE 4.5 – L’interface d’une tessellation de Vorono¨ı appliquee´ a une interaction ` proteine-ARN. Les atomes gros-grain de la prot ´ eine (en bleu) et de l’ARN (en orange) ´ forment a leur interaction une interface (en vert). ` Le solvant est ajoute explicitement aux structures 3D notamment ´ a l’aide de ESBTL. ` Le solvant explicite a pour fonction de delimiter les surfaces ext ´ erieures des cellules ´ de Vorono¨ı qui ne sont pas enfouies dans la structure. L’ajout du solvant se traduit par l’insertion de sites supplementaires, avant la construction du diagramme de Vorono ´ ¨ı. Ces sites supplementaires sont ins ´ er´ es sous la forme d’un treillis o ´ u tout site est distant ` de tous ses voisins de 5A. Comme l’ajout du solvant explicite a pour cons ˚ equence une ´ forte augmentation du temps de calcul du diagramme de Vorono¨ı, les atomes grosgrain de solvant inutiles sont retires. Sont inutiles tous les atomes gros-grain de solvant ´ qui sont trop loin des atomes gros-grain de chacun des deux partenaires pour interagir avec eux. Comme l’ajout du solvant explicite peut induire un biais dans les resultats, ´ les atomes gros-grain en interaction avec le solvant ne sont pas consider´ es comme ´ faisant partie de l’interface. FIGURE 4.6 – Le solvant a l’interface d’une tessellation de Vorono ` ¨ı construite sur les atomes gros-grain d’une interaction proteine-ARN. Les atomes gros-grain du solvant ´ explicite (en rouge) reduisent l’interface (en vert) : tout atome gros-grain interagissant ´ avec un atome gros-grain du solvant est consider´ e en dehors de l’interface. ´ 63Chapitre 4. Approche multi-echelle ´ 4.1.3 Termes geom ´ etriques ´ a l’ ` echelle gros-grain ´ Il y a 210 termes de score geom ´ etriques r ´ epartis en 6 types de termes de score ´ geom ´ etriques (voir fig. 4.7) : ´ – P1 (1 terme), le nombre de centro¨ıdes a l’interface ; ` – P2 (1 terme), l’aire totale d’interaction, definie par la somme des aires des facettes ´ de Vorono¨ı a l’interface ; ` – P3 (24 termes), la proportion des cellules de Vorono¨ı des centro¨ıdes a l’interface ` sur le nombre total de cellules de Vorono¨ı a l’interface, pour chaque type d’acide ` amine (20) ou d’acide nucl ´ eique (4) ; ´ – P4 (24 termes), la volume median des centro ´ ¨ıdes a l’interface, pour chaque type ` d’acide amine (20) ou d’acide nucl ´ eique (4) ; ´ – P5 (80 termes), la proportion des facettes de Vorono¨ı a l’interface sur le nombre ` total de facettes de Vorono¨ı a l’interface, pour chaque paire de types d’acides ` amines (20) et d’acides nucl ´ eiques (4) ; ´ – P6 (80 termes), la distance mediane entre les centro ´ ¨ıdes a l’interface de cha- ` cun des deux partenaires, pour chaque paire de types d’acides amines (20) et ´ d’acides nucleiques (4). ´ FIGURE 4.7 – Mesure des parametres gros-grain ` a partir du diagramme de Vorono ` ¨ı entre une proteine (en bleu) et un ARN (en orange). a) Facette de Vorono ´ ¨ı (surface grise) entre un acide amine et un acide nucl ´ eique en interaction. Le param ´ etre P2 correspond ` a la somme des aires des facettes de Vorono ` ¨ı constituant l’interface. b) Cellule de Vorono¨ı (en gris et ici decoup ´ ee pour faire appara ´ ˆıtre l’ARN en son centre) d’un acide amine. Le param ´ etre P4 d’un type d’atome gros-grain correpond ` a la valeur m ` ediane ´ de ce volume sur tous les atomes gros-grain du type donne. c) Distance entre deux ´ atomes gros-grain (en jaune). Le parametre P6 de deux types donn ` es d’atomes gros- ´ grain correspond a la valeur m ` ediane de cette distance sur toutes les paires d’atomes ´ gros-grain de ces deux types donnes. ´ On peut dej ´ a remarquer que le nombre de termes de score est ` elev ´ e, avec 210 ´ termes. D’autres parametres auraient pu ` etre utilis ˆ es, comme le nombre de facettes ´ de Vorono¨ı ou la distance mediane entre tous les centro ´ ¨ıdes a l’interface. Mais ces ` 644.1. Principe de l’approche multi-echelle ´ termes de score auraient pu augmenter la redondance des informations contenues dans les differents termes de score. ´ Les deux premiers termes de score P1 et P2 sont attendus plus grands pour les presque-natifs que pour les leurres. Cependant, il est tout a fait possible que leurs ` valeurs oscillent autour d’une valeur moyenne pour les presque-natifs et que des candidats puissent avoir des valeurs encore plus elev ´ ees sans pour autant correspondre ´ a des presque-natifs. Le terme de score P1 correspond ` a une version issue du dia- ` gramme de Vorono¨ı du terme de score gros-grain interchain contact. Les termes de score P3 et P5 ont pour objectif de mesurer l’impact de la presence ´ de chacun des types d’acide amine ou d’acide nucl ´ eique ´ a l’interface (P3), mais aussi ` leurs interactions pref ´ erentielles (P5). En effet, si un terme de score P3 est sensi- ´ blement plus elev ´ e au sein des presque-natifs qu’au sein des leurres, cela peut sig- ´ nifier que le type d’acide amine ou d’acide nucl ´ eique auquel il correspond se trouve ´ pref ´ erentiellement ´ a l’interface. De la m ` eme mani ˆ ere pour un terme de score P5, cela ` signifierait que le type d’acide amine et le type d’acide nucl ´ eique qui lui correspondent ´ sont plus souvent que les autres en interaction dans les complexes proteine-ARN. Les ´ termes de score P3 et P5 correspondent respectivement a une version g ` eom ´ etrique ´ des termes de score interchain env et interchain pair, mais dedi ´ es´ a l’interface. ` Le terme de score P4 evalue sp ´ ecifiquement l’empilement st ´ erique. Les acides ´ amines et nucl ´ eiques au contact les uns des autres forment ce qui est appel ´ e un em- ´ pilement sterique. Si les atomes gros-grain sont trop proches les uns des autres, le ´ volume median sera petit. Or, certains acides nucl ´ eiques et acides amin ´ es occupent ´ plus d’espace que d’autres. On attend donc des atomes gros-grain des acides amines´ et acides nucleiques dont la cha ´ ˆıne laterale est petite d’avoir un petit volume m ´ edian ´ chez les presque-natifs, et inversement. Le terme de score P6 a plusieurs usages. D’une part, la distance mediane permet ´ de reperer les structures pour lesquelles une interaction anormalement longue inter- ´ vient, presageant d’un cas pathologique de leurre (mauvais empilement et donc pos- ´ siblement un probleme lors de la g ` en´ eration des leurres). D’autre part, P6 permet de ´ retrouver l’orientation des acides amines et acides nucl ´ eiques et d’ ´ evaluer si l’orienta- ´ tion de l’interaction se fait telle qu’attendue dans un presque-natif. En effet, les atomes gros-grain representent la cha ´ ˆıne laterale et, selon l’orientation des acides amin ´ es et ´ acides nucleiques ´ a l’interaction, la distance entre eux n’est pas la m ` eme. ˆ 4.1.4 Donnees et fonctions de score ´ a l’ ` echelle gros-grain ´ Le jeu de donnees atomique de candidats est g ´ en´ er´ e autour et ´ a proximit ` e de la ´ solution. Or, la fonction de score gros-grain a besoin de discriminer des candidats meme tr ˆ es` eloign ´ es de la solution des candidats mod ´ elisant l’ ´ epitope de l’interaction. ´ Ce jeu de donnees de candidats g ´ en´ er´ es n’est donc pas utilisable pour l’optimisation ´ de la fonction de score gros-grain. Un jeu de donnees de candidats est donc g ´ en´ er´ e´ a l’identique du jeu de donn ` ees ´ atomique, aux parametres de la perturbation pr ` es. Plut ` ot que de d ˆ efinir un nuage de ´ perturbation gaussienne, les coordonnees de l’ARN sont d ´ efinies al ´ eatoirement au- ´ 65Chapitre 4. Approche multi-echelle ´ tour de la proteine. Ceci assure que la structure native n’affecte pas le r ´ esultat et que ´ n’importe quel candidat puisse etre g ˆ en´ er´ e et utilis ´ e pour l’apprentissage comme pour ´ l’evaluation. ´ Les candidats gen´ er´ es sont ensuite ´ etiquet ´ es par un seuil diff ´ erent en I ´ RMSD de celui utilise pour le jeu de donn ´ ees atomique, pour refl ´ eter la diff ´ erence d’objectif. L’ob- ´ jectif de la fonction de score gros-grain est en effet de trouver l’epitope, pas d’op ´ erer ´ un raffinement de la structure. Le seuil de IRMSD choisi est de 12 A, seuil en-dessous ˚ duquel un candidat est appele´ presque-natif, par analogie avec l’echelle atomique. ´ 4.2 Optimisation de la fonction de score gros-grain Comme pour l’echelle atomique, une fonction de score gros-grain impl ´ ement ´ ee di- ´ rectement dans RosettaDock necessite d’ ´ etre mod ˆ elis ´ ee sous la forme d’une combi- ´ naison lineaire des param ´ etres. Il est cependant possible de s’affranchir d’une telle ` contrainte et de n’utiliser la fonction de score gros-grain qu’en post-traitement de la gen´ eration. Une telle utilisation implique d’avoir d ´ ej ´ a g ` en´ er´ e les candidats. Deux ap- ´ proches sont donc envisageables : l’utilisation d’une combinaison lineaire ou la mise ´ en place d’une fonction de score a posteriori. ROGER, etant donn ´ ees ses performances pour l’adaptation de la fonction de score ´ atomique de RosettaDock a la pr ` ediction d’interactions prot ´ eine-ARN, est utilis ´ e pour ´ l’apprentissage d’une fonction logistique pour modeliser une fonction de score gros- ´ grain. La fonction de score ainsi apprise est appelee´ VOR. Nous allons maintenant detailler comment cette fonction de score est apprise au moyen de R ´ OGER. 4.2.1 Methodologie d’optimisation de la fonction de score gros- ´ grain La methodologie g ´ en´ erale d’optimisation de la fonction de score gros-grain se ´ decline en cinq phases : ´ – la gen´ eration de candidats issus des complexes de la P ´ RIDB par perturbation, mais avec des candidats divergeant davantage de la structure native ; – la construction d’un diagramme de Vorono¨ı sur chacun des candidats gen´ er´ es ; ´ – la mesure des valeurs des termes de score geom ´ etriques gros-grain sur les dia- ´ grammes de Vorono¨ı construits ; – l’apprentissage de la fonction de score sur l’ensemble des 120 complexes de la PRIDB ; – l’evaluation des 120 fonctions de score apprises en ´ leave-”one-pdb”-out et eva- ´ luees sur les 10 000 candidats de leurs jeux d’ ´ evaluation. ´ La gen´ eration de candidats pour l’amarrage gros-grain doit donner des candi- ´ dats divergeant davantage de la solution. De plus, cette gen´ eration ne doit pas tenir ´ compte de la structure du natif. C’est pourquoi la gen´ eration des candidats de l’a- ´ marrage gros-grain se fait en aveugle : les coordonnees spatiales de l’ARN sont ´ determin ´ ees al ´ eatoirement. Une telle g ´ en´ eration sur 10 000 candidats nous emp ´ eche ˆ 664.3. Evaluation de l’interaction ´ a l’ ` echelle gros-grain ´ par consequent d’imposer la m ´ eme contrainte du nombre minimum de presque-natifs ˆ et de leurres gen´ er´ es par complexe. Si le nombre de leurres est rapidement important, ´ le nombre de presque-natifs gen´ er´ es reste tr ´ es faible. Cependant, nous voulons que ` la fonction de score gros-grain nous permette seulement de predire les structures suff- ´ isamment proches de la solution pour etre affin ˆ ees par la fonction de score atomique. ´ Nous pouvons donc considerer ´ a l’ ` echelle gros-grain et pour des raisons d’appren- ´ tissage que le seuil de presque-natifs est cette fois-ci de 10A. Nous pouvons v ˚ erifier ´ que des candidats a moins de 10 ` A de la structure native en I ˚ RMSD permettent bien d’affiner la structure par protocole d’amarrage grace aux entonnoirs d ˆ etect ´ es pour la ´ fonction de score atomique (voir fig. 4.8). 2i82 (ES = 7.14) Irmsd (Å) Score 0 20 −44 −26 0 20 3fht (ES = 3.66) Irmsd (Å) Score 0 20 −24 −17 0 20 3iev (ES = 5.64) Irmsd (Å) Score 0 20 −27 −19 0 20 FIGURE 4.8 – Exemples de diagrammes d’energie en fonction du I ´ RMSD pour la fonction de score POS sur 3 complexes. On remarque des entonnoirs permettant un affinement de structures candidates trouvees ´ a moins de 10 ` A de la structure native. ˚ Contrairement aux termes de score physico-chimiques, ici, tous les termes de score geom ´ etriques ont des valeurs positives ou nulles. Nous ne contraignons donc pas l’ap- ´ prentissage a rechercher les poids sur l’intervalle de valeurs positif avec cette fonction ` de score gros-grain. Nous etudions toutefois les diff ´ erences entre un apprentissage ´ a poids positifs et un apprentissage sans contrainte sur l’intervalle de d ` efinition des ´ poids. 4.3 Evaluation de l’interaction ´ a l’ ` echelle gros-grain ´ La fonction de score gros-grain est modelis ´ ee au moyen de termes g ´ eom ´ etriques ´ issus de la construction d’un diagramme de Vorono¨ı avec pour sites de construction du diagramme les atomes gros-grain de la structure 3D. En plus d’etablir un protocole ´ permettant la prediction des interactions prot ´ eine-ARN, il s’agit de mieux comprendre ´ les mecanismes donnant lieu ´ a une interaction entre prot ` eine et ARN. C’est pourquoi ´ nous etudions non seulement la fonction de score mod ´ elis ´ ee, mais aussi les valeurs ´ des parametres selon le type de structure rencontr ` ee : native ou candidate. ´ 67Chapitre 4. Approche multi-echelle ´ 4.3.1 Etude des valeurs des mesures g ´ eom ´ etriques ´ Les valeurs des mesures geom ´ etriques des structures natives et des candidats per- ´ mettent d’en apprendre plus sur le comportement des mesures geom ´ etriques lorsqu’il ´ y a interaction entre proteine et ARN. Toutes les valeurs des mesures g ´ eom ´ etriques ´ sont ici analysees avant traitement des valeurs non renseign ´ ees : ces derni ´ eres ne ` sont tout simplement pas prises en compte pour cette analyse. Les mesures les plus eloquentes sont certainement le nombre de cellules de Vorono ´ ¨ı en interaction et l’aire de la surface totale d’interaction pour une meme structure 3D. Pour ces deux mesures, ˆ les valeurs sont reparties tr ´ es diff ` eremment entre les structures natives et les candi- ´ dats. En effet, les structures natives ont une surface d’interaction minimale de 10A˚ 2 , contre 0 pour des candidats ou les partenaires sont suffisamment ` eloign ´ es l’un de l’autre ´ (voir tableau 4.1). Rappelons qu’il est possible pour des candidats d’avoir une surface d’interaction nulle car tout atome gros-grain en interaction avec le solvant est retire de ´ l’interface. La mediane de la surface d’interaction des structures natives est de 756 ´ A˚ 2 , contre 336A˚ 2 pour les candidats. La methode de g ´ en´ eration des candidats n’impose ´ pas de contrainte sur les partenaires. Comme ceux-ci sont rigides, les perturbations engendrent de nombreux candidats qui presentent un mauvais emboitement et une ´ interface faible (voir fig. 4.9). FIGURE 4.9 – Interaction de la proteine (en bleu) et de l’ARN (en orange) avec le ´ solvant explicite (en rouge) du modele gros-grain, avec le mod ` ele atomique des deux ` partenaires affiche pour information (en gris). Il peut arriver comme ici que le nombre ´ d’acides amines et de r ´ esidus ´ a l’interface soit r ` eduit ´ a 0 par la pr ` esence d’atomes ´ gros-grain de solvant autour d’une petite interface composee de trois ou quatre acides ´ amines et nucl ´ eiques. ´ Pour le nombre de cellules de Vorono¨ı a l’interface, c’est d’autant plus flagrant, ` puisque la mediane du nombre de cellules de Vorono ´ ¨ı a l’interface est de 44 pour ` les structures natives, contre 28 pour les candidats. Il y a au minimum 3 cellules de Vorono¨ı a l’interface dans les structures natives, contre 27 220 candidats qui n’en ont ` aucune. Ces 27 220 candidats sont repartis sur 26 complexes et ont des partenaires ´ trop eloign ´ es pour avoir une interface, le solvant se logeant trop pr ´ es des quelques ` 684.3. Evaluation de l’interaction ´ a l’ ` echelle gros-grain ´ atomes gros-grain interagissant. Cette absence d’interface est parfois aggravee par le ´ traitement des ions. Les ions a l’interface sont en effet retir ` es de la structure 3D et ´ sont par consequent remplac ´ es par des atomes de solvant s’ils laissent un vide trop ´ important. Or, tout atome gros-grain en interaction avec un atome gros-grain du solvant n’est pas consider´ e comme faisant partie de l’interface, pour ´ eviter que le solvant ne ´ biaise les resultats des surfaces d’interaction et des volumes des cellules de Vorono ´ ¨ı. Agregat ´ Aire de l’interface Nombre de cellules Maximum 3209 174 Moyenne 952 54 Mediane ´ 756 44 Minimum 10 3 TABLE 4.1 – Repartition de deux termes de score g ´ eom ´ etriques sur les structures ´ natives de la PRIDB. L’aire de l’interface (P1) est la surface totale de l’interaction en A˚ 2 , qui est indiquee avec le nombre de cellules de Vorono ´ ¨ı a l’interface. ` Les autres types de mesures sont repartis en fonction du type d’acide amin ´ e´ ou d’acide nucleique et sont donc plus nombreux, mais aussi parfois avec plus de ´ valeurs manquantes. On peut toutefois remarquer certaines propriet´ es int ´ eressantes ´ en comparaison avec les interactions proteine-prot ´ eine. Il a ´ et´ e vu pour les interac- ´ tions proteine-prot ´ eine que les acides amin ´ es hydrophobes ´ etaient les plus pr ´ esents ´ dans l’interface entre les partenaires [15]. Pour les interactions proteine-ARN, c’est le ´ phenom ´ ene inverse qui est observ ` e (voir fig. 4.11). ´ A part la leucine, ce sont les acides ` amines polaires – et notamment charg ´ es – qui sont ´ a l’interface : parmi les acides ` amines hydrophobes, seule la leucine fait partie des acides amin ´ es de proportion non ´ nulle a l’interface sur plus de la moiti ` e des structures natives. La leucine se partage ´ plus de la moitie des interfaces des structures natives avec l’arginine, l’aspartate, le ´ glutamate, la glycine, la lysine et la serine. Au total, parmi les acides amin ´ es charg ´ es, ´ seule l’histidine est absente de l’interface sur l’ensemble des structures natives alors que, au contraire, parmi les acides amines polaires non charg ´ es, ce sont la glycine et ´ la serine qui ont une proportion non nulle. Aucun acide amin ´ e n’est ´ a l’interface dans ` toutes les structures natives. De plus, seule la lysine est presente ´ a l’interface dans ` plus des trois quarts des structures natives. De fac¸on plus gen´ erale, on constate une ´ queue de distribution plus elev ´ ee pour les leurres que pour les presque-natifs et natifs. ´ De la meme mani ˆ ere, les uraciles repr ` esentent en moyenne 12 % des acides amin ´ es´ et nucleiques ´ a l’interface, bien au-del ` a de la guanine (8 %), la cyst ` eine (7 %) et ´ l’adenine (5 %). Et seul l’uracile est pr ´ esent ´ a l’interface dans plus des trois-quarts ` des structures natives (voir fig. 4.12). On peut donc en conclure que les acides amines´ dominent largement les acides nucleiques dans leur participation ´ a l’interaction. Il y ` a plus d’un acide amine pour un acide nucl ´ eique. Le rapport est plus proche de sept ´ acides amines pour trois acides nucl ´ eiques dans les structures natives, donc plus ´ de deux pour un. C’est un rapport important a garder en t ` ete lorsque l’on souhaite ˆ modeliser une interaction prot ´ eine-ARN. En effet, cela signifie que ce sont les atomes ´ 69Chapitre 4. Approche multi-echelle ´ 0 1000 2000 3000 0.0000 0.0010 0.0020 0.0030 P1 : aire de la surface d'interaction Densité de structures 0 50 100 150 200 0.00 0.02 0.04 P2 : nombre d'acides aminés et nucléiques Densité de structures FIGURE 4.10 – Courbes de densite des termes de score P1 (surface d’interaction) et P2 ´ (nombre d’acides amines et nucl ´ eiques ´ a l’interface) sur les 120 structures natives (en ` rouge), sur les 64 994 presque-natifs (en orange) et sur les 1 135 006 leurres (en gris). On peut remarquer que de nombreux candidats ne presentent pas d’interface, ce qui ´ est du au fait que tous les atomes gros-grain en interaction entre les deux partenaires ˆ sont aussi en interaction avec le solvant. gros-grain des acides amines qui ont le plus d’impact sur la valeur du score. ´ La forte proportion de candidats sans un ou plusieurs types d’acides nucleiques ´ a` l’interface est explique par deux ph ´ enom ´ enes : ` – les candidats sans interface ; 704.3. Evaluation de l’interaction ´ a l’ ` echelle gros-grain ´ 0.0 0.2 0.4 0.6 0 20 40 60 80 P3 : proportion de LEU Densité de structures 0.0 0.2 0.4 0.6 0 10 20 30 40 50 P3 : proportion de ARG Densité de structures 0.0 0.2 0.4 0.6 0 10 20 30 40 50 60 P3 : proportion de ASP Densité de structures FIGURE 4.11 – Courbes de densite des termes de score P3 pour quelques acides ´ amines sur les 120 structures natives (en rouge), sur les presque-natifs (en orange) et ´ sur les leurres (en gris). – les candidats avec de petits ARN ou des ARN ne presentant qu’un ou deux types ´ d’acides nucleiques. ´ Nous avons en effet vu que les candidats sans interface etaient nombreux et ont ´ necessairement les valeurs des quatre param ´ etres P3 des acides nucl ` eiques ´ a z ` ero. ´ Mais il existe aussi de petits ARN ou des ARN ne presentant pas un ou plusieurs types ´ d’acides nucleiques. C’est le cas des queues poly-A ou poly-U, qui ne poss ´ edent que ` des adenines ou des uraciles. Il existe aussi des complexes dont l’ARN ne contient ´ 71Chapitre 4. Approche multi-echelle ´ 0.0 0.2 0.4 0.6 0 5 10 20 30 P3 : proportion de GLU Densité de structures 0.0 0.2 0.4 0.6 0 10 30 50 70 P3 : proportion de GLY Densité de structures 0.0 0.2 0.4 0.6 0 5 10 20 30 P3 : proportion de LYS Densité de structures 0.0 0.2 0.4 0.6 0 20 40 60 80 P3 : proportion de SER Densité de structures FIGURE 4.11 (cont.) – Courbes de densite des termes de score P3 pour quelques ´ acides amines sur les 120 structures natives (en rouge), sur les presque-natifs (en ´ orange) et sur les leurres (en gris). qu’une rep´ etition du motif GC. Aucun de ces complexes ne poss ´ ede certains types ` d’acides nucleiques et ceci se retrouve dans les param ´ etres P3 des acides nucl ` eiques ´ sous la forme d’un pic a l’abscisse z ` ero (voir fig. 4.12). ´ 724.3. Evaluation de l’interaction ´ a l’ ` echelle gros-grain ´ 0.0 0.2 0.4 0.6 0 5 10 20 30 P3 : proportion de A Densité de structures 0.0 0.2 0.4 0.6 0.8 0 5 10 15 20 P3 : proportion de C Densité de structures 0.0 0.2 0.4 0.6 0.8 0 5 10 15 20 P3 : proportion de G Densité de structures 0.0 0.2 0.4 0.6 0.8 0 5 10 15 20 P3 : proportion de U Densité de structures FIGURE 4.12 – Courbes de densite des termes de score P3 pour les acides nucl ´ eiques ´ sur les 120 structures natives (en rouge), sur les presque-natifs (en orange) et sur les leurres (en gris). Ici, s’ajoutent aux candidats sans interface les candidats avec de tres` petits ARN, comme des queues poly-A, qui ne contiennent que des adenines et, par ´ consequent, ne poss ´ edent pas d’autre acide nucl ` eique ´ a l’interface que des ad ` enines. ´ 4.3.2 Evaluation de la fonction de score gros-grain ´ La fonction de score gros-grain a pour objectif de trier les candidats de telle sorte qu’au moins une structure modelisant l’ ´ epitope de l’interaction fasse partie des premi- ´ eres structures du tri. Une fois l’ ` epitope d ´ etect ´ e, c’est ´ a la fonction de score atomique ` 73Chapitre 4. Approche multi-echelle ´ d’affiner la structure et d’en modeliser l’interaction 3D. Nous allons d’abord ´ evaluer ´ les poids de la fonction de score gros-grain, puis ses performances, que nous comparerons ensuite a la m ` eme fonction de score dont les poids sont appris dans l’inter- ˆ valle de valeurs positif, ainsi qu’a une fonction de score non lin ` eaire utilisant une valeur ´ de centrage par terme de score (voir section 3.1.1 chapitre 3). 4.3.2.1 Poids Les poids des parametres P1 (l’aire totale de la surface d’interaction) et P2 (le nom- ` bre d’acides amines et nucl ´ eiques ´ a l’interface) sont sans surprise tr ` es n ` egatifs (voir ´ 4.13). Ces poids etaient attendus n ´ egatifs car ils sont cens ´ es favoriser l’interaction : il ´ faut qu’il y ait un nombre suffisant d’acides amines et nucl ´ eiques (pour P1), de m ´ eme ˆ qu’une surface d’interaction suffisante (pour P2) pour obtenir une interaction entre les deux partenaires. On constate tout de meme une distance d’interquartile (entre le pre- ˆ mier quartile et le troisieme) plus importante pour P2 que pour P1. Autrement dit, l’ap- ` prentissage sur chacun des plis du leave-”one-pdb”-out ne donne pas un consensus aussi clair pour l’utilite de P2 que pour celle de P1 pour pr ´ edire l’interaction prot ´ eine- ´ ARN. Ceci suggere que le nombre d’acides amin ` es et nucl ´ eiques en interaction a une ´ contribution plus discutable que la surface d’interaction. ● ● ●●● ● ● ● ● ● ● ● ● −1.0 −0.5 0.0 0.5 1.0 Termes de score P1 (surface d'interaction) et P2 (nombre d'acides aminés et nucléiques) Poids P1 P2 FIGURE 4.13 – Valeurs des coefficients des parametres P1 et P2 pour les 120 com- ` plexes : l’aire totale de la surface d’interaction (en A˚ 2 ) et le nombre d’acide amines et ´ nucleiques ´ a l’interface. P1 et P2 sont tr ` es n ` egatifs. ´ On peut aussi constater que tous les parametres P3 (proportion d’acides amin ` es´ a l’interaction) fluctuent autour d’une valeur de 0.5, avec peu de diff ` erences entre les ´ types d’acides amines ou nucl ´ eiques (voir fig. 4.14). Ces poids ont donc tendance ´ a` 744.3. Evaluation de l’interaction ´ a l’ ` echelle gros-grain ´ augmenter le score final, donc classer le candidat comme leurre. La fonction de score a pris en compte le fait qu’il existe des leurres pour lesquels la proportion d’acides amines de m ´ eme type ˆ a l’interaction est tr ` es importante. Cette proportion importante ` d’acides amines de m ´ eme type correspond ˆ a la queue de distribution de chacun des ` termes de score de P3 vue a la section pr ` ec´ edente. ´ ●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● −1.0 −0.5 0.0 0.5 1.0 Termes de score P3 : proportion d'acides aminés ou nucléiques par type Poids ALA ARG ASN ASP CYS GLN GLU GLY HIS ILE LEU LYS MET PRO PHE SER THR TRP TYR VAL A C G U FIGURE 4.14 – Valeurs des coefficients des parametres P3 pour les 120 complexes : ` les proportions de chaque type d’acide amine et d’acide nucl ´ eique. P3 p ´ enalise les ´ structures qui privilegient ´ a leur interface la pr ` esence d’un type d’acide amin ´ e ou ´ nucleique plut ´ ot qu’un autre. ˆ Comparativement aux poids appris pour les interactions proteine-prot ´ eine, les poids ´ des parametres P4 – les volumes m ` edians – ne sont pas tous n ´ egatifs (voir 4.15). Au ´ contraire, plusieurs acides amines montrent des poids positifs de grande amplitude. En ´ realit ´ e, les poids P4 montrent que l’ordonnancement des acides amin ´ es selon leur taille ´ (ou encombrement sterique) a partiellement ´ et´ e retrouv ´ e´ a travers l’apprentissage. Ils ` sont positifs pour les acides amines de petite taille (alanine, glycine, aspartate, gluta- ´ mate, methionine, valine) et n ´ egatifs de grande amplitude pour les acides amin ´ es de ´ taille importante (arginine, tyrosine, tryptophane, phenylalanine, histidine). Les acides ´ amines polaires non charg ´ es (asparagine, glutamine) de composition proche de cer- ´ tains residus charg ´ es ont aussi des poids n ´ egatifs de plus grande amplitude que les ´ acides amines charg ´ es correspondants : l’aspartate et le glutamate d ´ ej ´ a cit ` es plus ´ haut. Globalement, les poids des parametres P4 sont n ` egatifs ou nuls m ´ eme pour ˆ des acides amines de taille moyenne (thr ´ eonine, leucine, isoleucine, lysine, s ´ erine, ´ cysteine, proline). Pour les acides nucl ´ eiques, les poids sont positifs et faibles, indi- ´ quant que la fonction de score favorise les candidats ayant un volume median rela- ´ tivement faible pour chaque acide nucleique, en comparaison des volumes m ´ edians ´ 75Chapitre 4. Approche multi-echelle ´ obtenus sur les candidats d’une gen´ eration de candidats par perturbation. Les poids ´ des pyrimidines (G et C) sont plus elev ´ es que ceux des purines, qui sont de taille ´ plus petite relativement aux pyrimidines. Le meme constat que pour les prot ˆ eines peut ´ donc etre fait pour les acides nucl ˆ eiques : l’ordonnancement des acides nucl ´ eiques ´ selon leur taille a et ´ e appris par la fonction de score. D’un point de vue g ´ eom ´ etrique, ´ les acides amines et nucl ´ eiques avec une taille importante ont tendance ´ a obtenir des ` cellules de Vorono¨ı plus volumineuses dans une structure native ou presque-native. Dans une structure gen´ er´ ee al ´ eatoirement et ´ eloign ´ ee de la solution native, la cellule ´ de Vorono¨ı peut avoir un volume plus elev ´ e ou plus faible. Cette diff ´ erence entre le ´ volume des cellules de Vorono¨ı pour les presque-natifs et pour les leurres lors de l’apprentissage a donc permis a l’algorithme d’apprentissage de retrouver les tailles des ` differents acides amin ´ es et nucl ´ eiques. ´ ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● −1.0 −0.5 0.0 0.5 1.0 Termes de score P4 : volume médian par acide aminé ou nucléique Poids ALA ARG ASN ASP CYS GLN GLU GLY HIS ILE LEU LYS MET PRO PHE SER THR TRP TYR VAL A C G U FIGURE 4.15 – Valeurs des coefficients des parametres P4 pour les 120 complexes : ` les volumes medians par type d’acide amin ´ e ou nucl ´ eique. Les poids montrent que ´ la fonction de score a retrouve l’information d’encombrement st ´ erique de chaque type ´ d’acide amine et nucl ´ eique. ´ 4.3.2.2 Evaluation de la fonction de score gros-grain ´ La fonction de score gros-grain VOR montre de moins bonnes performances que la fonction de score atomique POS : seuls 65 des complexes ont au moins un presquenatif parmi les 10 premiers candidats. Meme dans le top100 des candidats, seulement ˆ 99 des complexes ont au moins un presque-natif. Ceci est duˆ a plusieurs facteurs. ` Tout d’abord, on peut remarquer que le nombre de presque-natifs par complexe est drastiquement plus faible : moins de 150 presque-natifs sur les 10 000 structures, pour 764.3. Evaluation de l’interaction ´ a l’ ` echelle gros-grain ´ plus de la moitie des complexes. En comparaison, aucun complexe n’avait aussi peu ´ de presque-natifs a l’ ` echelle atomique, puisque leur minimum ´ etait ´ a 225 presque- ` natifs et ce nombre depassait le millier pour 116 des complexes. Ensuite, le nombre de ´ parametres complexifie l’apprentissage. Nous avons pu voir dans l’ ` etude des poids que ´ de nombreuses informations ont et´ e extraites par la fonction de score : l’encombrement ´ sterique des acides amin ´ es et nucl ´ eiques ainsi que la queue de distribution des propor- ´ tions d’acides amines et nucl ´ eiques ´ a l’interface, notamment. Mais les 210 param ` etres ` ne sont appris que sur moins de 2 500 candidats a chaque fois. De plus, la g ` en´ eration ´ de candidats par perturbation n’a pas permis d’obtenir 30 presque-natifs pour tous les complexes et ne permet qu’une gen´ eration in ´ egale du nombre de presque-natifs ´ par complexe. On peut notamment voir des illustrations de complexes pour lesquels la prediction a fonctionn ´ e et d’autres pour lesquels elle n’a pas fonctionn ´ e (voir table 4.2). ´ pdb ES TOP10 Attendus TOP100 Presque-natifs ROC-AUC 1gtf 1.55 10 6.307 99 6307 0.70 1knz 3.26 10 1.136 90 1136 0.73 1m8v 1.70 10 6.192 92 6192 0.61 2a8v 2.22 10 5.018 90 5018 0.67 2voo 4.88 10 3.261 97 3261 0.77 3d2s 1.63 10 5.557 93 5557 0.62 1asy 2.35 0 0.008 0 8 0.59 1b23 1.67 0 0.024 1 24 0.72 1c0a 1.89 0 0.001 0 1 0.77 1ddl 1.21 0 0.327 1 327 0.61 1di2 0.93 0 0.114 0 114 0.52 1e8o 1.43 0 0.743 10 743 0.60 TABLE 4.2 – Resultats de la fonction de score gros-grain VOR sans contrainte sur ´ l’apprentissage des poids pour 6 des meilleurs (en haut) et 6 des pires (en bas) complexes de la PRIDB (meilleurs ou pires au sens du nombre de presque-natifs dans le top10) : score d’enrichissement (ES), nombre de presque-natifs dans le top10, nombre de presque-natifs attendus en moyenne par un tri aleatoire, nombre de presque- ´ natifs dans le top100, nombre de presque-natifs sur les 10 000 structures et aire sous la courbe ROC sur 10 000 candidats par pdb evalu ´ e. On peut remarquer que ´ tous ces meilleurs complexes ont plus de 1 000 presque-natifs dans les 10 000 candidats gen´ er´ es, alors que tous ces pires complexes ont moins de 1 000 presque-natifs ´ gen´ er´ es, souvent m ´ eme bien moins. ˆ Il est aussi a noter qu’il n’est pas n ` ecessaire d’avoir un maximum de presque-natifs ´ dans le top10 des candidats : un seul presque-natif suffit. De plus, ici, l’objectif est davantage de minimiser la position du premier presque-natif – idealement pour qu’il ´ soit en premiere position dans le tri – que de le placer dans le top10. En effet, plus ce ` presque-natif sera place loin dans le tri et plus il faudra tester de candidats comme point ´ de depart d’un amarrage atomique avant de pouvoir effectuer un amarrage atomique ´ 77Chapitre 4. Approche multi-echelle ´ sur le bon candidat. Lorsque l’on regarde le top100 des candidats, on peut observer que plusieurs complexes avec moins de 10 presque-natifs en ont un ou plusieurs dans le top100 (voir table 4.3). Les aires sous la courbe ROC ont alors des valeurs tres` elev ´ ees. On peut ´ donc se rendre compte que, lorsque la gen´ eration de candidats par perturbation per- ´ met de rapidement gen´ erer de nombreux candidats de I ´ RMSD proche de la solution, le protocole d’amarrage gros-grain fonctionne tres bien. Mais d ` es que les deux parte- ` naires sont de taille suffisamment elev ´ ee, la g ´ en´ eration de 10 000 candidats est insuff- ´ isante pour avoir de bonnes chances de trouver l’epitope en une dizaine de tentatives ´ d’amarrage atomique. pdb ES TOP10 Attendus TOP100 Presque-natifs ROC-AUC 1ffy 2.30 0 0.008 2 8 0.88 1ser 1.95 0 0.008 1 8 0.88 1qtq 2.05 0 0.007 3 7 0.93 1f7u 2.56 0 0.007 1 7 0.86 1qf6 2.06 0 0.005 1 5 0.85 2bte 2.46 0 0.002 1 2 0.98 TABLE 4.3 – Resultats de la fonction de score gros-grain VOR sans contrainte sur ´ l’apprentissage des poids pour 6 autres des pires complexes de la PRIDB (pires au sens du nombre de presque-natifs dans le top10), mais avec au moins un presquenatif dans le top100 : score d’enrichissement (ES), nombre de presque-natifs dans le top10, nombre de presque-natifs attendus en moyenne par un tri aleatoire, nombre de ´ presque-natifs dans le top100, nombre de presque-natifs sur les 10 000 structures et aire sous la courbe ROC sur 10 000 candidats par pdb evalu ´ e. Malgr ´ e le faible nombre ´ de presque-natifs dans les 10 000 candidats de chaque complexe, il y a tout de meme ˆ un ou plusieurs presque-natifs dans le top100 des candidats, ce qui donne de tres` bonnes ROC-AUC. 4.3.2.3 Comparaison avec contrainte a poids positifs ` La fonction de score avec contrainte a poids positifs offre des performances encore ` moins bonnes. Seulement 8 complexes ont au moins un presque-natif dans le top10 des candidats (voir table 4.4). Et seulement 35 complexes ont au moins un presquenatif dans le top100 des candidats. Nous pouvons donc voir que la contrainte de l’intervalle de valeurs des poids a` apprendre depend enti ´ erement du contexte de l’apprentissage. Les descripteurs appris ` sont ici differents du cas de l’ ´ echelle atomique et donnent tous, quelle que soit leur ´ nature, une valeur positive ou nulle. La modelisation de la fonction de score doit alors ´ prendre en compte la contrainte selon laquelle tous les poids doivent etre positifs, alors ˆ que certains termes de score ne sont pas des termes de penalisation des structures, ´ mais au contraire penchent en faveur de l’interaction. 784.3. Evaluation de l’interaction ´ a l’ ` echelle gros-grain ´ pdb ES TOP10 Attendus TOP100 Presque-natifs ROC-AUC 1gtf 1.27 7 6.307 53 6307 0.48 2a8v 0.69 5 5.018 54 5018 0.46 3d2s 1.00 5 5.557 47 5557 0.49 1sds 0.69 4 2.190 15 2190 0.52 1dfu 0.31 1 0.743 2 743 0.31 2bu1 0.35 1 1.291 4 1291 0.38 TABLE 4.4 – Resultats de la fonction de score gros-grain ´ a poids positifs pour les ` 6 meilleurs complexes de la PRIDB (au sens du nombre de presque-natifs dans le top10) : score d’enrichissement (ES), nombre de presque-natifs dans le top10, nombre de presque-natifs attendus en moyenne par un tri aleatoire, nombre de presque-natifs ´ dans le top100, nombre de presque-natifs sur les 10 000 structures et aire sous la courbe ROC sur 10 000 candidats par pdb evalu ´ e. Comme on peut le voir, les r ´ esultats ´ ne sont pas satisfaisants pour notre protocole d’amarrage gros-grain. 4.3.2.4 Comparaison avec valeurs de centrage Etant donn ´ e le comportement des structures natives par rapport aux candidats ´ gen´ er´ es, Il est l ´ egitime de penser que les presque-natifs ont une plage de valeurs ´ ideales pour au moins certains param ´ etres, au-dessus et en-dessous de laquelle se ` trouve un espace majoritairement peuple de leurres. Nous pouvons tirer parti de cette ´ repartition en plage de valeurs id ´ eales. C’est un concept qui a d ´ ej ´ a fait ses preuves, ` notamment en fouille de donnees textuelles [214], mais aussi en amarrage prot ´ eine- ´ proteine [6]. Une fonction de score non lin ´ eaire est alors compar ´ ee´ a la fonction ` de score constituee d’une combinaison lin ´ eaire des termes de score g ´ eom ´ etriques. ´ Son comportement sur un seul parametre se mod ` elise par une fonction d ´ ecroissante ´ jusqu’en 0, suivie d’une fonction croissante (voir fig. 4.16). La valeur de centrage ci indique le centre estime par la fonction de score pour la plage de valeurs id ´ eales. Le ´ poids wi mesure la vitesse a laquelle s’ ` ecarter de cette valeur de centrage p ´ enalise ´ la structure. Au lieu d’un seul poids par terme de score i, cette fonction de score non lineaire apprend donc les deux poids ´ wi et ci , calculant le score ainsi, avec les valeurs des A descripteurs de l’exemple tels que X = (x1, x2, ...x|A|) (voir eq. 4.2). ´ f(X) = X |A| i=1 wi |xi − ci | (4.2) Ce modele de fonction de score a d ` ej ´ a` et´ e pr ´ esent ´ e au chapitre 3, en section 3.1.1. ´ Son avantage pour le cas qui nous interesse est de pouvoir discriminer, pour chaque ´ descripteur, d’une part une plage de valeurs correspondant aux presque-natifs, d’autre part des valeurs correspondant aux leurres et positionnees de part et d’autre de cette ´ plage de valeurs. Remarquons que l’apprentissage des poids doit ici se faire dans l’intervalle positif au moins pour les valeurs de centrage. Une valeur de ci negative n’a ´ en effet pas de sens puisque tous les termes de score sont a valeur dans l’intervalle ` 79Chapitre 4. Approche multi-echelle ´ positif. Valeur du terme de score xi Participation yi de xi au score 0 ci 0 wi * |ci| FIGURE 4.16 – Exemple de calcul de la participation yi a un score ` y par une fonction de score avec valeurs de centrage, utilisant les poids wi et ci . Le poids ci est aussi appele´ la valeur de centrage. On peut voir que l’ordonnee´ a l’origine est ` egale ´ a` wi∗|ci |. Ce type de fonction permet de modeliser des ph ´ enom ´ enes pour lesquels une plage de valeurs ` ideales est entour ´ ee de valeurs de plus en plus ´ eloign ´ ees du crit ´ ere caract ` erisant la ´ plage de valeurs ideales. ´ Les resultats de la fonction de score avec valeurs de centrage sont moins satis- ´ faisants (voir table 4.5). Il y a 28 complexes pour lesquels au moins un presque-natif est trouve dans le top10 des candidats, et 61 complexes avec au moins un presque- ´ natif dans le top100 des candidats. La fonction de score avec valeurs de centrage est tout de meme plus performante que la fonction de score form ˆ ee d’une combinaison ´ lineaire des param ´ etres dont les poids sont restreints ` a l’intervalle de valeurs positif. ` D’autre part, on n’observe plus aucun complexe pour lesquels il existe au moins un presque-natif dans le top100 pour les complexes avec dix presque-natifs ou moins sur l’ensemble des 10 000 candidats gen´ er´ es. Cette fonction de score est donc bien moins ´ adaptee´ a la pr ` ediction d’interactions prot ´ eine-ARN que la fonction de score VOR. ´ 4.4 Conclusions sur la fonction de score gros-grain Le protocole gros-grain part de candidats gen´ er´ es al ´ eatoirement dans l’espace des ´ candidats pour essayer de trouver un candidat suffisamment proche de l’epitope pour ´ etre exploitable par le protocole atomique. Malheureusement, les performances de la ˆ fonction de score gros-grain ne remplissent pas aussi bien les objectifs fixes que pour ´ 804.4. Conclusions sur la fonction de score gros-grain pdb ES TOP10 Attendus TOP100 Presque-natifs ROC-AUC 1gtf 1.12 8 6.307 65 6307 0.51 1m8v 1.07 5 6.192 57 6192 0.49 2f8k 1.06 5 3.820 43 3820 0.49 1wsu 1.02 4 2.288 29 2288 0.51 2gxb 0.96 4 3.404 39 3404 0.49 2a8v 0.77 3 5.018 43 5018 0.49 TABLE 4.5 – Resultats de la fonction de score gros-grain avec valeurs de centrage pour ´ les 6 meilleurs complexes de la PRIDB (au sens du nombre de presque-natifs dans le top10) : score d’enrichissement (ES), nombre de presque-natifs dans le top10, nombre de presque-natifs attendus en moyenne par un tri aleatoire, nombre de presque-natifs ´ dans le top100, nombre de presque-natifs sur les 10 000 structures et aire sous la courbe ROC sur 10 000 candidats par pdb evalu ´ e. Comme on peut le voir, les r ´ esultats ´ sont meilleurs que lorsque l’on contraint un apprentissage des poids dans un intervalle de valeurs positif, mais toujours insatisfaisants pour notre protocole d’amarrage grosgrain. la fonction de score atomique. Le manque de solutions acceptables a l’ ` echelle gros- ´ grain parmi celles obtenues avec la gen´ eration de candidats par perturbation participe ´ a ce constat. G ` en´ erer plus de 10 000 candidats pourrait permettre de mieux g ´ erer ce ´ phenom ´ ene. Le second probl ` eme est le nombre de param ` etres, qui s’ ` el ´ eve ` a 210, ` alors que la fonction de score utilise moins de 2 500 candidats dans l’apprentissage. Malgre cela, m ´ eme pour des complexes avec tr ˆ es peu de solutions, on constate des ` presque-natifs dans le top100 des candidats. Nous avons cependant pu constater a nouveau qu’il est important de savoir d ` efinir ´ avec precaution l’intervalle de valeurs des poids ´ a apprendre pour la fonction de score. ` Contrairement a l’amarrage atomique, ici, il convient de ne pas contraindre l’appren- ` tissage des poids a l’intervalle de valeurs positif, au risque d’obtenir une fonction de ` score moins performante. Nous avons aussi pu tester l’apprentissage d’une fonction de score avec valeurs de centrage, qui semblait bien adaptee au ph ´ enom ´ ene de plages ` de valeurs ideales observ ´ ees pour plusieurs param ´ etres. Cette fonction de score avec ` valeurs de centrage etait tout de m ´ eme moins performante que la fonction de score ˆ par combinaison lineaire des param ´ etres. ` Nous avons aussi pu montrer que les acides amines hydrophobes participent bien ´ moins a l’interaction que les acides amin ` es hydrophiles – surtout les acides amin ´ es´ charges – contrairement ´ a ce qui est observ ` e pour les interactions prot ´ eine-prot ´ eine. ´ Les poids associes aux param ´ etres issus des volumes m ` edians montrent que la taille ´ (encombrement sterique) des acides amin ´ es et des acides nucl ´ eiques est retrouv ´ ee et ´ prise en compte dans la fonction de score gros-grain. 81Chapitre 4. Approche multi-echelle ´ 82Chapitre 5 Discussion biologique 5.1 Limites inherentes ´ a la construction de fonctions ` de score obtenues par apprentissage Les modeles de fonction de score construits pour cette ` etude sont issus d’extrac- ´ tion de connaissances a partir de donn ` ees biologiques/biophysiques exp ´ erimentales et ´ simulees. Pour donner de bons r ´ esultats, ces mod ´ eles de fonction de score n ` ecessitent ´ donc des donnees de qualit ´ e et une mod ´ elisation fiable et pr ´ ecise des objets ´ etudi ´ es. ´ Or, si la quantite relativement faible de donn ´ ees disponibles (que nous verrons en sec- ´ tion 5.1.1) sur les interactions 3D proteine-ARN incite ´ a pr ` edire ces interactions, elle ´ limite aussi les modeles pouvant ` etre construits pour pr ˆ edire ces interactions. ´ Pour eviter une sur-repr ´ esentation de complexes tr ´ es` etudi ´ es dans la PDB, il est ´ necessaire de limiter la redondance dans les jeux de donn ´ ees. Mais cela a pour ´ consequence que les quantit ´ es de donn ´ ees disponibles sont faibles voire tr ´ es faibles. ` Le manque de donnees et la diversit ´ e des r ´ esidus et bases nucl ´ eiques imposent ´ des choix de methodes d’ ´ evaluation et de traitement des valeurs manquantes, des ´ valeurs non standards et du solvant. Chacun de ces choix a un impact sur les resultats. ´ Cette partie traite de cet impact, qu’il faut avoir a l’esprit pour correctement interpr ` eter ´ les resultats. ´ 5.1.1 Une source de donnees exp ´ erimentales en constante ´ evolution ´ Nous avons pu extraire et nettoyer 120 complexes proteines-ARN de la P ´ RIDB non redondante RB199. Nous avons ensuite utilise ces 120 solutions natives pour ´ gen´ erer 10 000 candidats chacune, d’une part pour l’ ´ echelle atomique, d’autre part ´ pour l’echelle gros-grain. Pour ces 120 complexes prot ´ eine-ARN, nous avons pu mon- ´ trer que l’objectif etait rempli pour plus de 90 % d’entre eux. ´ Un nouveau jeu de donnees non redondantes de r ´ ef´ erence – RB344 – est en cours ´ de construction 8 . Il contiendra comme son nom l’indique 344 chaˆınes d’acides amines´ et palliera en partie le manque de donnees. Qu’en serait-il si nous avions dispos ´ e´ 8. http://www.pridb.gdcb.iastate.edu/download.php 83Chapitre 5. Discussion biologique de ces complexes ? Avec davantage de donnees, il serait par exemple possible d’en- ´ visager une evaluation d’interactions non prises en compte dans le mod ´ ele pr ` esent ´ e,´ notamment les interactions avec le solvant explicite qui a et´ e trait ´ e lors du nettoyage ´ des donnees. ´ 5.1.2 Influence du nettoyage des donnees ´ 5.1.2.1 Valeurs manquantes Le traitement des valeurs manquantes a ici eu pour but de minimiser l’impact des parametres inconnus et de permettre d’utiliser des techniques pour lesquelles ` l’ensemble des descripteurs doivent etre renseign ˆ es. Dans les jeux de donn ´ ees de ´ ref ´ erence, certains acides nucl ´ eiques (resp. acides amin ´ es) sont peu pr ´ esents voire ´ inexistants en interaction avec des acides amines (resp. acides nucl ´ eiques). C’est no- ´ tamment le cas de la cysteine. Pour que le mod ´ ele de fonction de score soit complet, il ` necessite tout de m ´ eme un score associ ˆ e aux interactions rarement rencontr ´ ees. Pour ´ determiner cette valeur de score, nous utilisons une m ´ ethode statistique. Une premi ´ ere ` maniere de proc ` eder serait de prendre la valeur moyenne du score pour les autres ´ acides nucleiques ou acides amin ´ es. Ceci donnerait un poids identique ´ a chaque acide ` nucleique ou amin ´ e dans la valeur du score des interactions rares ou non rencontr ´ ees. ´ Or, plusieurs acides nucleiques ou amin ´ es diff ´ erent de mani ` ere importante des autres, ` que ce soit par leur taille ou par leur charge elev ´ ee. Nous avons donc choisi une sec- ´ onde methode : la valeur m ´ ediane. Pour minimiser l’impact de ces acides amin ´ es ou ´ nucleiques au comportement diff ´ erent, nous remplac¸ons la valeur de score des inter- ´ actions rarement rencontrees par la valeur m ´ ediane des acides nucl ´ eiques ou amin ´ es´ sur l’ensemble des structures natives. La mediane de chaque param ´ etre sur les struc- ` tures natives suffit pour attribuer une valeur a chacun des 210 param ` etres. Il s’ensuit ` que les interactions rares ou non rencontrees ont une estimation impr ´ ecise de la valeur ´ de leur score, mais qui correspond au comportement d’un acide amine ou nucl ´ eique ´ type dans une veritable interaction. ´ 5.1.2.2 Acides amines et nucl ´ eiques non standards ´ Le traitement des valeurs issues des bases et residus non standards a un impact ´ sur les predictions issues du mod ´ ele. Pour d ` efinir les param ´ etres de la fonction de ` score gros-grain, les methodes utilis ´ ees mettent en œuvre des mesures statistiques ´ sur les jeux de donnees. Le principe est de faire l’hypoth ´ ese que toute nouvelle inter- ` action a pr ` edire se comportera localement pour un acide amin ´ e ou un acide nucl ´ eique ´ comme les interactions dej ´ a connues : ` – si un type d’acide amine se trouve souvent ´ a l’interaction dans les jeux de ` donnees de r ´ ef ´ erence, on aura tendance ´ a penser qu’il devrait g ` en´ eralement ´ etre ˆ a l’interaction ; ` – si un type d’atome ne se trouve quasiment jamais a moins d’une certaine dis- ` tance d’un autre type d’atome, on aura tendance a penser qu’il ne devrait pas se ` trouver plus pres d’un atome que cette distance. ` 845.1. Limites inherentes ´ a la construction de fonctions de score obtenues par apprentissage ` De plus, il arrive que les proteines et ARN en interaction contiennent des acides ´ amines ou acides nucl ´ eiques non standards, g ´ en´ erant des param ´ etres qui leur sont ` specifiques. Or, ces acides nucl ´ eiques ou amin ´ es non standards sont rencontr ´ es trop ´ rarement pour modeliser correctement leur influence sur la fonction de score. Il faut ´ alors simplifier le modele et remplacer les acides amin ` es et acides nucl ´ eiques non ´ standards par la structure chimique standard leur etant la plus proche. ´ Cette simplification du modele a peu d’incidence sur la plupart des complexes ` proteine-ARN. Il existe cependant des cas o ´ u les acides amin ` es ou nucl ´ eiques non ´ standards jouent un role d ˆ eterminant dans l’interaction. C’est le cas de certains des ´ complexes mettant en jeu la reconnaissance specifique de ces acides amin ´ es ou ´ nucleiques non standards. Pour illustration, le complexe tRNA-pseudouridine avec la ´ tRNA-pseudouridine synthase necessite la reconnaissance sp ´ ecifique du codon de la ´ pseudouridine du tRNA par la tRNA synthase. Il existe plusieurs complexes de ce type, avec differentes variantes de tRNA-pseudouridine synthase et diff ´ erents tRNA avec ´ lesquels ils doivent interagir. Pour tous ces complexes, la pseudouridine se trouve clairement a l’interface. Mais la reconnaissance n’est pas garantie lorsque la pseu- ` douridine est remplacee par l’uridine. Commenc¸ons par un exemple o ´ u le mod ` ele de ` prediction admet la reconnaissance du tRNA par la tRNA-synthase m ´ eme lorsque la ˆ pseudouridine est remplacee par l’uridine. Le complexe de code 1r3e existe chez la ´ bacterie ´ Thermotoga maritima [193]. Il represente l’interaction entre la tRNA-pseudo- ´ uridine synthase B et la tRNA-pseudouridine (voir fig. 5.1). Ici, l’interaction est correctement predite par le mod ´ ele et l’on peut facilement observer un entonnoir dans le ` diagramme d’energie en fonction du I ´ RMSD (voir fig. 5.2). Mais il est un cas, illustre´ aussi par la PRIDB, ou l’interaction mettant en œuvre des acides nucl ` eiques non stan- ´ dards n’est pas correctement predite. Ce complexe, de code PDB 1asy, est pr ´ esent ´ chez Saccharomyces cerevisiae [218]. Il s’agit de la tRNA-aspartate synthase A en interaction avec le tRNA-aspartate. Le tRNA-aspartate reconnu contient trois acides nucleiques non standards en diff ´ erents points de l’interaction, dont la pseudouridine et ´ la methylguanosine. Notamment, la tRNA-aspartate synthase doit pouvoir diff ´ erencier ´ le tRNA-aspartate d’un autre tRNA (voir fig. 5.1). L’evaluation du mod ´ ele montre que ` des candidats avec une IRMSD > 5A sont pr ˚ esents dans le top10 des candidats en ´ energie (voir fig. 5.2). La d ´ etection d’entonnoir est aussi moins claire. ´ Etant donn ´ e´ le remplacement de la pseudouridine par l’uridine et de la methylguanosine par la ´ guanine, le modele propose donc des interactions diff ` erentes : la tRNA-aspartate syn- ´ thase ne doit pas etre en interaction avec un tRNA-aspartate dans lequel les acides ˆ nucleiques non standards sont remplac ´ es par leur acide nucl ´ eique standard. ´ Certaines molecules biologiques sont aussi consid ´ er´ ees comme des h ´ et´ eroatomes ´ et sont retirees de la structure 3D. C’est notamment le cas des ATP, GTP et autres lig- ´ ands se liant aux complexes lors de mecanismes qui les mettent en jeu. C’est aussi le ´ cas par exemple de l’aspartyl-adenosine-monophosphate (AMP-ASP). Son implication ´ dans une interaction proteine-ARN est illustr ´ ee par le complexe de code 1c0a, pr ´ esent ´ dans Escherichia coli [75]. Ce complexe presente l’interaction de la tRNA-aspartate ´ synthase avec le tRNA-aspartate, mais avec la presence d’un AMP-ASP ´ a l’interaction ` (voir fig. 5.1). Le vide laisse par cet AMP-ASP n’emp ´ eche cependant pas la pr ˆ ediction ´ de l’interaction (voir fig. 5.2). 85Chapitre 5. Discussion biologique a) b) c) FIGURE 5.1 – Structure 3D de trois complexes proteine-ARN (la prot ´ eine en bleu ´ et l’ARN en orange), dans une etude de cas des acides amin ´ es et nucl ´ eiques non ´ standards, avec certains acides amines et nucl ´ eiques mis en ´ evidence (b ´ atonnets ˆ verts, rouges et blancs) : a) Le tRNA-aspartate en interaction avec la tRNA-aspartate synthase (code PDB 1c0a), ou l’interaction est mod ` elis ´ ee et pr ´ edite sans difficult ´ e.´ L’aspartyl-adenosine monophosphate est mise en ´ evidence ´ a l’interaction. b) Le tRNA- ` pseudouridine en interaction avec la tRNA-pseudouridine synthase (code PDB 1r3e), ou l’interaction est aussi correctement pr ` edite. La pseudouridine est mise en ´ evidence ´ a l’interaction. c) Le tRNA-aspartate en interaction avec la tRNA-aspartate synthase ` de la levure (de code PDB 1asy), avec plusieurs acides nucleiques non standards ´ (PSU – la pseudouridine – et 1MG – la 1N-methylguanosine) remplac ´ es par les acides ´ nucleiques standards correspondants (respectivement l’uracile et la guanine). Cette in- ´ teraction est correctement predite, malgr ´ e quelques leurres avec des scores tr ´ es bas. ` 5.1.2.3 Solvant et ions Dans les etapes de nettoyage pr ´ esent ´ ees dans ce manuscrit, le solvant et les ions ´ sont retires des structures natives. Ce traitement du solvant et des ions permet de sim- ´ plifier le modele en retirant le solvant explicite et les ions de la mod ` elisation atomique. ´ En amarrage proteine-prot ´ eine, la communaut ´ e C´ APRI a mene des ´ evaluations de ´ la prediction de la position des mol ´ ecules du solvant et certains algorithmes d’amar- ´ rage ont montre de bonnes performances dans l’affinement de la position des mol ´ ecu- ´ les d’eau [68]. Cet affinement des positions des molecules d’eau a m ´ eme permis de ˆ mieux modeliser l’interaction entre les deux partenaires. ´ Dans RosettaDock, les molecules d’eau ne sont pas prises en compte. Elles sont ´ 865.1. Limites inherentes ´ a la construction de fonctions de score obtenues par apprentissage ` 1c0a (ES = 5.89) Irmsd (Å) Score 0 20 −194 −162 0 20 1r3e (ES = 6.89) Irmsd (Å) Score 0 20 −18 3 0 20 0 1asy (ES = 3.69) Irmsd (Å) Score 0 20 176 223 0 20 FIGURE 5.2 – Diagramme d’energie en fonction du I ´ RMSD (EvsRMS) pour les trois complexes de la PRIDB utilises dans l’ ´ etude de cas des partenaires. Pour 1c0a et 1r3e, ´ la prediction de l’interaction est un succ ´ es. Pour 1asy, des am ` eliorations sont encore ´ possibles. tout simplement ignorees ´ a la lecture du fichier de structure, de m ` eme que les ions. ˆ Si l’on devait modeliser l’interaction avec le solvant, il faudrait d ´ eterminer les in- ´ teractions possibles entre chacun des partenaires et chaque molecule d’eau pouvant ´ potentiellement s’incorporer a l’interface. En effet, les mol ` ecules d’eau sont des dip ´ oles ˆ et peuvent avoir une interaction du cotˆ e des hydrog ´ enes comme du c ` otˆ e de l’oxyg ´ ene. ` D’une part, modeliser cette interaction revient ´ a traiter un cas plus complexe que le ` cas de l’interaction binaire. D’autre part, cette energie est d ´ ej ´ a partiellement prise en ` compte dans le terme de solvatation, qui calcule l’accessibilite au solvant : le solvant ´ est modelis ´ e implicitement [76, 144]. Mais la stabilit ´ e conf ´ er´ ee par l’interaction indi- ´ recte des deux partenaires par le biais de molecules d’eau n’est pas enti ´ erement prise ` en compte. C’est par exemple le cas du complexe impliquant la proteine ´ LA en interaction avec la queue 3’ terminale UUU de certains ARN lorsqu’ils sont nouvellement transcrits. C’est le complexe de code PDB 2voo pour la proteine humaine, avec pour ´ role la protection de la queue 3’terminale UUU avec laquelle la prot ˆ eine est en in- ´ teraction [139]. Dans ce complexe, l’interaction entre les deux partenaires implique de nombreuses molecules d’eau ´ a l’interface, par comparaison avec la taille de l’ARN (voir ` fig. 5.3). L’evaluation du mod ´ ele par l’EvsRMSD montre que la plupart des candidats ` de plus basse energie s’ ´ eloignent de 3 ´ a 4 ` A en I ˚ RMSD de la structure native (voir fig. 5.4. La difference est suffisante pour montrer qu’une mod ´ elisation plus fine de l’inter- ´ action avec les molecules d’eau est n ´ ecessaire, au moins pour les complexes dot ´ es´ d’un partenaire de petite taille. Un autre exemple de l’interaction avec le solvant peut etre observ ˆ e avec le com- ´ plexe de code PDB 2jlv du virus de la Dengue [169]. Dans ce complexe, la sousunite NS3 de la s ´ erine prot ´ ease du virus de la Dengue est en interaction avec un petit ´ ARN simple brin. De nombreuses molecules de solvant peuvent ´ etre observ ˆ ees en- ´ tre la sous-unite NS3 et l’ARN, allant jusqu’ ´ a quasiment entourer l’ARN (voir fig. 5.3). ` Comme on peut le voir dans le diagramme EvsRMS, l’interaction de 2jlv n’est pas 87Chapitre 5. Discussion biologique predite correctement par la fonction de score (voir fig. 5.4). ´ Le cas des ions est illustre par le complexe de code PDB 1jbs d’ ´ Aspergillus restrictus [263]. La restrictocine d’Aspergillus restrictus est en interaction avec un ARN analogue de la boucle du domaine sarcine-ricine de l’ARN 28S. Des ions potassium se trouvent en interaction avec l’ARN et l’un d’entre separe m ´ eme l’ARN de la prot ˆ eine ´ (voir fig. 5.3). La fonction de score a du mal a pr ` edire avec exactitude l’interaction entre ´ la restrictocine et cet analogue de la boucle du domaine sarcine-ricine (voir fig. 5.4). a) b) c) FIGURE 5.3 – Structure 3D de trois complexes proteine-ARN (la prot ´ eine en bleu et ´ l’ARN en orange), dans une etude de cas du solvant (sph ´ eres rouge) et des ions ` (spheres violettes) : a) La prot ` eine ´ LA en interaction avec la queue 3’ terminale UUU d’un ARN nouvellement transcrit (code PDB 2voo), avec quatre molecules d’eau as- ´ surant l’interaction entre les deux partenaires. Cette interaction est tout de meme cor- ˆ rectement predite par la fonction de score. b) La sous-unit ´ e NS3 de la s ´ erine prot ´ ease ´ du virus de la dengue en interaction avec un petit ARN simple brin (code PDB 2jlv), ou` l’interaction n’est pas predite correctement. De nombreuses mol ´ ecules de solvant sont ´ mises en evidence ´ a l’interface entre les deux partenaires. c) La restrictocine en inter- ` action avec un ARN analogue de la boucle du domaine sarcine-ricine de l’ARN 28S (code PDB 1jbs), ou l’on peut voir un ion potassium log ` e entre la prot ´ eine et l’ARN. ´ Cette interaction n’est pas correctement predite par la fonction de score. ´ 5.1.3 Influence du choix de la methode d’ ´ evaluation ´ Le leave-”one-pdb”-out peut etre vu comme une ˆ k-validation croisee avec ´ k egal ´ au nombre de structures natives et ou les exemples sont r ` epartis en une strate par ´ 885.1. Limites inherentes ´ a la construction de fonctions de score obtenues par apprentissage ` 2voo (ES = 1.69) Irmsd (Å) Score 0 20 −9 −5 0 20 2jlv (ES = 0.74) Irmsd (Å) Score 0 20 −142 −108 0 20 1jbs (ES = 0.79) Irmsd (Å) Score 0 20 −22 −12 0 20 FIGURE 5.4 – Diagramme d’energie en fonction du I ´ RMSD (EvsRMS) pour les trois complexes de la PRIDB utilises dans l’ ´ etude de cas du solvant et des ions. Pour 2voo ´ et 2jlv, la prediction de l’interaction est un succ ´ es. Pour 1jbs, des am ` eliorations sont ´ encore possibles. structure native. Chaque strate contient alors les exemples issus de la gen´ eration de ´ candidats par perturbation a partir d’une structure native donn ` ee. ´ Le leave-”one-pdb”-out est une methode permettant de se mettre en situation d’- ´ exploitation avec des donnees d’apprentissage. Plut ´ ot que d’ ˆ etre dans le cas o ˆ u l’on ` connaˆıt 120 structures natives, on considere ne conna ` ˆıtre que 119 structures natives. On rencontre alors une structure native supplementaire et l’on ´ evalue la performance ´ de la fonction de score apprise sur cette structure native. Comme il faut apprendre une fonction de score par strate, les calculs pour l’evaluation ´ des donnees sont plus co ´ uteux. Ainsi, cette m ˆ ethode d’ ´ evaluation est non seulement ´ pref ´ erable pour utiliser un maximum de donn ´ ees en apprentissage, mais son co ´ utˆ evolue aussi en ´ n 2 ou` n est le nombre de complexes proteine-ARN du jeu de donn ´ ees. ´ Ces deux constats rendent le leave-”one-pdb”-out pref´ erable ´ a utiliser sur des jeux de ` donnees de petite taille. ´ Les analyses des resultats sont plus complexes, puisque l’on ne se retrouve plus ´ avec l’evaluation d’une seule fonction de score mais avec l’ ´ evaluation de 120 fonctions ´ de score. Il faut s’assurer que les fonctions de score sont toujours comparables et verifier ´ a quel point les diff ` erentes mesures peuvent se comparer entre elles. La ROC- ´ AUC est pour cela une bonne mesure de la performance d’une fonction de score. Pour illustration, le score d’enrichissement a 10 % ne donne pas de r ` esultats satisfaisants, ´ meme pour des complexes avec lesquels le diagramme d’EvsIrmsd permet de d ˆ etecter ´ un entonnoir. Il s’agit gen´ eralement de complexes pour lesquels il y a peu de leurres. ´ C’est notamment le cas pour 1av6, 1gtf et 1vfg (voir fig. 5.5). Toutefois, les fonctions de score apprennent a discerner avec un seul en I ` RMSD < 5A un exemple des autres ˚ exemples, alors que le score d’enrichissement a 10 % s ` epare les exemples selon un ´ seuil dependant de la distribution en I ´ RMSD des exemples. 89Chapitre 5. Discussion biologique 1av6 (ES = 1.53) Irmsd (Å) Score 0 20 −4 6 0 20 1gtf (ES = 1.61) Irmsd (Å) Score 0 20 −35 −20 0 20 1vfg (ES = 0.32) Irmsd (Å) Score 0 20 58 68 0 20 FIGURE 5.5 – Diagramme d’energie en fonction du I ´ RMSD (EvsRMS) pour trois complexes de la PRIDB pour lesquels on peut observer un faible score d’enrichissement, malgre la d ´ etection d’un entonnoir. Il y a peu de leurres pour ces trois complexes, ´ compares aux autres complexes. ´ 5.2 Flexibilite´ a l’interaction ` Les molecules biologiques adoptent ´ in vivo une conformation biologiquement active. C’est cette structure 3D qui est recherchee dans les exp ´ eriences de repliement ´ et qui est utilisee par l’amarrage pour pr ´ edire la structure de l’interaction. Mais il ar- ´ rive que les structures des proteines et des ARN se d ´ eforment ´ a l’interaction. On parle ` alors de flexibilite. ´ C’est un concept qui a necessit ´ e de diff ´ erencier l’amarrage partant des structures ´ liees de l’amarrage partant des structures non li ´ ees. En effet, la pr ´ ediction de l’inter- ´ action est plus difficile avec des structures non liees qu’avec des structures li ´ ees. La ´ prediction est d’autant plus difficile que la d ´ eformation de la structure de l’un ou l’autre ´ des deux partenaires est grande a l’interface. Certaines grandes d ` eformations sont ´ modelisables lorsqu’elles mettent en jeu, notamment pour les prot ´ eines, des acides ´ amines se situant dans des boucles. ´ Il arrive aussi qu’un ARN en interaction avec une proteine ne soit compos ´ e que ´ de quelques acides nucleiques. Dans ce genre de cas, la d ´ etermination du repliement ´ de l’ARN doit se faire a la vol ` ee, directement ´ a l’interface avec la prot ` eine. Si ces ´ calculs peuvent etre co ˆ uteux pour des ARN de plusieurs dizaines ou centaines d’acides ˆ nucleiques, ils sont n ´ ecessaires pour les plus petits ARN. ´ Pour les proteines dans RosettaDock, la flexibilit ´ e´ a l’interaction est mod ` elis ´ ee´ grace ˆ a deux m ` ecanismes : ´ – la reconstruction des chaˆınes laterales des acides amin ´ es en interaction avec ´ des acides amines du partenaire ; ´ – la reconstruction du squelette des boucles en interaction avec des acides amines´ du partenaire. Pour les chaˆınes laterales, un ´ echantillonnage des diff ´ erents rotam ´ eres possibles ` est teste en ´ evaluant le score que chaque rotam ´ ere test ` e obtiendrait s’il remplac¸ait la ´ 905.3. Limites du protocole de gen´ eration des candidats ´ chaˆıne laterale existante. Un algorithme de Monte-Carlo est utilis ´ e pour choisir quel ´ rotamere doit remplacer la cha ` ˆıne laterale existante. ´ Pour les boucles, un algorithme de reconstruction de boucle est utilise : ´ Cyclic Coordinate Descent (CCD, [33]). La boucle a reconstruire est d’abord rompue pour perme- ` ttre un mouvement plus libre de ses acides amines. Puis, le squelette de chaque acide ´ amine est repositionn ´ e sans prendre en consid ´ eration sa cha ´ ˆıne laterale. Les cha ´ ˆınes laterales sont enfin reposition ´ ees et, si elles sont en interaction avec des acides amin ´ es´ du partenaire, sont reconstruites par echantillonnage des rotam ´ eres possibles, comme ` decrit au paragraphe pr ´ ec´ edent. L’algorithme CCD est utilis ´ e pour refermer la boucle. ´ L’alliance de ces deux mecanismes de reconstruction de cha ´ ˆınes laterales et de ´ boucles permet de modeliser une part importante de la flexibilit ´ e des prot ´ eines. Ces ´ mecanismes ont toutefois un co ´ ut, qui est contr ˆ ol ˆ e en ne recherchant pas de mani ´ ere ` exhaustive les meilleurs rotameres et squelettes de boucle. En effet, pour l’un comme ` pour l’autre des mecanismes, le meilleur choix, qu’il s’agisse du rotam ´ ere ou du squelette, ` depend des autres choix ´ a effectuer pour les rotam ` eres ou squelettes. Une recherche ` exhaustive impliquerait un calcul combinatoire couteux. Une heuristique est donc utilis ˆ ee. ´ Evidemment, adapter ces deux m ´ ecanismes de reconstruction au cas de l’ARN sig- ´ nifie disposer de donnees cons ´ equentes sur la flexibilit ´ e des ARN. D’une part, nous de- ´ vons disposer d’une base de donnees de rotam ´ eres pour les ARN. Il se trouve qu’une ` base de donnees de rotam ´ eres d’ARN est disponible dans les fichiers de RosettaDock. ` Cependant, nous avons pu voir en section 3.2.1 du chapitre 3 que la base de donnees ´ de rotameres des prot ` eines n’ ´ etait peut- ´ etre pas adapt ˆ ee aux interactions prot ´ eine- ´ ARN. Il n’y a donc aucune raison pour que la base de donnees de rotam ´ eres ARN ` convienne a la pr ` ediction d’interactions prot ´ eine-ARN. Cela signifie qu’il faudrait aussi ´ adapter les rotameres ARN aux interactions prot ` eine-ARN. D’autre part, la reconstruc- ´ tion des boucles a et ´ e´ evalu ´ ee pour les acides amin ´ es. Elle n ´ ecessite une fonction de ´ score dedi ´ ee pour ´ evaluer le meilleur squelette de chaque acide amin ´ e. Il faudrait donc ´ aussi adapter cette fonction de score aux interactions proteine-ARN. ´ 5.3 Limites du protocole de gen´ eration des candidats ´ Le tri des candidats d’une interaction entre macromolecules biologiques implique ´ d’avoir au prealable un ensemble de candidats g ´ en´ er´ e. Cet ensemble de candidats ´ a un impact direct sur les performances du tri. Comme on a pu le voir en section 2.4.4 du chapitre 2, un ensemble de candidats judicieusement filtre permet d’accro ´ ˆıtre considerablement les performances d’une fonction de score. Ainsi, la g ´ en´ eration des ´ candidats doit suivre certains objectifs. Le premier objectif de la gen´ eration des candidats est d’offrir un panel suffisamment ´ large et representatif de candidats pouvant raisonnablement ´ etre consid ˆ er´ es comme ´ des candidats de l’interaction : les candidats avec deux partenaires trop eloign ´ es pour ´ interagir ou avec trop d’interpen´ etration pour repr ´ esenter une interaction biologique ´ sont des leurres evidents. Cet objectif a cependant des implications s’il est rempli. Nous ´ pouvons par exemple observer pour certains des 120 complexes de la PRIDB que les 91Chapitre 5. Discussion biologique candidats gen´ er´ es sont pour plus de 99.9 % d’entre eux r ´ epartis de part et d’autre d’un ´ intervalle de plus de 1A (voir fig. 5.6). Cet ˚ etat de fait a deux cons ´ equences. ´ 1n35 (ES = 7.27) Irmsd (Å) Score 0 20 −28 −20 0 20 1tfw (ES = 4.38) Irmsd (Å) Score 0 20 −63 −49 0 20 2nug (ES = 6.56) Irmsd (Å) Score 0 20 −67 −42 0 20 FIGURE 5.6 – Diagramme d’energie en fonction du I ´ RMSD (EvsRMS) pour trois complexes de la PRIDB pour lesquels on peut observer moins de 10 candidats sur un intervalle de plus de 1 A, avec le reste des candidats se r ˚ epartissant de part et d’autre ´ de cet intervalle. Ce manque de donnees est li ´ e´ a une barri ` ere ` energ ´ etique ´ elev ´ ee´ entre les conformations des presque-natifs et celles des leurres. Tout d’abord, la quasi-absence de candidats dans cet intervalle de IRMSD empeche ˆ d’affirmer que, pour ces complexes, il est possible d’affiner une structure proche du natif. Pour tous les autres complexes ou un entonnoir est d ` etect ´ e, nous pouvons ´ aisement confirmer que l’affinement de structure est possible. Mais pour ces com- ´ plexes, comme nous ne disposons pas des candidats dans cet intervalle de IRMSD, nous ne pouvons pas affirmer qu’il n’y aura pas dans cet intervalle un saut en energie ´ empechant la formation d’un entonnoir. D’ailleurs, il y a toutes les chances que des ˆ candidats gen´ er´ es dans cet intervalle de I ´ RMSD et qui ont et´ e rejet ´ es lors de la g ´ en´ eration ´ des candidats aient eu une energie ´ elev ´ ee, notamment due ´ a une tr ` es forte contribution ` du terme de score fa rep. Ensuite, il existe une barriere ` energ ´ etique plus importante pour ces trois complexes ´ que pour les autres entre les conformations des presque-natifs et celles des leurres. Cette barriere ` energ ´ etique est principalement due ´ a l’interp ` en´ etration trop importante ´ entre les deux partenaires, pour les candidats proches des presque-natifs gen´ er´ es. Il ´ s’agit d’ailleurs essentiellement de complexes pour lesquels l’agencement des partenaires en interaction clef-serrure est particulierement marqu ` ee (voir fig. 5.7). ´ Cette distribution est liee au protocole de g ´ en´ eration des candidats par perturbation ´ en corps rigides. Lorsque les molecules sont emboit ´ ees, il n’est pas possible d’obtenir ´ un continuum de structures proches et donc un saut apparaˆıt. La fonction de score obtenue pourrait donc avoir de mediocres performances lors de l’ ´ evaluation de ce type ´ d’interface par une approche semi-flexible. 925.3. Limites du protocole de gen´ eration des candidats ´ FIGURE 5.7 – Structure 3D d’une interaction de type clef-serrure. On peut voir que la proteine (en bleu) et l’ARN (en orange) s’embo ´ ˆıtent comme le feraient une clef et une serrure. 93Chapitre 5. Discussion biologique 94Chapitre 6 Conclusion et perspectives 6.1 Integration de connaissances ´ a priori de contextes proches L’amarrage proteine-prot ´ eine nous a appris de nombreuses connaissances tou- ´ jours valables en amarrage proteine-ARN : g ´ en´ eration de donn ´ ees ´ a partir d’un jeu de ` donnees de r ´ ef ´ erence, termes de score physico-chimiques, contraintes appliqu ´ ees sur ´ les intervalles de valeurs des poids a apprendre, ` etc. Tout d’abord, nous avons montre´ que les termes de score physico-chimiques, qui ont fait leur preuve en amarrage proteine-prot ´ eine, permettent de capturer des informations d ´ ecisives dans la pr ´ ediction ´ des interactions proteine-ARN. Nous avons montr ´ e comment l’apprentissage d’une ´ fonction de score formee d’une combinaison lin ´ eaire des param ´ etres physico-chimiques ` et apprise grace ˆ a des donn ` ees de r ´ ef´ erence nettoy ´ ees permet d’atteindre l’objectif ´ fixe. Cet objectif est d ´ efini d’apr ´ es les attentes de la communaut ` e internationale de ´ l’amarrage de macromolecules biologiques, ´ a savoir pr ` edire correctement au moins ´ une structure candidate parmi les 10 meilleures proposees pour chaque interaction. ´ Nous avons pu atteindre cet objectif pour 117 des 120 complexes utilises pour l’ap- ´ prentissage de la fonction de score atomique avec ROGER. De plus, pour plus de 90 % des complexes, cette fonction de score montre des capacites´ a affiner une structure ` candidate suffisamment proche de la solution, meme ˆ a 8 ` A en I ˚ RMSD de la solution. Nous avons aussi montre que cet objectif n’aurait pas ´ et´ e atteint sans l’aide de con- ´ traintes appliquees sur les intervalles de valeurs des poids ´ a apprendre pour la fonction ` de score. Mais il reste des interactions proteine-ARN pour lesquelles les termes de ´ score physico-chimiques sont encore inefficaces, notamment pour ce qui est d’affiner une structure candidate. D’autre part, l’utilisation de ce protocole atomique necessite ´ d’avoir une idee de l’ ´ epitope pour ne pas avoir ´ a g ` en´ erer des millions de candidats. ´ Nous avons egalement ´ evalu ´ e l’utilisation de donn ´ ees telles que des informations ´ supplementaires sur le type d’ARN de chacun des complexes prot ´ eine-ARN dont l’in- ´ teraction est a pr ` edire. Nous avons propos ´ e l’apprentissage d’une fonction de score ´ dedi ´ ee´ a chaque cat ` egorie d’ARN parmi trois (ARN simple brin, ARN double brin et ´ ARN de tranfert). Les trois fonctions de score gen´ er´ ees ne montrent cependant pas ´ d’amelioration des performances. Il reste encore ´ a tester l’utilisation d’informations ` 95Chapitre 6. Conclusion et perspectives supplementaires sur les cat ´ egories de prot ´ eines. ´ 6.2 Extraction des donnees et complexit ´ es des mod ´ eles ` La modelisation de fonctions de score plus complexes qu’une combinaison lin ´ eaire ´ des termes de score physico-chimiques n’a pas permis d’obtenir davantage d’informations sur la prediction d’interactions prot ´ eine-ARN. De nombreux mod ´ eles classiques ` ont et ´ e´ etudi ´ es et il est probable qu’une ´ etude plus approfondie soit n ´ ecessaire pour ´ tirer davantage parti des informations obtenues grace aux termes de score physico- ˆ chimiques : apprentissage d’un modele bas ` e uniquement sur un sous-ensemble des ´ parametres, apprentissage d’une variable estim ` ee comme l’I ´ RMSD plutot qu’une clas- ˆ sification binaire, etc. Des modeles non lin ` eaires tels que des fonctions de score ´ avec valeurs de centrage ou l’utilisation de metaclassifieurs n’a pas non plus ap- ´ porte de gain de performance. Cependant, il reste possible que les termes de score ´ physico-chimiques aient dej ´ a fourni tout ce qu’on peut en extraire sur l’interaction. ` Pour ameliorer la pr ´ ediction, il faudrait alors repenser la mod ´ elisation de certains des ´ termes de score physico-chimiques en fonction des differents facteurs d’interaction, ´ pour les adapter aux interactions proteine-ARN. Il n’y a par exemple aucune certi- ´ tude quant au fait que les criteres de d ` ecision soient les m ´ emes pour les interactions ˆ proteine-prot ´ eine et prot ´ eine-ARN entre absence d’interaction (quand les partenaires ´ sont trop eloign ´ es), pr ´ esence d’interaction (quand les partenaires sont juste ´ a port ` ee) ´ et interpen´ etration (quand les partenaires sont trop proches l’un de l’autre). L’une des ´ ameliorations des termes de score physico-chimiques pourrait donc consister ´ a recali- ` brer les parametres propres ` a la d ` efinition de l’interaction et de l’interp ´ en´ etration pour ´ les interactions proteine-ARN. ´ Il est cependant concevable d’utiliser des fonctions de score a posteriori sur un ensemble plus restreint de candidats, notamment le top10 ou le top100 des candidats du protocole atomique. En ne triant que les meilleurs candidats, il devient possible pour les fonctions de score a posteriori de se focaliser sur la discrimination des presquenatifs au sein des candidats les plus proches d’une interaction biologique. On pourrait par exemple attendre des fonctions de score a posteriori qu’elles assurent que les presque-natifs du top10 d’un complexe aient plus de chances de se trouver parmi les premiers candidats du top10. Il serait aussi envisageable d’explorer l’hypothese ` selon laquelle ces ces fonctions de score tenteraient de retrouver les presque-natifs du top100 et absents du top10 pour les ramener dans le top10. L’etude ´ a posteriori, en n’ameliorant pas la pr ´ ediction apport ´ ee par la combinai- ´ son lineaire, nous montre l’importance d’une m ´ ethode d’apprentissage adapt ´ ee´ a la ` problematique pos ´ ee. De plus, nous avons d ´ efini comme objectif pour l’apprentis- ´ sage par ROGER la maximisation de l’aire sous la courbe ROC. Or, notre objectif veritable n’est pas de maximiser l’aire sous la courbe ROC, mais de maximiser le ´ nombre de presque-natifs dans les 10 premiers candidats du tri. Et pourtant, malgre´ cette difference entre l’objectif appris et l’objectif v ´ eritable ´ a atteindre, cet objectif ` veritable est rempli. En effet, ne pas utiliser l’objectif r ´ eel comme objectif appris est ´ un choix permettant de verifier si l’apprentissage a su retrouver les informations es- ´ 966.3. Predictions multi- ´ echelle ´ sentielles pour caracteriser les interactions. Plus que cela, les candidats de l’appren- ´ tissage etaient seulement ´ etiquet ´ es presque-natifs et leurres, ramenant l’information ´ numerique prodigu ´ ee par le I ´ RMSD a une valeur binaire. Rien n’attestait qu’un appren- ` tissage reussi permettrait d’obtenir une fonction quasi-croissante du score en fonction ´ du IRMSD. Ceci montre bien que le modele de fonction de score form ` e d’une com- ´ binaison lineaire des param ´ etres physico-chimiques a v ` eritablement pu retrouver les ´ informations determinantes pour pr ´ edire l’interaction prot ´ eine-ARN. ´ Nous avons vu par ailleurs que l’apprentissage de fonctions de score a posteriori a confirme l’importance de certains termes de score dans la description des interac- ´ tions proteine-ARN et en a r ´ ev´ el ´ e de nouveaux. En comparaison avec les interactions ´ proteine-prot ´ eine, le facteur le plus important est sans doute le terme de score des ´ forces electrostatiques. Avec une telle importance de ce facteur, une mod ´ elisation plus ´ fine des interactions electrostatiques devrait permettre de mieux mod ´ eliser l’interac- ´ tion. 6.3 Predictions multi- ´ echelle ´ Nous avons pu montrer qu’une adaptation judicieuse des recentes m ´ ethodes d’a- ´ marrage proteine-prot ´ eine permet de correctement pr ´ edire les interactions prot ´ eine- ´ ARN. La mise a contribution de termes de score g ` eom ´ etriques montre que d’autres ´ voies que celles sugger´ ees par les connaissances issues des scores physico-chimiques ´ peuvent mener a la pr ` ediction des interactions prot ´ eine-ARN. Cette vision de l’interac- ´ tion permet notamment de s’abstraire des seuils de distance utilises pour d ´ efinir si deux ´ atomes sont en interaction. Nous avons aussi pu voir que c’est une modelisation qui ´ prend mieux en compte, directement dans la representation g ´ eom ´ etrique, la flexibilit ´ e´ de l’ARN, plus accentuee que celle des prot ´ eines. ´ L’apprentissage de la fonction de score gros-grain a necessit ´ e, pour am ´ eliorer ´ les performances, de ne pas contraindre l’intervalle de valeurs des poids a appren- ` dre. Simplement contraindre l’apprentissage a l’intervalle de valeurs positif a en effet ` montre des performances d ´ egrad ´ ees. Cependant, apr ´ es une analyse d ` etaill ´ ee des ´ valeurs des parametres sur les structures natives, il peut para ` ˆıtre opportun d’imposer des intervalles de valeurs differents pour chacun des poids, en fonction de leur nature. ´ Exactement comme pour les termes de score physico-chimiques, qui ont des valeurs negatives lorsqu’elles favorisent l’interaction et positives lorsqu’elles la p ´ enalisent, ´ nous pourrions donner un poids negatif aux termes de score privil ´ egiant l’interaction et ´ positif aux termes de score la defavorisant. Cette modification du mod ´ ele de fonction ` de score gros-grain VOR pourrait certainement donner lieu a une am ` elioration de ses ´ performances. La modelisation et l’ ´ evaluation du protocole gros-grain nous a permis de mettre ´ en lumiere des connaissances nouvelles sur les interactions prot ` eine-ARN. Contraire- ´ ment aux interactions proteine-prot ´ eine, qui favorisent les acides amin ´ es hydrophobes ´ a l’interaction, ce sont les acides amin ` es hydrophiles qui sont pr ´ ef´ erentiellement en ´ interaction avec les acides amines. Nous avons aussi pu voir que, des quatre acides ´ nucleiques, c’est l’uracile qui est majoritairement pr ´ esent ´ a l’interaction. Le volume ` 97Chapitre 6. Conclusion et perspectives median des cellules de Vorono ´ ¨ı des acides amines et nucl ´ eiques a aussi permis de ´ retrouver un ordonnancement des acides amines, d’une part, et des acides nucl ´ eiques, ´ d’autre part, en fonction de leur taille (leur encombrement sterique). Les param ´ etres ` associes au volume m ´ edian permettent de mesurer l’empilement st ´ erique. ´ Nous avons enfin pu voir que l’apprentissage multi-echelle repose essentiellement ´ sur le changement de point de vue sur l’objet a apprendre et sur le changement ` d’objectif. Du point de vue de l’apprentissage, changer de point de vue correspond a changer les attributs utilis ` es, ici des termes de score. S’aider d’attributs de natures ´ differentes pour la pr ´ ediction – ici physico-chimiques et g ´ eom ´ etriques – permet de cap- ´ turer des informations sinon difficilement accessibles, potentiellement plus adaptees ´ au probleme pos ` e pour chacune des ´ echelles. Changer d’objectif pourrait revenir ´ a` changer la fonction objectif de l’apprentissage, qui a et´ e l’aire sour la courbe ROC ´ chaque fois que nous avons appris une fonction de score a l’aide de R ` OGER. Se pose alors la question de savoir si changer la fonction objectif utilisee pour l’apprentissage ´ permettrait d’ameliorer les performances de la fonction de score gros-grain. En effet, il ´ suffit qu’un seul presque-natif soit de rang le plus petit pour que la fonction de score gros-grain . Toutefois, il reste encore des voies a explorer. Le protocole propos ` e et ´ evalu ´ e dans ´ ce manuscrit est decompos ´ e en deux ´ etapes : amarrage gros-grain, puis amarrage ´ atomique. Il est toujours possible d’etudier des protocoles plus sophistiqu ´ es d’amar- ´ rage, qui permettront de traquer des epitopes potentiels, ´ a une ` echelle gros-grain, de ´ les explorer a une ` echelle atomique et de revenir ´ a l’ ` echelle gros-grain si les candidats ´ gen´ er´ es ne sont pas satisfaisants. Cet aller-retour entre amarrage gros-grain et amar- ´ rage atomique tire parti des deux perspectives et necessite d’ ´ etudier le meilleur moyen ´ de les faire communiquer dans trois buts : – minimiser le nombre d’amarrages atomiques explores ; ´ – maximiser les chances de reperer l’ ´ epitope ; ´ – maximiser les chances de trouver un presque-natif une fois l’epitope rep ´ er´ e.´ Si l’on parametre les amarrages gros-grain et atomiques pour qu’ils prennent cha- ` cun approximativement le meme temps d’ex ˆ ecution, chaque erreur de l’amarrage ´ gros-grain conduisant a un amarrage atomique inutile augmente consid ` erablement ´ les temps de calcul necessaires avant de trouver la solution. D’un autre c ´ otˆ e, si l’amar- ´ rage gros-grain ou l’amarrage atomique manquent l’interaction a son ` echelle, c’est tout ´ le protocole d’amarrage qui est compromis. Un tel protocole pourrait ben´ eficier d’une ´ fonction de score permettant de definir s’il y a ou non interaction. Jusqu’ ´ a maintenant, ` les fonctions de score definies ici se contentent de trier les candidats et de proposer les ´ meilleurs d’entre eux pour representer l’interaction, m ´ eme si l’ensemble des candidats ˆ utilises dans le tri sont des leurres ´ evidents. Or, pour juger que les candidats propos ´ es´ par un amarrage atomique sont insatisfaisants et ainsi remettre en cause une solution proposee par l’amarrage gros-grain, il est n ´ ecessaire de pouvoir rejeter un candidat ´ juge trop ´ eloign ´ e de ce que devrait ´ etre une interaction prot ˆ eine-ARN. Cela fait appel ´ a` une notion de seuil allant au-dela de l’approche par tri adopt ` ee dans ce manuscrit. La ´ fonction de tri, associee au seuil du top10 des candidats, ne fait que s ´ electionner 10 ´ candidats parmi les 10 000 gen´ er´ es et les propose dans un certain ordre. Cette fonc- ´ tion de tri n’a actuellement aucun moyen de reperer que l’un des candidats propos ´ es´ 986.3. Predictions multi- ´ echelle ´ ne devrait pas faire partie de la liste de 10 candidats. C’est donc une autre approche a mettre en œuvre, pouvant par exemple ` evaluer le nombre de leurres en queue de ´ distribution d’un tri pour s’assurer de pouvoir rejeter les candidats etant des leurres. ´ Mais ce n’est pas suffisant. Pour obtenir un seuil fixe et universel pour l’ensemble des complexes proteine-ARN, il faudrait mod ´ eliser une fonction de score dont l’amplitude ´ du score ne depend pas de la taille du complexe (en nombre d’atomes). En effet, le ´ score obtenu avec les fonctions de score present ´ ees dans ce manuscrit, utilis ´ ees dans ´ RosettaDock et dans plusieurs autres algorithmes d’amarrage, est calcule en faisant ´ une somme sur l’ensemble des atomes ou acides amines et nucl ´ eiques. Un complexe ´ de tres petite taille aura donc de grandes chances d’avoir un score de faible amplitude ` alors qu’un complexe de grande taille aura de grandes chances d’avoir un score de forte amplitude. Avec de tels ecarts entre les scores, il est impossible de fixer un seuil ´ pour l’ensemble des complexes proteine-ARN qui permette de d ´ eterminer ´ a partir de ` quand un candidat dote de ce score est n ´ ecessairement un presque-natif ou un leurre. ´ Il est donc necessaire, pour traiter du probl ´ eme de variabilit ` e du seuil, de traiter du ´ probleme de la variabilit ` e de taille des objets ´ etudi ´ es et de son impact sur le score. La ´ fonction de score gros-grain resoud en partie ce probl ´ eme, en proposant quatre types ` de parametres ind ` ependants de la taille du complexe (proportions et volumes m ´ edians ´ des acides amines et nucl ´ eiques ´ a l’interface, proportions et distances m ` edianes des ´ paires d’acides amines et nucl ´ eiques ´ a l’interface) et deux types de param ` etres qui en ` dependent (nombre d’acides amin ´ es et nucl ´ eiques ´ a l’interface). Pour cette fonction de ` score, il serait possible de se soustraire totalement de la taille du complexe en modifiant ces deux derniers types de parametres en mesurant par exemple ` a la place le ` pourcentage d’acides amines et nucl ´ eiques ´ a l’interface et la surface m ` ediane d’une ´ facette de l’interface. Il est aussi envisageable d’etudier, en fonction de la taille des ´ complexes proteine-ARN, l’ ´ evolution du nombre d’acides amin ´ es et nucl ´ eiques ´ a l’in- ` terface, pour se faire une idee de leur courbe d’ ´ evolution l’un par rapport ´ a l’autre. Cette ` courbe n’est pas necessairement lin ´ eaire et pourrait conduire ´ a dresser des cat ` egories ´ de complexes en fonction de leur taille. Plus qu’un protocole multi-echelle de pr ´ ediction d’interactions prot ´ eine-ARN, c’est ´ une approche que nous avons conc¸ue de sorte qu’elle est adaptable : d’autres protocoles d’amarrage peuvent voir le jour en adaptant cette approche a d’autres algo- ` rithmes de gen´ eration de candidats et d’autres termes de score. Et plus g ´ en´ eralement, ´ la mise au point d’une methodologie telle que le ´ leave-”one-pdb”-out peut parfaitement etre r ˆ eutilis ´ ee dans d’autes contextes informatiques. Le cadre le plus adapt ´ e au ´ leave-”one-pdb”-out est certainement la faible quantite d’instances positives connues, ´ couteuses ou rares ˆ a obtenir, pour lesquelles on souhaite apprendre, ` etant donn ´ e un ´ ensemble de parametres connus sur ces instances positives, ` a les retrouver. Il peut ` s’agir d’apprendre a les mod ` eliser pour les reproduire (commande souhait ´ ee accom- ´ plie pour la manipulation d’une interface neuronale) ou pour les eviter (accident en ´ vol pour un avion ou un drone). Cette methodologie n ´ ecessite une mani ´ ere, ` a partir ` de ces instances positives, de gen´ erer des exemples proches de ces instances pos- ´ itives et des exemples plus eloign ´ es. Elle implique aussi de disposer d’une mesure ´ de distance ou tout au moins de divergeance entre les exemples et l’instance positive dont ils sont issus. Il reste ensuite a apprendre la donn ` ee recherch ´ ee en fonction des ´ 99Chapitre 6. Conclusion et perspectives parametres connus, en veillant ` a chaque fois ` a garder pour l’ ` evaluation les exemples ´ issus d’une meme instance positive. ˆ Au-dela des protocoles d’amarrage se pose la question du filtrage collaboratif. ` Jusqu’ici, nous n’avons emis l’hypoth ´ ese d’un filtrage collaboratif que pour les ter- ` mes de score physico-chimiques et les scores issus des predictions des mod ´ eles ` a posteriori. Cependant, nous pouvons toujours etudier les filtrages collaboratifs dans le ´ cadre de l’echelle gros-grain, potentiellement en conjonction avec les termes de score ´ physico-chimiques de l’echelle gros-grain. ´ Nous avions envisage dans la section pr ´ ec´ edente une autre fac¸on de traiter l’ ´ etude ´ a posteriori, en lui donnant un but different de la pr ´ ediction par combinaison lin ´ eaire. ´ Puisqu’il s’agit d’un tri a posteriori, le tri par combinaison lineaire est d ´ ej ´ a effectu ` e´ lorsque le tri a posteriori est applique. Dans ce cas de figure, il est tout ´ a fait possible ` de n’appliquer le tri a posteriori que sur un sous-ensemble dej ´ a tri ` e des pr ´ edictions. ´ Comme le tri par combinaison lineaire remplit les objectifs fix ´ es pour presque tous les ´ complexes, il est pensable de durcir les objectifs en integrant le tri ´ a posteriori pour ne trier que les 10 ou 100 premiers candidats. De la sorte, le tri a posteriori ne traite que des candidats dej ´ a jug ` es satisfaisants et pourrait ´ etre en mesure de donner au moins ˆ un presque-natif dans les trois, quatre ou cinq premiers candidats. Si un tel objectif peut etre atteint, cela signifie qu’il est possible, toujours en proposant 10 candidats ˆ potentiels de l’interaction, de choisir des candidats representant le mieux l’interaction ´ telle qu’elle est vue par differents amarrages atomiques. Chacun de ces amarrages ´ atomiques serait initie par un candidat gros-grain diff ´ erent et ferait l’hypoth ´ ese d’un ` epitope distinct. ´ L’amarrage gros-grain tel qu’il est modelis ´ e dans ce manuscrit met en œuvre 210 ´ parametres dans sa fonction de score. De plus, 104 de ces param ` etres ont, pour la ` plupart des candidats, une valeur non attribuee et remplac ´ ee par la valeur m ´ ediane du ´ parametre sur l’ensemble des structures natives. Le premier facteur ` a l’origine de ces ` deux constatations est que nous differencions les vingt types d’acides amin ´ es et les ´ quatre types d’acides nucleiques. En effet, 208 des param ´ etres sont d ` efinis par le nom- ´ bre de types d’acides amines et d’acides nucl ´ eiques pris en compte : le nombre de cer- ´ tains de ces parametres est issu d’une addition du nombre de types d’acides amin ` es´ et du nombre de types d’acides nucleiques ; pour d’autres de ces param ´ etres, il s’agit ` d’une multiplication. Or, nous avons vu que des resultats satisfaisants en amarrage ´ proteine-prot ´ eine ont ´ et ´ e observ ´ es en regroupant les acides amin ´ es en six cat ´ egories ´ [15]. Une maniere de diminuer la complexit ` e du mod ´ ele serait donc de reprendre ces ` six categories, ramenant d’une part le nombre de param ´ etres ` a 64 et diminuant d’autre ` part le nombre de valeurs non attribuees pour chaque candidat. Confronter ce mod ´ ele` au modele` a vingt types d’acides amin ` es permettrait de savoir, dans le cas o ´ u certaines ` informations echappent au mod ´ ele` a six cat ` egories d’acides amin ´ es, si les cat ´ egories ´ d’acides amines d ´ efinies pour l’amarrage prot ´ eine-prot ´ eine peuvent ´ etre remani ˆ ees ´ pour l’amarrage proteine-ARN. Il a toutefois fallu d ´ ej ´ a disposer du protocole tel que ` nous l’avons defini jusqu’ ´ a maintenant pour pouvoir confronter ce nouveau mod ` ele de ` fonction de score a celui que nous avons ` evalu ´ e.´ Les differentes approches ´ evalu ´ ees ont donc montr ´ e que, rien qu’ ´ a partir de la ` structure 3D de chacun des deux partenaires d’un complexe et sans aucune autre 1006.3. Predictions multi- ´ echelle ´ forme de donnees, il est possible de retrouver l’interaction de ces deux partenaires. Il ´ faudra certes encore prendre en compte la flexibilite des partenaires pour v ´ eritablement ´ passer de la structure 3D de partenaires non lies – dont la structure est d ´ etermin ´ ee´ en dehors de toute interaction – a la pr ` ediction de leur interaction. Mais la rapidit ´ e´ de calculs permet desormais de se pencher sur la question de l’amarrage haut d ´ ebit. ´ La prise en compte de la flexibilite et l’accession ´ a l’amarrage haut-d ` ebit constituent ´ certainement la suite logique de ces travaux. La prediction d’interactions prot ´ eine-ARN est un domaine en plein essor, pour ´ lequel de plus en plus de defis sont relev ´ es. Cela a commenc ´ e par la pr ´ ediction d’inter- ´ actions de petites molecules, puis de mol ´ ecules de plus grandes tailles. La pr ´ ediction ´ d’interactions dans le cas ou la prot ` eine est non li ´ ee est en passe d’ ´ etre r ˆ esolue. ´ Nous devrions voir bientot des travaux traitant de la flexibilit ˆ e de l’ARN sur le point de ´ resoudre les interactions avec les deux partenaires non li ´ es. Mais ceci n ´ ecessitera pour ´ les petits ARN de savoir reconstruire l’ARN a la vol ` ee, en prenant en compte la prox- ´ imite de la prot ´ eine. Plus g ´ en´ eralement dans le domaine des interactions de macro- ´ molecules biologiques, C ´ APRI a recemment montr ´ e sa volont ´ e d’ ´ evaluer la pr ´ ediction ´ de caracteristiques sp ´ ecifiques de l’interaction, telles que la position des mol ´ ecules de ´ solvant ou l’affinite de l’interaction [68]. Avec des fonctions de score mieux adapt ´ ees ´ a l’estimation de la valeur d’une ` energie ou de l’affinit ´ e d’une interaction, il devien- ´ dra possible de passer le cap de la classification binaire. Mais de tels defis n ´ ecessitent ´ des donnees biologiques rarement disponibles en grandes quantit ´ es, et m ´ eme souvent ˆ disponibles en bien moindres quantites que les structures 3D des interactions. Il fau- ´ dra encore quelques annees avant que l’on puisse utiliser des m ´ ethodes bas ´ ees sur la ´ connaissance pour predire l’affinit ´ e de l’interaction, et encore plus pour les complexes ´ proteine-ARN. ´ 101Chapitre 6. Conclusion et perspectives 102Bibliographie [1] L. Adamian, R. Jackups, Jr, T. A. Binkowski, and J. Liang. Higher-order interhelical spatial interactions in membrane proteins. J Mol Biol, 327(1) :251–72, 2003. [2] D. W. Aha, D. Kibler, and M. K. Albert. Instance-based learning algorithms. In Machine Learning, pages 37–66, 1991. [3] B. Angelov, J. F. Sadoc, R. Jullien, A. Soyer, J. P. Mornon, and J. Chomilier. Nonatomic solvent-driven Voronoi tessellation of proteins : an open tool to analyze protein folds. Proteins, 49(4) :446–56, 2002. [4] J. C. Austin, K. R. Rodgers, and T. G. Spiro. Protein structure from ultraviolet resonance Raman spectroscopy. Methods Enzymol, 226 :374–96, 1993. [5] G. S. Ayton, W. G. Noid, and G. A. Voth. Multiscale modeling of biomolecular systems : in serial and in parallel. Curr Opin Struct Biol, 17(2) :192–198, Apr 2007. [6] J. Aze, T. Bourquard, S. Hamel, A. Poupon, and D. Ritchie. ´ Using Kendall-tau Meta-Bagging to Improve Protein-Protein Docking Predictions, volume 7036 of Lecture Notes in Computer Science, chapter 25, pages 284–295. Springer Berlin Heidelberg, 2011. [7] R. P. Bahadur, P. Chakrabarti, F. Rodier, and J. Janin. A dissection of specific and non-specific protein-protein interfaces. J Mol Biol, 336(4) :943–55, 2004. [8] D. Bakowies and W. F. Van Gunsteren. Water in protein cavities : a procedure to identify internal water and exchange pathways and application to fatty acidbinding protein. Proteins, 47(4) :534–45, 2002. [9] A. Barik, N. C., and R. P. Bahadur. A protein-RNA docking benchmark (I) : nonredundant cases. Proteins, 80(7) :1866–1871, Jul 2012. [10] E. Ben-Zeev, A. Berchanski, A. Heifetz, B. Shapira, and M. Eisenstein. Prediction of the unknown : inspiring experience with the CAPRI experiment. Proteins, 52(1) :41–6, 2003. [11] E. Ben-Zeev and M. Eisenstein. Weighted geometric docking : incorporating external information in the rotation-translation scan. Proteins, 52(1) :24–7, 2003. [12] A. Berchanski, D. Segal, and M. Eisenstein. Modeling oligomers with Cn or Dn symmetry : application to CAPRI target 10. Proteins, 60(2) :202–6, 2005. 103Bibliographie [13] H. M. Berman, T. N. Bhat, P. E. Bourne, Z. Feng, G. Gilliland, H. Weissig, and J. Westbrook. The Protein Data Bank and the challenge of structural genomics. Nat Struct Biol, 7 Suppl :957–9, 2000. [14] H. M. Berman, J. Westbrook, Z. Feng, G. Gilliland, T. N. Bhat, H. Weissig, I. N. Shindyalov, and P. E. Bourne. The Protein Data Bank. Nucleic Acids Research, 28 :235–242, 2000. [15] J. Bernauer, J. Aze, J. Janin, and A. Poupon. A new protein-protein docking scor- ´ ing function based on interface residue properties. Bioinformatics, 23(5) :555– 562, Mar 2007. [16] J. Bernauer, R. P. Bahadur, F. Rodier, J. Janin, and A. Poupon. DiMoVo : a Voronoi tessellation-based method for discriminating crystallographic and biological protein-protein interactions. Bioinformatics, 24(5) :652–658, Mar 2008. [17] J. Bernauer, X. Huang, A. Y. Sim, and M. Levitt. Fully differentiable coarsegrained and all-atom knowledge-based potentials for RNA structure evaluation. RNA, 17(6) :1066–75, 2011. [18] J. Bernauer, A. Poupon, J. Aze, and J. Janin. A docking analysis of the statistical ´ physics of protein-protein recognition. Phys Biol, 2(2) :S17–23, 2005. [19] T. A. Binkowski, L. Adamian, and J. Liang. Inferring functional relationships of proteins from local sequence and spatial surface patterns. J Mol Biol, 332(2) :505–26, 2003. [20] D. M. Blow, C. S. Wright, D. Kukla, A. Ruhlmann, W. Steigemann, and R. Huber. A model for the association of bovine pancreatic trypsin inhibitor with chymotrypsin and trypsin. J Mol Biol, 69(1) :137–44, 1972. [21] A. Bondi. Van der Waals volumes and radii. The Journal of physical chemistry, 68(3) :441–451, 1964. [22] A. J. Bordner and A. A. Gorin. Protein docking using surface matching and supervised machine learning. Proteins, 68(2) :488–502, 2007. [23] D. Bostick and I. I. Vaisman. A new topological method to measure protein structure similarity. Biochem Biophys Res Commun, 304(2) :320–5, 2003. [24] L. G. Boulu, G. M. Crippen, H. A. Barton, H. Kwon, and M. A. Marletta. Voronoi binding site model of a polycyclic aromatic hydrocarbon binding protein. J Med Chem, 33(2) :771–5, 1990. [25] P. E. Bourne. CASP and CAFASP experiments and their findings. Methods Biochem Anal, 44 :501–7, 2003. [26] T. Bourquard, J. Bernauer, J. Aze, and A. Poupon. Comparing voronoi and laguerre tessellations in the protein-protein docking context. In Voronoi Diagrams, 2009. ISVD ’09. Sixth International Symposium on, pages 225–232, 2009. [27] T. Bourquard, J. Bernauer, J. Aze, and A. Poupon. A collaborative filtering ap- ´ proach for protein-protein docking scoring functions. PLoS One, 6(4) :e18541, 2011. 104[28] M. P. Bradley and G. M. Crippen. Voronoi modeling : the binding of triazines and pyrimidines to L. casei dihydrofolate reductase. J Med Chem, 36(21) :3171–7, 1993. [29] P. Bradley, L. Malmstrom, B. Qian, J. Schonbrun, D. Chivian, D. E. Kim, J. Meiler, K. M. Misura, and D. Baker. Free modeling with Rosetta in CASP6. Proteins, 61 Suppl 7 :128–34, 2005. [30] L. Breiman. Random Forests. Eighteenth International Conference on Machine Learning, 45(1) :5–32, 2001. [31] N. Calimet, M. Schaefer, and T. Simonson. Protein molecular dynamics with the generalized Born/ACE solvent model. Proteins, 45(2) :144–58, 2001. [32] C. J. Camacho. Modeling side-chains using molecular dynamics improve recognition of binding region in CAPRI targets. Proteins, 60(2) :245–51, 2005. [33] A. A. Canutescu and R. L. Dunbrack. Cyclic coordinate descent : a robotics algorithm for protein loop closure. Protein science, 12(5) :963–972, 2003. [34] C. W. Carter, Jr, B. C. LeFebvre, S. A. Cammer, A. Tropsha, and M. H. Edgell. Four-body potentials reveal protein-specific correlations to stability changes caused by hydrophobic core mutations. J Mol Biol, 311(4) :625–38, 2001. [35] P. Carter, V. I. Lesk, S. A. Islam, and M. J. Sternberg. Protein-protein docking using 3D-Dock in rounds 3, 4, and 5 of CAPRI. Proteins, 60(2) :281–8, 2005. [36] Project CGAL. CGAL, Computational Geometry Algorithms Library, 1990. [37] S. Chakravarty, A. Bhinge, and R. Varadarajan. A procedure for detection and quantitation of cavity volumes proteins. Application to measure the strength of the hydrophobic driving force in protein folding. J Biol Chem, 277(35) :31345– 53, 2002. [38] C.-C. Chang and C.-J. Lin. LIBSVM : a library for support vector machines (version 2.31), 2001. [39] R. Chen, L. Li, and Z. Weng. ZDOCK : an initial-stage protein-docking algorithm. Proteins, 52(1) :80–7, 2003. [40] R. Chen, W. Tong, J. Mintseris, L. Li, and Z. Weng. ZDOCK predictions for the CAPRI challenge. Proteins, 52(1) :68–73, 2003. [41] R. Chen and Z. Weng. Docking unbound proteins using shape complementarity, desolvation, and electrostatics. Proteins, 47(3) :281–94, 2002. [42] R. Chen and Z. Weng. A novel shape complementarity scoring function for protein-protein docking. Proteins, 51(3) :397–408, 2003. [43] Y. Chen, T. Kortemme, T. Robertson, D. Baker, and G. Varani. A new hydrogenbonding potential for the design of protein-RNA interactions predicts specific contacts and discriminates decoys. Nucleic Acids Res, 32(17) :5147–62, 2004. [44] Y. Chen and G. Varani. Protein families and RNA recognition. FEBS J, 272(9) :2088–97, 2005. 105Bibliographie [45] Y. Chen and G. Varani. Engineering RNA-binding proteins for biology. FEBS J, 280(16) :3734–54, 2013. [46] J. Cherfils, S. Duquerroy, and J. Janin. Protein-protein recognition analyzed by docking simulation. Proteins, 11(4) :271–80, 1991. [47] C. Chothia and M. Gerstein. Protein evolution. How far can sequences diverge ? Nature, 385(6617) :579, 581, 1997. [48] C. Chothia and J. Janin. Principles of protein-protein recognition. Nature, 256(5520) :705–8, 1975. [49] A. Clery, M. Blatter, and F. H. Allain. RNA recognition motifs : boring ? Not quite. Curr Opin Struct Biol, 18(3) :290–8, 2008. [50] W. W. Cohen. Fast Effective Rule Induction. In Proceedings of the Twelfth International Conference on Machine Learning, pages 115–123. Morgan Kaufmann, 1995. [51] N. Colloc’h, C. Etchebest, E. Thoreau, B. Henrissat, and J.P. Mornon. Comparison of three algorithms for the assignment of secondary structure in proteins : the advantages of a consensus assignment. Protein Eng, 6(4) :377–82, 1993. [52] S. R. Comeau and C. J. Camacho. Predicting oligomeric assemblies : N-mers a primer. J Struct Biol, 150(3) :233–44, 2005. [53] S. R. Comeau, S. Vajda, and C. J. Camacho. Performance of the first protein docking server ClusPro in CAPRI rounds 3-5. Proteins, 60(2) :239–44, 2005. [54] M. L. Connolly. Analytical molecular surface calculation. Journal of Applied Crystallography, 16(5) :548–558, 1983. [55] M. L. Connolly. Solvent-accessible surfaces of proteins and nucleic acids. Science, 221(4612) :709–713, Aug 1983. [56] M. L. Connolly. Molecular surface triangulation. Journal of Applied Crystallography, 18(6) :499–505, 1985. [57] M. L. Connolly. Shape complementarity at the hemoglobin alpha 1 beta 1 subunit interface. Biopolymers, 25(7) :1229–47, 1986. [58] M. L. Connolly. Molecular interstitial skeleton. Computers & Chemistry, 15(1) :37–45, 1991. [59] L. L. Conte, C. Chothia, and J. Janin. The atomic structure of protein-protein recognition sites. J Mol Biol, 285(5) :2177–98, 1999. [60] T. A. Cooper, L. Wan, and G. Dreyfuss. RNA and disease. Cell, 136(4) :777–93, 2009. [61] A. Cornuiejols and L. Miclet. ´ Apprentissage Artificiel - Concepts et algorithmes. Cepadues, 2002. ´ [62] D. Cozzetto, A. Di Matteo, and A. Tramontano. Ten years of predictions... and counting. FEBS J, 272(4) :881–2, 2005. [63] G. M. Crippen. Voronoi binding site models. NIDA Res Monogr, 112 :7–20, 1991. 106[64] M. D. Daily, D. Masica, A. Sivasubramanian, S. Somarouthu, and J. J. Gray. CAPRI rounds 3-5 reveal promising successes and future challenges for RosettaDock. Proteins, 60(2) :181–6, 2005. [65] R. Das and D. Baker. Automated de novo prediction of native-like RNA tertiary structures. Proc Natl Acad Sci U S A, 104(37) :14664–9, 2007. [66] R. Das, J. Karanicolas, and D. Baker. Atomic accuracy in predicting and designing noncanonical RNA structure. Nat Methods, 7(4) :291–4, 2010. [67] S. J. de Vries, A. S. Melquiond, P. L. Kastritis, E. Karaca, A. Bordogna, M. van Dijk, J. P. Rodrigues, and A. M. Bonvin. Strengths and weaknesses of datadriven docking in critical assessment of prediction of interactions. Proteins, 78(15) :3242–9, 2010. [68] S. J. De Vries, A. D. J. van Dijk, M. Krzeminski, M. van Dijk, A. Thureau, V. Hsu, T. Wassenaar, and A. M. J. J. Bonvin. HADDOCK versus HADDOCK : new features and performance of HADDOCK2. 0 on the CAPRI targets. Proteins : structure, function, and bioinformatics, 69(4) :726–733, 2007. [69] C. Dominguez, R. Boelens, and A. M. Bonvin. HADDOCK : a protein-protein docking approach based on biochemical or biophysical information. J Am Chem Soc, 125(7) :1731–7, 2003. [70] R. L. Dunbrack, Jr and F. E. Cohen. Bayesian statistical analysis of protein sidechain rotamer preferences. Protein Sci, 6 :1661–1681, 1997. [71] F. Dupuis, J.F. Sadoc, R. Jullien, B. Angelov, and J.P. Mornon. Voro3D : 3D Voronoi tessellations applied to protein structures. Bioinformatics, 21(8) :1715– 6, 2005. [72] H. Edelsbrunner, M. Facello, and J. Liang. On the definition and the construction of pockets in macromolecules. Pac Symp Biocomput, pages 272–87, 1996. [73] H. Edelsbrunner, M. Facello, and J. Liang. On the definition and the construction of pockets in macromolecules. Discr Appl Math, 88 :83–102, 1998. [74] H. Edelsbrunner and P. Koehl. The weighted-volume derivative of a space-filling diagram. Proc Natl Acad Sci U S A, 100(5) :2203–8, 2003. [75] S. Eiler, A.-C. Dock-Bregeon, L. Moulinier, J.-C. Thierry, and D. Moras. Synthesis of aspartyl-tRNAAsp in Escherichia coli—a snapshot of the second step. The EMBO journal, 18(22) :6532–6541, 1999. [76] D. Eisenberg and A. D. McLachlan. Solvation energy in protein folding and binding. Nature, 319(6050) :199–203, 1986. [77] M. Eisenstein. Introducing a 4th dimension to protein-protein docking. Structure (Camb), 12(12) :2095–6, 2004. [78] J. J. Ellis, M. Broom, and S. Jones. Protein-RNA interactions : structural analysis and functional classes. Proteins, 66(4) :903–11, 2007. [79] J. Fernandez-Recio, R. Abagyan, and M. Totrov. Improving CAPRI predictions : ´ optimized desolvation for rigid-body docking. Proteins, 60(2) :308–13, 2005. 107Bibliographie [80] C. Ferri, P. Flach, and J. Hernandez-Orallo. Learning decision trees using the ´ area under the ROC curve. Machine Learning-International Workshop Then Conference-, pages 139–146, 2002. [81] S. Fields and O. Song. A novel genetic system to detect protein-protein interactions. Nature, 340(6230) :245–6, 1989. [82] J. L. Finney. Volume occupation, environment and accessibility in proteins. The problem of the protein surface. J Mol Biol, 96(4) :721–32, 1975. [83] D. Fischer, S. L. Lin, H. L. Wolfson, and R. Nussinov. A geometry-based suite of molecular docking processes. J Mol Biol, 248(2) :459–77, 1995. [84] D. Fischer, R. Norel, H. Wolfson, and R. Nussinov. Surface motifs by a computer vision technique : searches, detection, and implications for protein-ligand recognition. Proteins, 16(3) :278–92, 1993. [85] S. C. Flores, J. Bernauer, S. Shin, R. Zhou, and X. Huang. Multiscale modeling of macromolecular biosystems. Brief Bioinform, 13(4) :395–405, 2012. [86] E. Frank and I. H. Witten. Generating accurate rule sets without global optimization. Fifteenth International Conference on Machine Learning, 45(1) :144–151, 1998. [87] D. Frishman and P. Argos. The future of protein secondary structure prediction accuracy. Fold Des, 2(3) :159–62, 1997. [88] J. J. Fritz, A. Lewin, W. Hauswirth, A. Agarwal, M. Grant, and L. Shaw. Development of hammerhead ribozymes to modulate endogenous gene expression for functional studies. Methods, 28(2) :276–285, Oct 2002. [89] J. Furnkranz and Flach. An analysis of rule evaluation metrics. ¨ Proceedings of the Twentieth International Conference on Machine Learning (ICML-2003), Jan 2003. [90] H. H. Gan, A. Tropsha, and T. Schlick. Lattice protein folding with two and fourbody statistical potentials. Proteins, 43(2) :161–74, 2001. [91] E. J. Gardiner, P. Willett, and P. J. Artymiuk. GAPDOCK : a Genetic Algorithm Approach to Protein Docking in CAPRI round 1. Proteins, 52(1) :10–4, 2003. [92] A. C. Gavin, M. Bosche, R. Krause, P. Grandi, M. Marzioch, A. Bauer, J. Schultz, J. M. Rick, A. M. Michon, C. M. Cruciat, M. Remor, C. Hofert, M. Schelder, M. Brajenovic, H. Ruffner, A. Merino, K. Klein, M. Hudak, D. Dickson, T. Rudi, V. Gnau, A. Bauch, S. Bastuck, B. Huhse, C. Leutwein, M. A. Heurtier, R. R. Copley, A. Edelmann, E. Querfurth, V. Rybin, G. Drewes, M. Raida, T. Bouwmeester, P. Bork, B. Seraphin, B. Kuster, G. Neubauer, and G. Superti-Furga. Functional organization of the yeast proteome by systematic analysis of protein complexes. Nature, 415(6868) :141–7, 2002. [93] B. J. Gellatly and J. L. Finney. Calculation of protein volumes : an alternative to the Voronoi procedure. J Mol Biol, 161(2) :305–22, 1982. [94] M. Gerstein and C. Chothia. Packing at the protein-water interface. Proc Natl Acad Sci U S A, 93(19) :10167–72, 1996. 108[95] M. Gerstein, J. Tsai, and M. Levitt. The volume of atoms on the protein surface : calculated from simulation, using Voronoi polyhedra. J Mol Biol, 249(5) :955–66, 1995. [96] A. Goede, R. Preissner, and C. Frommel. Voronoi cell : new method for allocation ¨ of space among atoms : elimination of avoidable errors in calculation of atomic volume and density. J Comp Chem, 18(9) :1113–1123, 1997. [97] S. C. B. Gopinath. Mapping of RNA-protein interactions. Anal Chim Acta, 636(2) :117–128, Mar 2009. [98] J. J. Gray, S. Moughon, C. Wang, O. Schueler-Furman, B. Kuhlman, C. A. Rohl, and D. Baker. Protein-protein docking with simultaneous optimization of rigidbody displacement and side-chain conformations. J Mol Biol, 331(1) :281–99, 2003. [99] J. J. Gray, S. Moughon, C. Wang, O. Schueler-Furman, B. Kuhlman, C. A. Rohl, and D. Baker. Protein-protein docking with simultaneous optimization of rigidbody displacement and side-chain conformations. J Mol Biol, 331(1) :281–99, 2003. [100] J. J. Gray, S. E. Moughon, T. Kortemme, O. Schueler-Furman, K. M. Misura, A. V. Morozov, and D. Baker. Protein-protein docking predictions for the CAPRI experiment. Proteins, 52(1) :118–22, 2003. [101] A. Guilhot-Gaudeffroy, J. Aze, J. Bernauer, and C. Froidevaux. Apprentissage ´ de fonctions de tri pour la prediction d’interactions prot ´ eine-ARN. In ´ Quatorzieme conf ` erence Francophone sur l’Extraction et la Gestion des Connais- ´ sances, pages 479–484, 2014. [102] D. M. Halaby and J. P. Mornon. The immunoglobulin superfamily : an insight on its tissular, species, and functional diversity. J Mol Evol, 46(4) :389–400, 1998. [103] M. Hall, E. Frank, G. Holmes, B. Pfahringer, P. Reutemann, and I. H. Witten. The WEKA data mining software : an update. SIGKDD Explorations, 11(1) :10–18, 2009. [104] I. Halperin, B. Ma, H. Wolfson, and R. Nussinov. Principles of docking : an overview of search algorithms and a guide to scoring functions. Proteins, 47(4) :409–43, 2002. [105] Wei Han, Cheuk-Kin Wan, Fan Jiang, and Yun-Dong Wu. Pace force field for protein simulations. 1. full parameterization of version 1 and verification. Journal of Chemical Theory and Computation, 6(11) :3373–3389, 2010. [106] Wei Han, Cheuk-Kin Wan, and Yun-Dong Wu. Pace force field for protein simulations. 2. folding simulations of peptides. Journal of Chemical Theory and Computation, 6(11) :3390–3402, 2010. [107] Y. Harpaz, M. Gerstein, and C. Chothia. Volume changes on protein folding. Structure, 2(7) :641–9, 1994. [108] A. Heifetz, E. Katchalski-Katzir, and M. Eisenstein. Electrostatics in proteinprotein docking. Protein Sci, 11(3) :571–87, 2002. 109Bibliographie [109] Y. Ho, A. Gruhler, A. Heilbut, G. D. Bader, L. Moore, S. L. Adams, A. Millar, P. Taylor, K. Bennett, K. Boutilier, L. Yang, C. Wolting, I. Donaldson, S. Schandorff, J. Shewnarane, M. Vo, J. Taggart, M. Goudreault, B. Muskat, C. Alfarano, D. Dewar, Z. Lin, K. Michalickova, A. R. Willems, H. Sassi, P. A. Nielsen, K. J. Rasmussen, J. R. Andersen, L. E. Johansen, L. H. Hansen, H. Jespersen, A. Podtelejnikov, E. Nielsen, J. Crawford, V. Poulsen, B. D. Sorensen, J. Matthiesen, R. C. Hendrickson, F. Gleeson, T. Pawson, M. F. Moran, D. Durocher, M. Mann, C. W. Hogue, D. Figeys, and M. Tyers. Systematic identifi- cation of protein complexes in Saccharomyces cerevisiae by mass spectrometry. Nature, 415(6868) :180–3, 2002. [110] I. L. Hofacker. RNA secondary structure analysis using the Vienna RNA package. Curr Protoc Bioinformatics, Chapter 12 :Unit 12.2, Feb 2004. [111] G. M. Huang. High-throughput DNA sequencing : a genomic data manufacturing process. DNA Seq, 10(3) :149–53, 1999. [112] S. Y. Huang and X. Zou. A nonredundant structure dataset for benchmarking protein-RNA computational docking. J Comput Chem, 34(4) :311–8, 2013. [113] S. Y. Huang and X. Zou. A knowledge-based scoring function for protein-RNA interactions derived from a statistical mechanics-based iterative method. Nucleic Acids Res, 2014. [114] Y. Huang, S. Liu, D. Guo, L. Li, and Y. Xiao. A novel protocol for three-dimensional structure prediction of RNA-protein complexes. Scientific reports, 3, 2013. [115] Y. Inbar, D. Schneidman-Duhovny, I. Halperin, A. Oron, R. Nussinov, and H. J. Wolfson. Approaching the CAPRI challenge with an efficient geometry-based docking. Proteins, 60(2) :217–23, 2005. [116] T. Ito, K. Tashiro, S. Muta, R. Ozawa, T. Chiba, M. Nishizawa, K. Yamamoto, S. Kuhara, and Y. Sakaki. Toward a protein-protein interaction map of the budding yeast : a comprehensive system to examine two-hybrid interactions in all possible combinations between the yeast proteins. Proc Natl Acad Sci U S A, 97(3) :1143–7, 2000. [117] S. Izvekov and G. A. Voth. A multiscale coarse-graining method for biomolecular systems. J Phys Chem B, 109(7) :2469–2473, Feb 2005. [118] J. Janin. Assessing predictions of protein-protein interaction : the CAPRI experiment. Protein Sci, 14(2) :278–83, 2005. [119] J. Janin. Sailing the route from Gaeta, Italy, to CAPRI. Proteins, 60(2) :149, 2005. [120] J. Janin. The targets of CAPRI rounds 3-5. Proteins, 60(2) :170–5, 2005. [121] J. Janin. Protein-protein docking tested in blind predictions : the CAPRI experiment. Mol Biosyst, 6(12) :2351–62, 2010. [122] J. Janin, K. Henrick, J. Moult, L. T. Eyck, M. J. Sternberg, S. Vajda, I. Vakser, and S. J. Wodak. CAPRI : a Critical Assessment of PRedicted Interactions. Proteins, 52(1) :2–9, 2003. 110[123] J. Janin and B. Seraphin. Genome-wide studies of protein-protein interaction. Curr Opin Struct Biol, 13(3) :383–8, 2003. [124] J. Janin and S. J. Wodak. Reaction pathway for the quaternary structure change in hemoglobin. Biopolymers, 24(3) :509–26, 1985. [125] J. Janin and S. J. Wodak. Protein modules and protein-protein interaction. Introduction. Adv Protein Chem, 61 :1–8, 2002. [126] F. Jiang and S. H. Kim. “Soft docking” : matching of molecular surface cubes. J Mol Biol, 219(1) :79–102, 1991. [127] G. H. John and P. Langley. Estimating continuous distributions in bayesian classifiers. In Proceedings of the Eleventh Conference on Uncertainty in Artificial Intelligence, UAI’95, pages 338–345, San Francisco, CA, USA, 1995. Morgan Kaufmann Publishers Inc. [128] W. Kabsch and C. Sander. Dictionary of protein secondary structure : pattern recognition of hydrogen-bonded and geometrical features. Biopolymers, 22(12) :2577–637, 1983. [129] R. Karaduman, P. Fabrizio, K. Hartmuth, H. Urlaub, and R. Luhrmann. RNA ¨ structure and RNA-protein interactions in purified yeast u6 snRNPs. J Mol Biol, 356(5) :1248–1262, Mar 2006. [130] S. Karlin, Z. Y. Zhu, and F. Baud. Atom density in protein structures. Proc Natl Acad Sci U S A, 96(22) :12500–5, 1999. [131] S. Karlin, M. Zuker, and L. Brocchieri. Measuring residue associations in protein structures. Possible implications fro protein folding. J. Mol. Biol., 264 :121–136, 1994. [132] E. Katchalski-Katzir, I. Shariv, M. Eisenstein, A. A. Friesem, C. Aflalo, and I. A. Vakser. Molecular surface recognition : determination of geometric fit between proteins and their ligands by correlation techniques. Proc Natl Acad Sci U S A, 89(6) :2195–9, 1992. [133] A. Ke and J. A. Doudna. Crystallization of RNA and RNA-protein complexes. Methods, 34(3) :408–14, 2004. [134] J. C. Kendrew, R. E. Dickerson, B. E. Standberg, R. G. Hart, D. R. Davies, and D. C. Phillips. Structure of myoglobin. A three dimensional Fourier synthesis at 2 A resolution. ˚ Nature, 185 :422–427, 1960. [135] J. Kittler, M. Hatef, R. Duin, and J. Matas. On combining classifiers. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 20(3) :226–239, 1998. [136] N. Kobayashi, T. Yamato, and N. Go. Mechanical property of a TIM-barrel protein. Proteins, 28(1) :109–16, 1997. [137] K. Komatsu, Y. Kurihara, M. Iwadate, M. Takeda-Shitaka, and H. Umeyama. Evaluation of the third solvent clusters fitting procedure for the prediction of proteinprotein interactions based on the results at the CAPRI blind docking study. Proteins, 52(1) :15–8, 2003. 111Bibliographie [138] J. Konig, K. Zarnack, N. M. Luscombe, and J. Ule. Protein-RNA interactions : new genomic technologies and perspectives. Nat Rev Genet, 13(2) :77–83, 2011. [139] O. Kotik-Kogan, E. R. Valentine, D. Sanfelice, M. R. Conte, and S. Curry. Structural analysis reveals conformational plasticity in the recognition of RNA 3’ ends by the human La protein. Structure, 16(6) :852–862, Jun 2008. [140] B. Krishnamoorthy and A. Tropsha. Development of a four-body statistical pseudo-potential to discriminate native from non-native protein conformations. Bioinformatics, 19(12) :1540–8, 2003. [141] A. Kryshtafovych, C. Venclovas, K. Fidelis, and J. Moult. Progress over the first decade of CASP experiments. Proteins, 61 Suppl 7 :225–36, 2005. [142] C. Laing and T. Schlick. Computational approaches to 3D modeling of RNA. J Phys Condens Matter, 22(28) :283101, 2010. [143] D. S. Law, L. F. Ten Eyck, O. Katzenelson, I. Tsigelny, V. A. Roberts, M. E. Pique, and J. C. Mitchell. Finding needles in haystacks : Reranking DOT results by using shape complementarity, cluster analysis, and biological information. Proteins, 52(1) :33–40, 2003. [144] T. Lazaridis and M. Karplus. Effective energy function for proteins in solution. Proteins, 35(2) :133–152, May 1999. [145] R. H. Lee and G. D. Rose. Molecular recognition. I. Automatic identification of topographic surface features. Biopolymers, 24(8) :1613–27, 1985. [146] M. F. Lensink, I. H. Moal, P. A. Bates, P. L. Kastritis, A. S. Melquiond, E. Karaca, C. Schmitz, M. van Dijk, A. M. Bonvin, M. Eisenstein, B. Jimenez-Garcia, S. Grosdidier, A. Solernou, L. Perez-Cano, C. Pallara, J. Fern ´ andez-Recio, J. Xu, ´ P. Muthu, K. Praneeth Kilambi, J. J. Gray, S. Grudinin, G. Derevyanko, J. C. Mitchell, J. Wieting, E. Kanamori, Y. Tsuchiya, Y. Murakami, J. Sarmiento, D. M. Standley, M. Shirota, K. Kinoshita, H. Nakamura, M. Chavent, D. W. Ritchie, H. Park, J. Ko, H. Lee, C. Seok, Y. Shen, D. Kozakov, S. Vajda, P. J. Kundrotas, I. A. Vakser, B. G. Pierce, H. Hwang, T. Vreven, Z. Weng, I. Buch, E. Farkash, H. J. Wolfson, M. Zacharias, S. Qin, H. X. Zhou, S. Y. Huang, X. Zou, J. A. Wojdyla, C. Kleanthous, and S. J. Wodak. Blind prediction of interfacial water positions in CAPRI. Proteins, 2013. [147] M. F. Lensink, R. Mendez, and S. J. Wodak. Docking and scoring protein com- ´ plexes : CAPRI 3rd edition. Proteins, 69(4) :704–718, Dec 2007. [148] M. F. Lensink and S. J. Wodak. Docking, scoring, and affinity prediction in CAPRI. Proteins, 81(12) :2082–95, 2013. [149] C. Levinthal, S. J. Wodak, P. Kahn, and A. K. Dadivanian. Hemoglobin interaction in sickle cell fibers. I : theoretical approaches to the molecular contacts. Proc Natl Acad Sci U S A, 72(4) :1330–4, 1975. [150] M. Levitt. A simplified representation of protein conformations for rapid simulation of protein folding. J Mol Biol, 104(1) :59–107, 1976. 112[151] M. Levitt. A simplified representation of protein conformations for rapid simulation of protein folding. J Mol Biol, 104(1) :59–107, Jun 1976. [152] B. A. Lewis, R. R. Walia, M. Terribilini, J. Ferguson, C. Zheng, V. Honavar, and D. Dobbs. PRIDB : a protein-RNA interface database. Nucleic Acids Res, 39(Database issue) :D277–D282, Jan 2011. [153] C. H. Li, L. B. Cao, J. G. Su, Y. X. Yang, and C. X. Wang. A new residuenucleotide propensity potential with structural information considered for discriminating protein-RNA docking decoys. Proteins, 80(1) :14–24, 2012. [154] L. Li, R. Chen, and Z. Weng. RDOCK : refinement of rigid-body protein docking predictions. Proteins, 53(3) :693–707, 2003. [155] W. Li, H. Yoshii, N. Hori, T. Kameda, and S. Takada. Multiscale methods for protein folding simulations. Methods, 52(1) :106–114, Sep 2010. [156] X. Li, C. Hu, and J. Liang. Simplicial edge representation of protein structures and alpha contact potential with confidence measure. Proteins, 53(4) :792–805, 2003. [157] J. Liang and K. A. Dill. Are proteins well-packed ? Biophys J, 81(2) :751–66, 2001. [158] J. Liang, H. Edelsbrunner, P. Fu, P. V. Sudhakar, and S. Subramaniam. Analytical shape computation of macromolecules : I. Molecular area and volume through alpha shape. Proteins, 33(1) :1–17, 1998. [159] J. Liang, H. Edelsbrunner, P. Fu, P. V. Sudhakar, and S. Subramaniam. Analytical shape computation of macromolecules : II. Inaccessible cavities in proteins. Proteins, 33(1) :18–29, 1998. [160] J. Liang, H. Edelsbrunner, and C. Woodward. Anatomy of protein pockets and cavities : measurement of binding site geometry and implications for ligand design. Protein Sci, 7(9) :1884–97, 1998. [161] J. Liang and S. Subramaniam. Computation of molecular electrostatics with boundary element methods. Biophys J, 73(4) :1830–41, 1997. [162] D. R. Lide. CRC handbook of chemistry and physics. CRC press, 2004. [163] S. L. Lin, R. Nussinov, D. Fischer, and H. J. Wolfson. Molecular surface representations by sparse critical points. Proteins, 18(1) :94–101, 1994. [164] C. X. Ling, J. Huang, and H. Zhang. AUC : a better measure than accuracy in comparing learning algorithms. Advances in Artificial Intelligence, Jan 2003. [165] C. X. Ling, J. Huang, and H. Zhang. AUC : a statistically consistent and more discriminating measure than accuracy. International joint Conference on artificial intelligence, pages 519–524, Jan 2003. [166] J. Lipfert and S. Doniach. Small-angle X-ray scattering from RNA, proteins, and protein complexes. Annu Rev Biophys Biomol Struct, 36 :307–27, 2007. [167] Y. Liu and J. Snoeyink. A comparison of five implementations of 3D Delaunay tessellation. Combinatorial and Computational Geometry, 52 :439–458, 2005. 113Bibliographie [168] S. Loriot, F. Cazals, and J. Bernauer. ESBTL : efficient PDB parser and data structure for the structural and geometric analysis of biological macromolecules. Bioinformatics, 26(8) :1127–1128, Apr 2010. [169] D. Luo, T. Xu, R. P. Watson, D. Scherer-Becker, A. Sampath, W. Jahnke, S. S. Yeong, C. H. Wang, S. P. Lim, A. Strongin, et al. Insights into rna unwinding and atp hydrolysis by the flavivirus ns3 protein. The EMBO journal, 27(23) :3209– 3219, 2008. [170] J. G. Mandell, V. A. Roberts, M. E. Pique, V. Kotlovyi, J. C. Mitchell, E. Nelson, I. Tsigelny, and L. F. Ten Eyck. Protein docking using continuum electrostatics and geometric fit. Protein Eng, 14(2) :105–13, 2001. [171] D. H. Mathews. Revolutions in RNA secondary structure prediction. J Mol Biol, 359(3) :526–532, Jun 2006. [172] B. J. McConkey, V. Sobolev, and M. Edelman. Quantification of protein surfaces, volumes and atom-atom contacts using a constrained Voronoi procedure. Bioinformatics, 18(10) :1365–73, 2002. [173] R. Mendez, R. Leplae, L. De Maria, and S. J. Wodak. Assessment of blind predictions of protein-protein interactions : current status of docking methods. Proteins, 52(1) :51–67, 2003. [174] R. Mendez, R. Leplae, M. F. Lensink, and S. J. Wodak. Assessment of CAPRI predictions in rounds 3-5 shows progress in docking procedures. Proteins, 60(2) :150–69, 2005. [175] E. C. Meng, B. K. Shoichet, and I. D. Kuntz. Automated docking with grid-based energy evaluation. J Comp Chem, 13 :505–524, 1992. [176] E. J. Merino, K. A. Wilkinson, J. L. Coughlan, and K. M. Weeks. RNA structure analysis at single nucleotide resolution by selective 2’-hydroxyl acylation and primer extension (shape). J Am Chem Soc, 127(12) :4223–4231, Mar 2005. [177] C. E. Metz. Basic principles of ROC analysis. Seminars in nuclear medicine, VIII(4) :283–298, Jan 1978. [178] I. Mihalek, I. Res, and O. Lichtarge. A structure and evolution-guided Monte Carlo sequence selection strategy for multiple alignment-based analysis of proteins. Bioinformatics, 22(2) :149–56, 2006. [179] M. Milek, E. Wyler, and M. Landthaler. Transcriptome-wide analysis of proteinRNA interactions using high-throughput sequencing. Semin Cell Dev Biol, 23(2) :206–12, 2012. [180] J. C. Mitchell, R. Kerr, and L. F. Ten Eyck. Rapid atomic density methods for molecular shape characterization. J Mol Graph Model, 19(3-4) :325–30, 388– 90, 2001. [181] I. S. Moreira, P. A. Fernandes, and M. J. Ramos. Protein-protein docking dealing with the unknown. J Comput Chem, 31(2) :317–42, 2010. 114[182] J. Moult, K. Fidelis, B. Rost, T. Hubbard, and A. Tramontano. Critical assessment of methods of protein structure prediction (CASP)–round 6. Proteins, 61 Suppl 7 :3–7, 2005. [183] P. J. Munson and R. K. Singh. Statistical significance of hierarchical multi-body potentials based on Delaunay tessellation and their application in sequencestructure alignment. Protein Sci, 6(7) :1467–81, 1997. [184] G. N. Murshudov, A. A. Vagin, and E. J. Dodson. Refinement of macromolecular structures by the maximum-likelihood method. Acta Crystallographica Section D : Biological Crystallography, 53(3) :240–255, 1997. [185] A. G. Murzin, S. E. Brenner, T. Hubbard, and C. Chothia. SCOP : a structural classification of proteins database for the investigation of sequences and structures. J Mol Biol, 247(4) :536–40, 1995. [186] K. Nadassy, I. Tomas-Oliveira, I. Alberts, J. Janin, and S. J. Wodak. Standard atomic volumes in double-stranded DNA and packing in protein–DNA interfaces. Nucleic Acids Res, 29(16) :3362–76, 2001. [187] K. Nadassy, S. J. Wodak, and J. Janin. Structural features of protein-nucleic acid recognition sites. Biochemistry, 38(7) :1999–2017, 1999. [188] R. Norel, D. Fischer, H. J. Wolfson, and R. Nussinov. Molecular surface recognition by a computer vision-based technique. Protein Eng, 7(1) :39–46, 1994. [189] R. Norel, S. L. Lin, H. J. Wolfson, and R. Nussinov. Molecular surface complementarity at protein-protein interfaces : the critical role played by surface normals at well placed, sparse, points in docking. J Mol Biol, 252(2) :263–73, 1995. [190] R. Norel, D. Petrey, H. J. Wolfson, and R. Nussinov. Examination of shape complementarity in docking of unbound proteins. Proteins, 36(3) :307–17, 1999. [191] C. A. Orengo, A. D. Michie, S. Jones, D. T. Jones, M. B. Swindells, and J. M. Thornton. CATH–a hierarchic classification of protein domain structures. Structure, 5(8) :1093–108, 1997. [192] E. Paci and M. Marchi. Intrinsic compressibility and volume compression in solvated proteins by molecular dynamics simulation at high pressure. Proc Natl Acad Sci U S A, 93(21) :11609–14, 1996. [193] H. Pan, S. Agarwalla, D. T. Moustakas, J. Finer-Moore, and R. M. Stroud. Structure of tRNA pseudouridine synthase TruB and its RNA complex : RNA recognition through a combination of rigid docking and induced fit. Proc Natl Acad Sci U S A, 100(22) :12648–12653, Oct 2003. [194] P. Pancoska and T. A. Keiderling. Systematic comparison of statistical analyses of electronic and vibrational circular dichroism for secondary structure prediction of selected proteins. Biochemistry, 30(28) :6885–95, 1991. [195] M. Parisien and F. Major. The MC-Fold and MC-Sym pipeline infers RNA structure from sequence data. Nature, 452(7183) :51–5, 2008. [196] L. Pauling and R. B. Corey. The pleated sheet, a new layer configuration of polypeptide chains. Proc Natl Acad Sci U S A, 37(5) :251–6, 1951. 115Bibliographie [197] L. Pauling, R. B. Corey, and H. R. Branson. The structure of proteins ; two hydrogen-bonded helical configurations of the polypeptide chain. Proc Natl Acad Sci U S A, 37(4) :205–11, 1951. [198] K. P. Peters, J. Fauck, and C. Frommel. The automatic search for ligand binding sites in proteins of known three-dimensional structure using only geometric criteria. J Mol Biol, 256(1) :201–13, 1996. [199] B. Pierce, W. Tong, and Z. Weng. M-ZDOCK : a grid-based approach for Cn symmetric multimer docking. Bioinformatics, 21(8) :1472–8, 2005. [200] H. Ponstingl, K. Henrick, and J. M. Thornton. Discriminating between homodimeric and monomeric proteins in the crystalline state. Proteins, 41(1) :47–57, 2000. [201] A. Poupon. Voronoi and Voronoi-related tessellations in studies of protein structure and interaction. Curr Opin Struct Biol, 14(2) :233–41, 2004. [202] R. Pribic, I. H. van Stokkum, D. Chapman, P. I. Haris, and M. Bloemendal. Protein secondary structure from Fourier transform infrared and/or circular dichroism spectra. Anal Biochem, 214(2) :366–78, 1993. [203] T. Puton, L. Kozlowski, I. Tuszynska, K. Rother, and J. M. Bujnicki. Computational methods for prediction of protein-RNA interactions. J Struct Biol, 179(3) :261–8, 2012. [204] L. Perez-Cano, B. Jim ´ enez-Garc ´ ´ıa, and J. Fernandez-Recio. A protein-RNA ´ docking benchmark (II) : extended set from experimental and homology modeling data. Proteins, 80(7) :1872–1882, Jul 2012. [205] L. Perez-Cano, A. Solernou, C. Pons, and J. Fern ´ andez-Recio. Structural predic- ´ tion of protein-RNA interaction by computational docking with propensity-based statistical potentials. Pac Symp Biocomput, pages 293–301, 2010. [206] M. L. Quillin and B. W. Matthews. Accurate calculation of the density of proteins. Acta Crystallogr D Biol Crystallogr, 56 (Pt 7) :791–4, 2000. [207] J. R. Quinlan. C4.5 : Programs for Machine Learning. Morgan Kaufmann Publishers Inc., San Francisco, CA, USA, 1993. [208] A. Rakotomamonjy. Optimizing area under ROC curves with SVMs. ROCAI’04, Jan 2004. [209] G. N. Ramachandran. Conformation of polypeptides and proteins. Advances in protein chemistry, 23 :283, 1968. [210] J. Reeder, M. Hochsmann, M. Rehmsmeier, B. Voss, and R. Giegerich. Beyond ¨ Mfold : recent advances in RNA bioinformatics. J Biotechnol, 124(1) :41–55, Jun 2006. [211] F. M. Richards. The interpretation of protein structures : total volume, group volume distributions and packing density. J Mol Biol, 82(1) :1–14, 1974. [212] F. M. Richards. Calculation of molecular volumes and areas for structures of known geometry. Methods Enzymol, 115 :440–64, 1985. 116[213] D. W. Ritchie. Evaluation of protein docking predictions using Hex 3.1 in CAPRI rounds 1 and 2. Proteins, 52(1) :98–106, 2003. [214] M. Roche, J. Aze, Y. Kodratoff, and M. Sebag. Learning interestingness mea- ´ sures in terminology extraction. a ROC-based approach. In Jose Hern ´ andez- ´ Orallo, Cesar Ferri, Nicolas Lachiche, and Peter A. Flach, editors, ´ ROC Analysis in Artificial Intelligence, 1st International Workshop, ROCAI-2004, Valencia, Spain, August 22, 2004, ROCAI, pages 81–88, 2004. [215] G. D. Rose, A. R. Geselowitz, G. J. Lesser, R. H. Lee, and M. H. Zehfus. Hydrophobicity of amino acid residues in globular proteins. Science, 229(4716) :834–8, 1985. [216] B. Rost, C. Sander, and R. Schneider. Redefining the goals of protein secondary structure prediction. J Mol Biol, 235(1) :13–26, 1994. [217] K. Rother, M. Rother, M. Boniecki, T. Puton, and J. M. Bujnicki. RNA and protein 3D structure modeling : similarities and differences. J Mol Model, 17(9) :2325– 36, 2011. [218] M. Ruff, S. Krishnaswamy, M. Boeglin, A. Poterszman, A. Mitschler, A. Podjarny, B. Rees, J. C. Thierry, and D. Moras. Class II aminoacyl transfer RNA synthetases : crystal structure of yeast aspartyl-tRNA synthetase complexed with tRNA (asp). Science, 252(5013) :1682–1689, 1991. [219] S. P. Ryder and S. A. Strobel. Nucleotide analog interference mapping. Methods, 18(1) :38–50, May 1999. [220] B. Sandak, R. Nussinov, and H. J. Wolfson. A method for biomolecular structural recognition and docking allowing conformational flexibility. J Comput Biol, 5(4) :631–54, 1998. [221] C. Sander and R. Schneider. Database of homology-derived protein structures and the structural meaning of sequence alignment. Proteins, 9(1) :56–68, 1991. [222] M. Schaefer, C. Bartels, F. Leclerc, and M. Karplus. Effective atom volumes for implicit solvent models : comparison between Voronoi volumes and minimum fluctuation volumes. J Comput Chem, 22(15) :1857–1879, 2001. [223] R. E. Schapire, Y. Freund, P. Bartlett, and W. S. Lee. Boosting the margin : a new explanation for the effectiveness of voting methods. The Annals of Statistics, 26(5) :1651–1686, 10 1998. [224] D. Schneidman-Duhovny, Y. Inbar, R. Nussinov, and H. J. Wolfson. Geometrybased flexible and symmetric protein docking. Proteins, 60(2) :224–31, 2005. [225] D. Schneidman-Duhovny, Y. Inbar, V. Polak, M. Shatsky, I. Halperin, H. Benyamini, A. Barzilai, O. Dror, N. Haspel, R. Nussinov, and H.J. Wolfson. Taking geometry to its edge : fast unbound rigid (and hinge-bent) docking. Proteins, 52(1) :107–12, 2003. [226] O. Schueler-Furman, C. Wang, and D. Baker. Progress in protein-protein docking : atomic resolution predictions in the CAPRI experiment using RosettaDock with an improved treatment of side-chain flexibility. Proteins, 60(2) :187–94, 2005. 117Bibliographie [227] L. G. Scott and M. Hennig. RNA structure determination by NMR. Methods Mol Biol, 452 :29–61, 2008. [228] M. Sebag, J. Aze, and N. Lucas. Impact studies and sensitivity analysis in med- ´ ical data mining with ROC-based genetic learning. In Proceedings of the Third IEEE International Conference on Data Mining, ICDM 2003, pages 637–40, Nov 2003. [229] P. Setny and M. Zacharias. A coarse-grained force field for protein-RNA docking. Nucleic Acids Res, 39(21) :9118–29, 2011. [230] B. A. Shapiro, Y. G. Yingling, W. Kasprzak, and E. Bindewald. Bridging the gap in RNA structure prediction. Curr Opin Struct Biol, 17(2) :157–165, Apr 2007. [231] Paul Sherwood, Bernard R. Brooks, and Mark S P. Sansom. Multiscale methods for macromolecular simulations. Curr Opin Struct Biol, 18(5) :630–640, Oct 2008. [232] B. K. Shoichet, I. D. Kuntz, and D. L. Bodian. Molecular docking using shape descriptors. J Comp Chem, 13 :380–397, 1992. [233] R. K. Singh, A. Tropsha, and I. I. Vaisman. Delaunay tessellation of proteins : four body nearest-neighbor propensities of amino acid residues. J Comput Biol, 3(2) :213–21, 1996. [234] G. R. Smith and M. J. Sternberg. Prediction of protein-protein interactions by docking methods. Curr Opin Struct Biol, 12(1) :28–35, 2002. [235] G. R. Smith and M. J. Sternberg. Evaluation of the 3D-Dock protein docking suite in rounds 1 and 2 of the CAPRI blind trial. Proteins, 52(1) :74–9, 2003. [236] A. Soyer, J. Chomilier, J.P. Mornon, R. Jullien, and J.F. Sadoc. Voronoi tessellation reveals the condensed matter character of folded proteins. Phys Rev Lett, 85(16) :3532–5, 2000. [237] M. L. Stolowitz. Chemical protein sequencing and amino acid analysis. Curr Opin Biotechnol, 4(1) :9–13, 1993. [238] G. Terashi, M. Takeda-Shitaka, D. Takaya, K. Komatsu, and H. Umeyama. Searching for protein-protein interaction sites and docking by the methods of molecular dynamics, grid scoring, and the pairwise interaction potential of amino acid residues. Proteins, 60(2) :289–95, 2005. [239] C. A. Theimer, N. L. Smith, and M. Khanna. NMR studies of protein-RNA interactions. Methods Mol Biol, 831 :197–218, 2012. [240] R. Thiele, R. Zimmer, and T. Lengauer. Protein threading by recursive dynamic programming. J Mol Biol, 290(3) :757–79, 1999. [241] P. Tijerina, S. Mohr, and R. Russell. DMS footprinting of structured RNAs and RNA-protein complexes. Nat Protoc, 2(10) :2608–2623, 2007. [242] V. Tozzini. Coarse-grained models for proteins. Curr Opin Struct Biol, 15(2) :144– 150, Apr 2005. [243] J. Tsai and M. Gerstein. Calculations of protein volumes : sensitivity analysis and parameter database. Bioinformatics, 18(7) :985–95, 2002. 118[244] J. Tsai, R. Taylor, C. Chothia, and M. Gerstein. The packing density in proteins : standard radii and volumes. J Mol Biol, 290(1) :253–66, 1999. [245] J. Tsai, N. Voss, and M. Gerstein. Determining the minimum number of types necessary to represent the sizes of protein atoms. Bioinformatics, 17(10) :949– 56, 2001. [246] T. D. Tullius and B. A. Dombroski. Hydroxyl radical “footprinting” : high-resolution information about DNA-protein contacts and application to lambda repressor and Cro protein. Proc Natl Acad Sci U S A, 83(15) :5469–5473, Aug 1986. [247] I. Tuszynska and J. M. Bujnicki. DARS-RNP and QUASI-RNP : new statistical potentials for protein-RNA docking. BMC Bioinformatics, 12 :348, 2011. [248] P. Uetz, L. Giot, G. Cagney, T. A. Mansfield, R. S. Judson, J. R. Knight, D. Lockshon, V. Narayan, M. Srinivasan, P. Pochart, A. Qureshi-Emili, Y. Li, B. Godwin, D. Conover, T. Kalbfleisch, G. Vijayadamodar, M. Yang, M. Johnston, S. Fields, and J. M. Rothberg. A comprehensive analysis of protein-protein interactions in Saccharomyces cerevisiae. Nature, 403(6770) :623–7, 2000. [249] I. A. Vakser and P. Kundrotas. Predicting 3D structures of protein-protein complexes. Curr Pharm Biotechnol, 9(2) :57–66, 2008. [250] A. D. van Dijk, S. J. de Vries, C. Dominguez, H. Chen, H. X. Zhou, and A. M. Bonvin. Data-driven docking : HADDOCK’s adventures in CAPRI. Proteins, 60(2) :232–8, 2005. [251] S. Viswanath, D. V. Ravikant, and R. Elber. Improving ranking of models for protein complexes with side chain modeling and atomic potentials. Proteins, 81(4) :592–606, 2013. [252] M. Vuk and T. Curk. ROC curve, lift chart and calibration plot. Metodoloski zvezki, 3(1) :89–108, Jan 2006. [253] H. Wako and T. Yamato. Novel method to detect a motif of local structures in different protein conformations. Protein Eng, 11(11) :981–90, 1998. [254] R. R. Walia, C. Caragea, B. A. Lewis, F. Towfic, M. Terribilini, Y. El-Manzalawy, D. Dobbs, and V. Honavar. Protein-RNA interface residue prediction using machine learning : an assessment of the state of the art. BMC Bioinformatics, 13 :89, 2012. [255] H. Wang. Grid-search molecular accessible surface algorithm for solving the protein docking problem. J Comp Chem, 12 :746–750, 1991. [256] L. Wernisch, M. Hunting, and S. J. Wodak. Identification of structural domains in proteins by a graph heuristic. Proteins, 35(3) :338–52, 1999. [257] K. Wiehe, B. Pierce, J. Mintseris, W. W. Tong, R. Anderson, R. Chen, and Z. Weng. ZDOCK and RDOCK performance in CAPRI rounds 3, 4, and 5. Proteins, 60(2) :207–13, 2005. [258] D. S. Wishart, B. D. Sykes, and F. M. Richards. Relationship between nuclear magnetic resonance chemical shift and protein secondary structure. J Mol Biol, 222(2) :311–33, 1991. 119Bibliographie [259] S. J. Wodak and J. Janin. Computer analysis of protein-protein interaction. J Mol Biol, 124(2) :323–42, 1978. [260] S. J. Wodak and J. Janin. Structural basis of macromolecular recognition. Adv Protein Chem, 61 :9–73, 2002. [261] S. J. Wodak and R. Mendez. Prediction of protein-protein interactions : the CAPRI experiment, its evaluation and implications. Curr Opin Struct Biol, 14(2) :242–9, 2004. [262] H. J. Wolfson and R. Nussinov. Geometrical docking algorithms. A practical approach. Methods Mol Biol, 143 :377–97, 2000. [263] X. Yang, T. Gerczei, L. Glover, and C. C. Correll. Crystal structures of ´ restrictocin–inhibitor complexes with implications for RNA recognition and base flipping. Nature Structural & Molecular Biology, 8(11) :968–973, 2001. [264] K.-D. Zachmann, W. Heiden, M. Schlenkrich, and J. Brickmann. Topological analysis of complex molecular surfaces. J Comp Chem, 13 :76–84, 1992. [265] C. Zhang, S. Liu, and Y. Zhou. Accurate and efficient loop selections by the DFIRE-based all-atom statistical potential. Protein Sci, 13(2) :391–9, 2004. [266] C. Zhang, S. Liu, and Y. Zhou. Docking prediction using biological information, ZDOCK sampling technique, and clustering guided by the DFIRE statistical energy function. Proteins, 60(2) :314–8, 2005. [267] C. Zhang, S. Liu, Q. Zhu, and Y. Zhou. A knowledge-based energy function for protein-ligand, protein-protein, and protein-DNA complexes. J Med Chem, 48(7) :2325–35, 2005. [268] J. Zhang. Protein-length distributions for the three domains of life. Trends Genet, 16(3) :107–9, 2000. [269] S. Zheng, T. A. Robertson, and G. Varani. A knowledge-based potential function predicts the specificity and relative binding energy of RNA-binding proteins. FEBS J, 274(24) :6378–91, 2007. [270] Z. H. Zhou. Towards atomic resolution structural determination by single-particle cryo-electron microscopy. Curr Opin Struct Biol, 18(2) :218–28, 2008. [271] H. Zhu, F. S. Domingues, I. Sommer, and T. Lengauer. NOXclass : prediction of protein-protein interaction types. BMC Bioinformatics, 7(1) :27, 2006. [272] X. Zhu, S. S. Ericksen, O. N. Demerdash, and J. C. Mitchell. Data-driven models for protein interaction and design. Proteins, 81(12) :2221–8, 2013. [273] R. Zimmer, M. Wohler, and R. Thiele. New scoring schemes for protein fold recognition based on Voronoi contacts. Bioinformatics, 14(3) :295–308, 1998. [274] M. Zuker. Mfold web server for nucleic acid folding and hybridization prediction. Nucleic Acids Res, 31(13) :3406–3415, Jul 2003. 120Annexes 1 # P e rt u r b at i o n . 2 −docking : d o c k p e rt 3 8 # P e rt u r b a l i t t l e the second p a rt n e r (3A, 8d ) . 3 # P repacking . 4 −docking : dock ppk f al s e # No docking prepack mode . 5 # Output . 6 −out : pdb # Output pdb f i l e . 7 −out : o v e r w r it e t rue # O v e rw r it e o ut p ut f i l e s . 8 # Docking o pt i o n s . 9 −docking : d o c k i n g c e n t r o i d o u t e r c y c l e s 0 10 −docking : d o c k i n g c e n t r o i d i n n e r c y c l e s 0 11 −docking : n o f i l t e r s t rue 12 −docking : dock mcm f al s e 13 −docking : sc min f al s e 14 −docking : dock min f al s e Listing .1 – Fichier de flags pour gen´ erer des candidats par perturbation. ´ 1 # P e rt u r b at i o n . 2 −docking : d o c k p e rt 3 8 # P e rt u r b a l i t t l e the second p a rt n e r (3A, 8d ) . 3 −docking : randomize2 # Randomize the second p a rt n e r ( p a rt n e r B ) . 4 −docking : s p i n # Spin a l i t t l e the second p a rt n e r . 5 # P repacking . 6 −docking : dock ppk t rue # Docking prepack mode . 7 # Output . 8 −out : pdb # Output pdb f i l e . 9 −out : o v e r w r it e 10 # Docking o pt i o n s . 11 −docking : d o c k i n g l o c a l r e f i n e t rue Listing .2 – Fichier de flags pour gen´ erer des candidats par amarrage atomique. ´ 1211 # P e rt u r b at i o n . 2 −docking : d o c k p e rt 3 8 # P e rt u r b a l i t t l e the second p a rt n e r (3A, 8d ) . 3 −docking : randomize2 # Randomize the second p a rt n e r ( p a rt n e r B ) . 4 −docking : s p i n # Spin a l i t t l e the second p a rt n e r . 5 # P repacking . 6 −docking : dock ppk t rue # Docking prepack mode . 7 # Output . 8 −out : pdb # Output pdb f i l e . 9 −out : o v e r w r it e 10 # Docking o pt i o n s . 11 −docking : l o w r e s p r o t o c o l o n l y # Skip high re s docking . Listing .3 – Fichier de flags pour gen´ erer des candidats par amarrage gros-grain. ´ 1 # P e rt u r b at i o n . 2 −docking : d o c k p e rt 3 8 # P e rt u r b a l i t t l e the second p a rt n e r (3A, 8d ) . 3 −docking : randomize2 # Randomize the second p a rt n e r ( p a rt n e r B ) . 4 −docking : s p i n # Spin a l i t t l e the second p a rt n e r . 5 # P repacking . 6 −docking : dock ppk t rue # Docking prepack mode . 7 # Output . 8 −out : pdb # Output pdb f i l e . 9 −out : o v e r w r it e t rue # O v e rw r it e o ut p ut f i l e s . Listing .4 – Fichier de flags pour gen´ erer des candidats par amarrage en aveugle. ´ 1221asy (ES = 3.69) Irmsd (Å) Score 0 20 176 223 Irmsd (Å) Score 0 20 −680 3420 1av6 (ES = 1.53) Irmsd (Å) Score 0 20 −4 6 Irmsd (Å) Score 0 20 −310 4560 1b23 (ES = 2.87) Irmsd (Å) Score 0 20 −134 −90 Irmsd (Å) Score 0 20 −340 3220 1c0a (ES = 5.89) Irmsd (Å) Score 0 20 −194 −162 Irmsd (Å) Score 0 20 −620 3380 1ddl (ES = 2.64) Irmsd (Å) Score 0 20 26 44 Irmsd (Å) Score 0 20 −380 1860 1dfu (ES = 5.07) Irmsd (Å) Score 0 20 −22 −7 Irmsd (Å) Score 0 20 −120 3500 1di2 (ES = 4.05) Irmsd (Å) Score 0 20 −14 −2 Irmsd (Å) Score 0 20 −160 2800 1e8o (ES = 2.08) Irmsd (Å) Score 0 20 −11 −5 Irmsd (Å) Score 0 20 −140 3830 1f7u (ES = 4.46) Irmsd (Å) Score 0 20 −237 −191 Irmsd (Å) Score 0 20 −700 3960 FIGURE S1 – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le diagramme selon son ´ energie ´ et son IRMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme presque- ´ natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle apprise ´ par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque diagramme ` (candidats indiques en gris). ´ 1231feu (ES = 1.72) Irmsd (Å) Score 0 20 −78 −48 Irmsd (Å) Score 0 20 −200 3350 1ffy (ES = 7.09) Irmsd (Å) Score 0 20 −69 −47 Irmsd (Å) Score 0 20 −750 5130 1fxl (ES = 6.26) Irmsd (Å) Score 0 20 −7 2 Irmsd (Å) Score 0 20 −140 3330 1gtf (ES = 1.61) Irmsd (Å) Score 0 20 −35 −20 Irmsd (Å) Score 0 20 −140 5060 1h3e (ES = 5.02) Irmsd (Å) Score 0 20 −18 −5 Irmsd (Å) Score 0 20 −250 4130 1h4s (ES = 1.9) Irmsd (Å) Score 0 20 −326 −287 Irmsd (Å) Score 0 20 −1060 4100 1hq1 (ES = 2.42) Irmsd (Å) Score 0 20 −30 −17 Irmsd (Å) Score 0 20 −110 4770 1j1u (ES = 1.4) Irmsd (Å) Score 0 20 −35 −29 Irmsd (Å) Score 0 20 −370 3270 1j2b (ES = 6.25) Irmsd (Å) Score 0 20 91 110 Irmsd (Å) Score 0 20 −660 5460 FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le diagramme selon son ´ energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´ presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´ apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque ` diagramme (candidats indiques en gris). ´ 1241jbs (ES = 0.79) Irmsd (Å) Score 0 20 −22 −12 Irmsd (Å) Score 0 20 −150 5310 1jid (ES = 0.05) Irmsd (Å) Score 0 20 −14 −9 Irmsd (Å) Score 0 20 −150 4350 1k8w (ES = 7.73) Irmsd (Å) Score 0 20 −31 −20 Irmsd (Å) Score 0 20 −320 3300 1knz (ES = 5.68) Irmsd (Å) Score 0 20 −25 −17 Irmsd (Å) Score 0 20 −210 2980 1lng (ES = 3.91) Irmsd (Å) Score 0 20 −41 −26 Irmsd (Å) Score 0 20 −140 5170 1m8v (ES = 1.7) Irmsd (Å) Score 0 20 −2 5 Irmsd (Å) Score 0 20 −60 2610 1m8x (ES = 4.61) Irmsd (Å) Score 0 20 −10 2 Irmsd (Å) Score 0 20 −350 4470 1mzp (ES = 3.15) Irmsd (Å) Score 0 20 −107 −69 Irmsd (Å) Score 0 20 −240 5100 1n35 (ES = 7.27) Irmsd (Å) Score 0 20 −28 −20 Irmsd (Å) Score 0 20 −1190 4730 FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le diagramme selon son ´ energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´ presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´ apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque ` diagramme (candidats indiques en gris). ´ 1251n78 (ES = 3.67) Irmsd (Å) Score 0 20 −234 −191 Irmsd (Å) Score 0 20 −530 3400 1ooa (ES = 2.56) Irmsd (Å) Score 0 20 −8 4 Irmsd (Å) Score 0 20 −260 5530 1pgl (ES = 0) Irmsd (Å) Score 0 20 −48 −31 Irmsd (Å) Score 0 20 −470 2510 1q2r (ES = 6.33) Irmsd (Å) Score 0 20 −92 −80 Irmsd (Å) Score 0 20 −770 3560 1qf6 (ES = 7.3) Irmsd (Å) Score 0 20 −32 −17 Irmsd (Å) Score 0 20 −600 4320 1qtq (ES = 6.36) Irmsd (Å) Score 0 20 −29 −12 Irmsd (Å) Score 0 20 −550 4830 1r3e (ES = 6.89) Irmsd (Å) Score 0 20 −18 3 Irmsd (Å) Score 0 20 −260 4080 1r9f (ES = 3.19) Irmsd (Å) Score 0 20 −30 −18 Irmsd (Å) Score 0 20 −170 2790 1sds (ES = 1.51) Irmsd (Å) Score 0 20 −5 3 Irmsd (Å) Score 0 20 −120 4170 FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le diagramme selon son ´ energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´ presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´ apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque ` diagramme (candidats indiques en gris). ´ 1261ser (ES = 4.35) Irmsd (Å) Score 0 20 −65 −48 Irmsd (Å) Score 0 20 −760 3310 1si3 (ES = 4.66) Irmsd (Å) Score 0 20 1 11 Irmsd (Å) Score 0 20 −90 4940 1t0k (ES = 1.34) Irmsd (Å) Score 0 20 21 34 Irmsd (Å) Score 0 20 −410 5520 1tfw (ES = 4.38) Irmsd (Å) Score 0 20 −63 −49 Irmsd (Å) Score 0 20 −930 5030 1u0b (ES = 6.33) Irmsd (Å) Score 0 20 −219 −154 Irmsd (Å) Score 0 20 −490 4940 1un6 (ES = 2.93) Irmsd (Å) Score 0 20 −150 −87 Irmsd (Å) Score 0 20 −120 4350 1uvj (ES = 3.2) Irmsd (Å) Score 0 20 −44 −37 Irmsd (Å) Score 0 20 −670 2080 1vfg (ES = 0.32) Irmsd (Å) Score 0 20 58 68 Irmsd (Å) Score 0 20 −130 2740 1wpu (ES = 3.48) Irmsd (Å) Score 0 20 −8 −3 Irmsd (Å) Score 0 20 −150 3320 FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le diagramme selon son ´ energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´ presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´ apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque ` diagramme (candidats indiques en gris). ´ 1271wsu (ES = 1.72) Irmsd (Å) Score 0 20 −6 4 Irmsd (Å) Score 0 20 −150 3870 1wz2 (ES = 5.18) Irmsd (Å) Score 0 20 43 57 Irmsd (Å) Score 0 20 −380 5450 1yvp (ES = 2.69) Irmsd (Å) Score 0 20 −14 −5 Irmsd (Å) Score 0 20 −510 3730 1zbh (ES = 1.74) Irmsd (Å) Score 0 20 −26 −12 Irmsd (Å) Score 0 20 −220 4350 2a8v (ES = 2.2) Irmsd (Å) Score 0 20 −3 0 Irmsd (Å) Score 0 20 −100 1840 2anr (ES = 2.06) Irmsd (Å) Score 0 20 15 25 Irmsd (Å) Score 0 20 −140 2160 2asb (ES = 5.26) Irmsd (Å) Score 0 20 −33 −22 Irmsd (Å) Score 0 20 −160 3430 2az0 (ES = 4.33) Irmsd (Å) Score 0 20 −20 −7 Irmsd (Å) Score 0 20 −170 4540 2azx (ES = 2.29) Irmsd (Å) Score 0 20 −50 −43 Irmsd (Å) Score 0 20 −770 4220 FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le diagramme selon son ´ energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´ presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´ apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque ` diagramme (candidats indiques en gris). ´ 1282b3j (ES = 3.18) Irmsd (Å) Score 0 20 −171 −135 Irmsd (Å) Score 0 20 −330 3020 2bgg (ES = 4.89) Irmsd (Å) Score 0 20 −5 7 Irmsd (Å) Score 0 20 −400 2820 2bh2 (ES = 7.08) Irmsd (Å) Score 0 20 −20 −6 Irmsd (Å) Score 0 20 −390 3620 2bte (ES = 2.15) Irmsd (Å) Score 0 20 −164 −139 Irmsd (Å) Score 0 20 −810 2290 2bu1 (ES = 2.41) Irmsd (Å) Score 0 20 −9 0 Irmsd (Å) Score 0 20 −110 4340 2bx2 (ES = 2.08) Irmsd (Å) Score 0 20 2 12 Irmsd (Å) Score 0 20 −250 1840 2ct8 (ES = 3.09) Irmsd (Å) Score 0 20 −295 −235 Irmsd (Å) Score 0 20 −440 2770 2czj (ES = 3.51) Irmsd (Å) Score 0 20 0 9 Irmsd (Å) Score 0 20 −20 4190 2d6f (ES = 2.75) Irmsd (Å) Score 0 20 6 17 Irmsd (Å) Score 0 20 −290 3700 FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le diagramme selon son ´ energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´ presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´ apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque ` diagramme (candidats indiques en gris). ´ 1292der (ES = 4.52) Irmsd (Å) Score 0 20 −23 −13 Irmsd (Å) Score 0 20 −250 3190 2du3 (ES = 2.11) Irmsd (Å) Score 0 20 −52 −42 Irmsd (Å) Score 0 20 −850 4130 2e9t (ES = 7.7) Irmsd (Å) Score 0 20 −31 −15 Irmsd (Å) Score 0 20 −430 4360 2f8k (ES = 1.47) Irmsd (Å) Score 0 20 −7 −2 Irmsd (Å) Score 0 20 −110 4840 2f8s (ES = 2.19) Irmsd (Å) Score 0 20 −13 −5 Irmsd (Å) Score 0 20 −530 1560 2fk6 (ES = 2.93) Irmsd (Å) Score 0 20 −26 −16 Irmsd (Å) Score 0 20 −270 2750 2fmt (ES = 5.99) Irmsd (Å) Score 0 20 −12 2 Irmsd (Å) Score 0 20 −290 3400 2gic (ES = 3.06) Irmsd (Å) Score 0 20 7 12 Irmsd (Å) Score 0 20 −260 2830 2gje (ES = 2.6) Irmsd (Å) Score 0 20 −3 7 Irmsd (Å) Score 0 20 −150 5750 FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le diagramme selon son ´ energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´ presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´ apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque ` diagramme (candidats indiques en gris). ´ 1302gjw (ES = 4.25) Irmsd (Å) Score 0 20 −7 4 Irmsd (Å) Score 0 20 −470 5040 2gtt (ES = 3.38) Irmsd (Å) Score 0 20 19 26 Irmsd (Å) Score 0 20 −210 5000 2gxb (ES = 1.87) Irmsd (Å) Score 0 20 −60 −23 Irmsd (Å) Score 0 20 −70 3040 2hw8 (ES = 3.72) Irmsd (Å) Score 0 20 −45 −27 Irmsd (Å) Score 0 20 −240 4120 2i82 (ES = 7.14) Irmsd (Å) Score 0 20 −44 −26 Irmsd (Å) Score 0 20 −210 5770 2iy5 (ES = 6.69) Irmsd (Å) Score 0 20 22 35 Irmsd (Å) Score 0 20 −810 5720 2jlv (ES = 0.74) Irmsd (Å) Score 0 20 −142 −108 Irmsd (Å) Score 0 20 −210 5420 2nqp (ES = 3.02) Irmsd (Å) Score 0 20 −28 −15 Irmsd (Å) Score 0 20 −510 4170 2nug (ES = 6.56) Irmsd (Å) Score 0 20 −67 −42 Irmsd (Å) Score 0 20 −550 3410 FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le diagramme selon son ´ energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´ presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´ apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque ` diagramme (candidats indiques en gris). ´ 1312ozb (ES = 6.82) Irmsd (Å) Score 0 20 −4 12 Irmsd (Å) Score 0 20 −360 2950 2pjp (ES = 1.75) Irmsd (Å) Score 0 20 −16 −8 Irmsd (Å) Score 0 20 −140 4450 2po1 (ES = 1.35) Irmsd (Å) Score 0 20 −38 −28 Irmsd (Å) Score 0 20 −510 4400 2qux (ES = 3.18) Irmsd (Å) Score 0 20 −16 −7 Irmsd (Å) Score 0 20 −240 4040 2r7r (ES = 4.54) Irmsd (Å) Score 0 20 −15 −6 Irmsd (Å) Score 0 20 −900 2450 2r8s (ES = 1.96) Irmsd (Å) Score 0 20 −369 −332 Irmsd (Å) Score 0 20 −590 2480 2vnu (ES = 2.2) Irmsd (Å) Score 0 20 −63 −34 Irmsd (Å) Score 0 20 −650 6230 2voo (ES = 1.69) Irmsd (Å) Score 0 20 −9 −5 Irmsd (Å) Score 0 20 −180 2510 2w2h (ES = 3.96) Irmsd (Å) Score 0 20 101 109 Irmsd (Å) Score 0 20 300 6590 FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le diagramme selon son ´ energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´ presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´ apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque ` diagramme (candidats indiques en gris). ´ 1322wj8 (ES = 6.11) Irmsd (Å) Score 0 20 16 24 Irmsd (Å) Score 0 20 −340 2710 2z2q (ES = 2.64) Irmsd (Å) Score 0 20 49 56 Irmsd (Å) Score 0 20 −810 2550 2zi0 (ES = 0.48) Irmsd (Å) Score 0 20 −17 −7 Irmsd (Å) Score 0 20 −100 4820 2zko (ES = 4.04) Irmsd (Å) Score 0 20 −29 −14 Irmsd (Å) Score 0 20 −220 3780 2zni (ES = 6.44) Irmsd (Å) Score 0 20 41 57 Irmsd (Å) Score 0 20 −450 4090 2zue (ES = 4.53) Irmsd (Å) Score 0 20 −216 −171 Irmsd (Å) Score 0 20 −710 4050 2zzm (ES = 8.06) Irmsd (Å) Score 0 20 −18 1 Irmsd (Å) Score 0 20 −260 4930 3a6p (ES = 7.17) Irmsd (Å) Score 0 20 2 31 Irmsd (Å) Score 0 20 −1120 3810 3bso (ES = 5.84) Irmsd (Å) Score 0 20 −31 −15 Irmsd (Å) Score 0 20 −490 4210 FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le diagramme selon son ´ energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´ presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´ apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque ` diagramme (candidats indiques en gris). ´ 1333bt7 (ES = 4.98) Irmsd (Å) Score 0 20 −16 −7 Irmsd (Å) Score 0 20 −280 2520 3ciy (ES = 2.79) Irmsd (Å) Score 0 20 6 21 Irmsd (Å) Score 0 20 −440 4200 3d2s (ES = 0.79) Irmsd (Å) Score 0 20 −27 −14 Irmsd (Å) Score 0 20 −110 2750 3dd2 (ES = 2) Irmsd (Å) Score 0 20 −35 −23 Irmsd (Å) Score 0 20 −320 5130 3egz (ES = 3.05) Irmsd (Å) Score 0 20 −17 −6 Irmsd (Å) Score 0 20 −120 4940 3eph (ES = 8.81) Irmsd (Å) Score 0 20 −17 −4 Irmsd (Å) Score 0 20 −380 4410 3eqt (ES = 7.19) Irmsd (Å) Score 0 20 −16 −1 Irmsd (Å) Score 0 20 −250 3430 3ex7 (ES = 4.06) Irmsd (Å) Score 0 20 −40 −29 Irmsd (Å) Score 0 20 −610 2100 3fht (ES = 3.66) Irmsd (Å) Score 0 20 −24 −17 Irmsd (Å) Score 0 20 −370 1790 FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le diagramme selon son ´ energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´ presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´ apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque ` diagramme (candidats indiques en gris). ´ 1343foz (ES = 8) Irmsd (Å) Score 0 20 −28 −15 Irmsd (Å) Score 0 20 −360 4800 3gib (ES = 1.8) Irmsd (Å) Score 0 20 −3 1 Irmsd (Å) Score 0 20 −170 4470 3hax (ES = 6.51) Irmsd (Å) Score 0 20 −59 −37 Irmsd (Å) Score 0 20 −430 4460 3hl2 (ES = 3.66) Irmsd (Å) Score 0 20 −28 −20 Irmsd (Å) Score 0 20 −790 1710 3htx (ES = 8.04) Irmsd (Å) Score 0 20 15 30 Irmsd (Å) Score 0 20 −500 5330 3i5x (ES = 3.55) Irmsd (Å) Score 0 20 −29 −24 Irmsd (Å) Score 0 20 −550 2350 3iab (ES = 5.28) Irmsd (Å) Score 0 20 −18 −10 Irmsd (Å) Score 0 20 −250 5270 3icq (ES = 2.83) Irmsd (Å) Score 0 20 −197 −141 Irmsd (Å) Score 0 20 −360 4850 3iev (ES = 5.64) Irmsd (Å) Score 0 20 −27 −19 Irmsd (Å) Score 0 20 −290 2780 FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le diagramme selon son ´ energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´ presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´ apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque ` diagramme (candidats indiques en gris). ´ 1353k62 (ES = 3.4) Irmsd (Å) Score 0 20 −23 −13 Irmsd (Å) Score 0 20 −430 3960 3l25 (ES = 7.02) Irmsd (Å) Score 0 20 −174 −127 Irmsd (Å) Score 0 20 −530 3980 3snp (ES = 6.63) Irmsd (Å) Score 0 20 −54 −42 Irmsd (Å) Score 0 20 −810 2450 FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le diagramme selon son ´ energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´ presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´ apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque ` diagramme (candidats indiques en gris). ´ 1361b7f (ES = 5.15) Irmsd (Å) Score 0 20 −115 −98 Irmsd (Å) Score 0 20 −90 3490 1c9s (ES = 1.19) Irmsd (Å) Score 0 20 −50 −34 Irmsd (Å) Score 0 20 −60 3700 1dk1 (ES = 2.58) Irmsd (Å) Score 0 20 −145 −122 Irmsd (Å) Score 0 20 −90 3140 1e7k (ES = 1.33) Irmsd (Å) Score 0 20 −126 −97 Irmsd (Å) Score 0 20 −90 4790 1ec6 (ES = 0.88) Irmsd (Å) Score 0 20 −90 −73 Irmsd (Å) Score 0 20 −80 3420 1efw (ES = 2.9) Irmsd (Å) Score 0 20 −492 −468 Irmsd (Å) Score 0 20 −400 3340 1ekz (ES = 0.81) Irmsd (Å) Score 0 20 −98 −75 Irmsd (Å) Score 0 20 −60 3960 1g1x (ES = 0.54) Irmsd (Å) Score 0 20 −166 −148 Irmsd (Å) Score 0 20 −110 3170 1hc8 (ES = 3.63) Irmsd (Å) Score 0 20 −123 −105 Irmsd (Å) Score 0 20 −110 1860 FIGURE S2 – Diagramme par complexe des Benchmarks I et II de l’energie en fonction ´ du IRMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le diagramme ´ selon son energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es´ comme presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est ´ celle apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque ` diagramme (candidats indiques en gris). ´ 1371hvu (ES = 1.93) Irmsd (Å) Score 0 20 −667 −636 Irmsd (Å) Score 0 20 1210 6690 1jbr (ES = 0.02) Irmsd (Å) Score 0 20 −135 −112 Irmsd (Å) Score 0 20 −140 4470 1kog (ES = 1.14) Irmsd (Å) Score 0 20 −365 −338 Irmsd (Å) Score 0 20 −300 4420 1kq2 (ES = 5.4) Irmsd (Å) Score 0 20 −255 −236 Irmsd (Å) Score 0 20 −270 4150 1m5o (ES = 1.33) Irmsd (Å) Score 0 20 −191 −170 Irmsd (Å) Score 0 20 −200 3750 1m8w (ES = 1.27) Irmsd (Å) Score 0 20 −326 −307 Irmsd (Å) Score 0 20 −360 3870 1mfq (ES = 2.35) Irmsd (Å) Score 0 20 −231 −204 Irmsd (Å) Score 0 20 −180 4830 1mms (ES = 3.31) Irmsd (Å) Score 0 20 −169 −146 Irmsd (Å) Score 0 20 −130 2850 1msw (ES = 8.84) Irmsd (Å) Score 0 20 −692 −656 Irmsd (Å) Score 0 20 −500 5040 FIGURE S2 (cont.) – Diagramme par complexe des Benchmarks I et II de l’energie en ´ fonction du IRMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le ´ diagramme selon son energie et son I ´ RMSD. Les 10 premiers candidats en energie ´ sont indiques comme presque-natifs (en bleu) ou leurres (en rouge). La fonction de ´ score utilisee est celle apprise par R ´ OGER en leave-”one-pdb”-out pour les grands diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque diagramme (candidats indiqu ` es en gris). ´ 1381ob2 (ES = 3.38) Irmsd (Å) Score 0 20 −320 −293 Irmsd (Å) Score 0 20 −270 3590 1u63 (ES = 1.13) Irmsd (Å) Score 0 20 −191 −162 Irmsd (Å) Score 0 20 −50 4650 1t4l (ES = 1.64) Irmsd (Å) Score 0 20 −27041 −25961 Irmsd (Å) Score 0 20 9803120 9970860 1ttt (ES = 3.25) Irmsd (Å) Score 0 20 −374 −348 Irmsd (Å) Score 0 20 −260 3610 1wne (ES = 4.41) Irmsd (Å) Score 0 20 −346 −324 Irmsd (Å) Score 0 20 −410 4170 1zbi (ES = 2.95) Irmsd (Å) Score 0 20 −150 −124 Irmsd (Å) Score 0 20 −130 3840 2ad9 (ES = 2.53) Irmsd (Å) Score 0 20 −64 −54 Irmsd (Å) Score 0 20 −70 2080 2adb (ES = 3.37) Irmsd (Å) Score 0 20 −86 −76 Irmsd (Å) Score 0 20 −100 2410 2adc (ES = 2.61) Irmsd (Å) Score 0 20 −148 −136 Irmsd (Å) Score 0 20 −180 2440 FIGURE S2 (cont.) – Diagramme par complexe des Benchmarks I et II de l’energie en ´ fonction du IRMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le ´ diagramme selon son energie et son I ´ RMSD. Les 10 premiers candidats en energie ´ sont indiques comme presque-natifs (en bleu) ou leurres (en rouge). La fonction de ´ score utilisee est celle apprise par R ´ OGER en leave-”one-pdb”-out pour les grands diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque diagramme (candidats indiqu ` es en gris). ´ 1392b6g (ES = 0.02) Irmsd (Å) Score 0 20 −95 −74 Irmsd (Å) Score 0 20 −80 3630 2c0b (ES = 2.98) Irmsd (Å) Score 0 20 −327 −310 Irmsd (Å) Score 0 20 −50 3410 2dra (ES = 6.16) Irmsd (Å) Score 0 20 −392 −369 Irmsd (Å) Score 0 20 −440 4260 2err (ES = 2.48) Irmsd (Å) Score 0 20 −80 −62 Irmsd (Å) Score 0 20 −90 3730 2ez6 (ES = 2.92) Irmsd (Å) Score 0 20 −278 −251 Irmsd (Å) Score 0 20 −310 3850 2hgh (ES = 1.03) Irmsd (Å) Score 0 20 −138 −110 Irmsd (Å) Score 0 20 −130 6030 2i91 (ES = 7.35) Irmsd (Å) Score 0 20 −444 −421 Irmsd (Å) Score 0 20 −390 3710 2ix1 (ES = 2.14) Irmsd (Å) Score 0 20 −482 −451 Irmsd (Å) Score 0 20 −580 6730 2py9 (ES = 2.95) Irmsd (Å) Score 0 20 −110 −101 Irmsd (Å) Score 0 20 −110 1660 FIGURE S2 (cont.) – Diagramme par complexe des Benchmarks I et II de l’energie en ´ fonction du IRMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le ´ diagramme selon son energie et son I ´ RMSD. Les 10 premiers candidats en energie ´ sont indiques comme presque-natifs (en bleu) ou leurres (en rouge). La fonction de ´ score utilisee est celle apprise par R ´ OGER en leave-”one-pdb”-out pour les grands diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque diagramme (candidats indiqu ` es en gris). ´ 1403bo2 (ES = 2.73) Irmsd (Å) Score 0 20 −295 −273 Irmsd (Å) Score 0 20 −140 4850 3bsb (ES = 1.55) Irmsd (Å) Score 0 20 −306 −283 Irmsd (Å) Score 0 20 −290 4870 3bsx (ES = 1.2) Irmsd (Å) Score 0 20 −315 −294 Irmsd (Å) Score 0 20 −340 4660 3bx2 (ES = 3.09) Irmsd (Å) Score 0 20 −315 −296 Irmsd (Å) Score 0 20 −310 4500 FIGURE S2 (cont.) – Diagramme par complexe des Benchmarks I et II de l’energie en ´ fonction du IRMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le ´ diagramme selon son energie et son I ´ RMSD. Les 10 premiers candidats en energie ´ sont indiques comme presque-natifs (en bleu) ou leurres (en rouge). La fonction de ´ score utilisee est celle apprise par R ´ OGER en leave-”one-pdb”-out pour les grands diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque diagramme (candidats indiqu ` es en gris). ´ 1411m5o (ES = 4.75) Irmsd (Å) Score 0 20 −194 −174 Irmsd (Å) Score 0 20 −200 3830 1qtq (ES = 6.09) Irmsd (Å) Score 0 20 −437 −403 Irmsd (Å) Score 0 20 −380 5500 1wpu (ES = 3.15) Irmsd (Å) Score 0 20 −116 −103 Irmsd (Å) Score 0 20 −150 2460 1yvp (ES = 0.2) Irmsd (Å) Score 0 20 −484 −459 Irmsd (Å) Score 0 20 −540 3980 1zbh (ES = 0) Irmsd (Å) Score 0 20 −188 −165 Irmsd (Å) Score 0 20 −200 3840 2ad9 (ES = 6.06) Irmsd (Å) Score 0 20 −50 −42 Irmsd (Å) Score 0 20 −20 2170 FIGURE S3 – Diagramme par complexe des 6 complexes avec proteine non li ´ ee de ´ l’energie en fonction du I ´ RMSD (EvsRMS). Chaque candidat est positionne (par une ´ croix) sur le diagramme selon son energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme presque-natifs (en bleu) ou leurres (en rouge). La ´ fonction de score utilisee est celle apprise par R ´ OGER en leave-”one-pdb”-out pour les grands diagrammes et celle disponible par defaut dans RosettaDock dans les encarts ´ en bas a droite de chaque diagramme (candidats indiqu ` es en gris). ´ 142Precision ´ Rappel Fscore Accuracy Sensibilite´ Specificit ´ e´ pdb ROS POS ROS POS ROS POS ROS POS ROS POS ROS POS 1asy 0.72 0.75 1.00 0.99 0.84 0.86 0.72 0.76 1.00 0.99 0.00 0.16 1av6 0.88 0.88 1.00 1.00 0.94 0.94 0.88 0.88 1.00 1.00 0.00 0.01 1b23 0.50 0.66 1.00 0.90 0.67 0.76 0.50 0.72 1.00 0.90 0.00 0.54 1c0a 0.26 0.71 1.00 0.78 0.41 0.74 0.26 0.86 1.00 0.78 0.00 0.89 1ddl 0.28 0.34 1.00 0.81 0.44 0.48 0.28 0.51 1.00 0.81 0.00 0.39 1dfu 0.92 0.96 1.00 0.99 0.96 0.97 0.92 0.95 1.00 0.99 0.00 0.44 1di2 0.76 0.84 1.00 0.94 0.86 0.88 0.76 0.82 1.00 0.94 0.00 0.45 1e8o 0.34 0.35 1.00 0.95 0.50 0.51 0.34 0.38 1.00 0.95 0.00 0.09 1f7u 0.41 0.76 1.00 0.85 0.58 0.80 0.41 0.83 1.00 0.85 0.00 0.81 1feu 0.91 0.92 1.00 0.99 0.95 0.95 0.91 0.91 1.00 0.99 0.00 0.10 1ffy 0.32 0.58 0.98 0.77 0.48 0.66 0.33 0.76 0.98 0.77 0.04 0.75 1fxl 0.51 0.86 1.00 0.87 0.68 0.87 0.51 0.86 1.00 0.87 0.00 0.86 1gtf 0.96 0.96 1.00 1.00 0.98 0.98 0.96 0.96 1.00 1.00 0.00 0.02 1h3e 0.59 0.69 1.00 0.94 0.74 0.79 0.59 0.71 1.00 0.94 0.00 0.38 1h4s 0.12 0.19 1.00 0.52 0.21 0.27 0.12 0.67 1.00 0.52 0.00 0.69 1hq1 0.28 0.28 0.89 0.97 0.42 0.43 0.36 0.33 0.89 0.97 0.17 0.10 1j1u 0.83 0.83 1.00 1.00 0.91 0.91 0.83 0.83 1.00 1.00 0.00 0.00 1j2b 0.13 0.64 1.00 0.81 0.23 0.71 0.13 0.91 1.00 0.81 0.00 0.93 1jbs 0.25 0.31 1.00 0.79 0.40 0.45 0.25 0.50 1.00 0.79 0.00 0.40 1jid 0.94 0.94 1.00 1.00 0.97 0.97 0.94 0.94 1.00 1.00 0.00 0.08 1k8w 0.39 0.72 1.00 0.86 0.56 0.78 0.39 0.81 1.00 0.86 0.00 0.79 1knz 0.31 0.84 1.00 0.89 0.47 0.86 0.31 0.91 1.00 0.89 0.00 0.92 1lng 0.73 0.76 1.00 0.98 0.84 0.86 0.73 0.76 1.00 0.98 0.00 0.16 1m8v 0.70 0.70 1.00 1.00 0.82 0.83 0.70 0.70 1.00 1.00 0.00 0.01 1m8x 0.84 0.84 1.00 1.00 0.91 0.91 0.84 0.84 1.00 1.00 0.00 0.01 1mzp 0.16 0.32 1.00 0.52 0.27 0.39 0.16 0.75 1.00 0.52 0.00 0.79 1n35 0.07 0.57 1.00 0.83 0.14 0.68 0.08 0.94 1.00 0.83 0.00 0.95 1n78 0.44 0.83 1.00 0.88 0.61 0.85 0.44 0.87 1.00 0.88 0.00 0.86 1ooa 0.87 0.88 1.00 1.00 0.93 0.94 0.87 0.88 1.00 1.00 0.00 0.14 1pgl 0.93 0.94 1.00 1.00 0.97 0.97 0.93 0.94 1.00 1.00 0.00 0.10 1q2r 0.46 0.73 1.00 0.92 0.63 0.82 0.46 0.81 1.00 0.92 0.00 0.71 1qf6 0.12 0.67 1.00 0.80 0.21 0.73 0.12 0.93 1.00 0.80 0.00 0.95 1qtq 0.30 0.72 1.00 0.77 0.46 0.74 0.30 0.84 1.00 0.77 0.00 0.87 1r3e 0.34 0.60 1.00 0.74 0.50 0.66 0.34 0.75 1.00 0.74 0.00 0.76 1r9f 0.94 0.94 1.00 1.00 0.97 0.97 0.94 0.94 1.00 1.00 0.00 0.04 1sds 0.43 0.42 0.96 1.00 0.59 0.59 0.44 0.43 0.96 1.00 0.07 0.02 1ser 0.30 0.66 1.00 0.87 0.46 0.75 0.30 0.83 1.00 0.87 0.00 0.81 1si3 0.77 0.95 1.00 0.95 0.87 0.95 0.77 0.92 1.00 0.95 0.00 0.84 1t0k 0.38 0.37 0.98 1.00 0.54 0.54 0.39 0.37 0.98 1.00 0.03 0.00 1tfw 0.02 0.71 1.00 0.96 0.04 0.82 0.02 0.99 1.00 0.96 0.00 0.99 1u0b 0.26 0.58 1.00 0.77 0.41 0.66 0.26 0.79 1.00 0.77 0.00 0.80 1un6 0.40 0.67 1.00 0.73 0.57 0.70 0.40 0.75 1.00 0.73 0.00 0.76 1uvj 0.21 0.72 1.00 0.92 0.34 0.81 0.21 0.91 1.00 0.92 0.00 0.91 1vfg 0.93 0.93 1.00 1.00 0.96 0.96 0.93 0.93 1.00 1.00 0.00 0.00 1wpu 0.87 0.88 1.00 1.00 0.93 0.93 0.87 0.88 1.00 1.00 0.00 0.05 1wsu 0.48 0.51 1.00 0.95 0.65 0.67 0.48 0.54 1.00 0.95 0.00 0.15 1wz2 0.25 0.51 1.00 0.78 0.39 0.62 0.25 0.76 1.00 0.78 0.00 0.76 Resultats globaux des 120 complexes de la P ´ RIDB sous le seuil du meilleur Fscore : avec les mesures d’evaluation globales pour chacun des complexes pour la fonction ´ de score par defaut de RosettaDock (ROS) et la fonction de score atomique apprise ´ avec ROGER (POS). 143Precision ´ Rappel Fscore Accuracy Sensibilite´ Specificit ´ e´ pdb ROS POS ROS POS ROS POS ROS POS ROS POS ROS POS 1yvp 0.94 0.94 1.00 1.00 0.97 0.97 0.94 0.94 1.00 1.00 0.00 0.01 1zbh 0.38 0.47 1.00 0.90 0.55 0.61 0.38 0.57 1.00 0.90 0.00 0.37 2a8v 0.48 0.54 1.00 0.87 0.65 0.67 0.48 0.59 1.00 0.87 0.00 0.33 2anr 0.29 0.36 1.00 0.76 0.45 0.49 0.29 0.54 1.00 0.76 0.00 0.44 2asb 0.55 0.68 1.00 0.97 0.71 0.80 0.55 0.73 1.00 0.97 0.00 0.45 2az0 0.14 0.32 0.99 0.58 0.24 0.41 0.14 0.77 0.99 0.58 0.01 0.81 2azx 0.72 0.77 1.00 0.97 0.84 0.86 0.72 0.77 1.00 0.97 0.00 0.27 2b3j 0.72 0.88 1.00 0.94 0.84 0.91 0.72 0.87 1.00 0.94 0.00 0.68 2bgg 0.54 0.81 1.00 0.87 0.70 0.84 0.54 0.82 1.00 0.87 0.00 0.76 2bh2 0.23 0.76 1.00 0.70 0.38 0.73 0.23 0.88 1.00 0.70 0.00 0.93 2bte 0.73 0.80 1.00 0.93 0.84 0.86 0.73 0.78 1.00 0.93 0.00 0.39 2bu1 0.39 0.43 1.00 0.91 0.56 0.59 0.39 0.50 1.00 0.91 0.00 0.24 2bx2 0.35 0.51 0.99 0.89 0.51 0.65 0.35 0.67 0.99 0.89 0.01 0.56 2ct8 0.58 0.72 1.00 0.90 0.74 0.80 0.58 0.74 1.00 0.90 0.00 0.53 2czj 0.91 0.91 1.00 1.00 0.95 0.96 0.91 0.91 1.00 1.00 0.00 0.01 2d6f 0.85 0.85 1.00 1.00 0.92 0.92 0.85 0.85 1.00 1.00 0.01 0.00 2der 0.35 0.83 1.00 0.79 0.52 0.81 0.35 0.87 1.00 0.79 0.00 0.91 2du3 0.92 0.92 1.00 1.00 0.96 0.96 0.92 0.92 1.00 1.00 0.00 0.01 2e9t 0.17 0.93 1.00 0.98 0.29 0.95 0.17 0.98 1.00 0.98 0.00 0.99 2f8k 0.50 0.50 1.00 0.99 0.67 0.67 0.50 0.51 1.00 0.99 0.00 0.02 2f8s 0.68 0.69 1.00 0.99 0.81 0.82 0.68 0.69 1.00 0.99 0.00 0.05 2fk6 0.82 0.83 1.00 0.99 0.90 0.90 0.82 0.83 1.00 0.99 0.00 0.09 2fmt 0.27 0.53 1.00 0.88 0.42 0.66 0.27 0.76 1.00 0.88 0.00 0.71 2gic 0.40 0.69 1.00 0.90 0.57 0.78 0.40 0.80 1.00 0.90 0.00 0.74 2gje 0.72 0.78 1.00 0.95 0.84 0.85 0.72 0.76 1.00 0.95 0.00 0.28 2gjw 0.78 0.85 1.00 0.97 0.88 0.91 0.78 0.84 1.00 0.97 0.00 0.41 2gtt 0.24 0.51 0.98 0.87 0.39 0.64 0.26 0.76 0.98 0.87 0.03 0.73 2gxb 0.47 0.49 1.00 0.93 0.64 0.64 0.47 0.52 1.00 0.93 0.00 0.15 2hw8 0.73 0.81 1.00 0.97 0.84 0.88 0.73 0.81 1.00 0.97 0.00 0.38 2i82 0.69 0.78 1.00 0.95 0.82 0.85 0.69 0.78 1.00 0.95 0.00 0.39 2iy5 0.09 0.47 1.00 0.83 0.17 0.60 0.10 0.90 1.00 0.83 0.01 0.91 2jlv 0.46 0.71 0.99 0.94 0.63 0.81 0.47 0.80 0.99 0.94 0.04 0.68 2nqp 0.27 0.35 1.00 0.82 0.42 0.49 0.27 0.54 1.00 0.82 0.01 0.44 2nug 0.06 1.00 0.58 1.00 0.11 1.00 0.66 1.00 0.58 1.00 0.66 1.00 2ozb 0.37 0.66 1.00 0.76 0.54 0.71 0.37 0.77 1.00 0.76 0.00 0.77 2pjp 0.30 0.39 1.00 0.83 0.46 0.53 0.30 0.56 1.00 0.83 0.00 0.45 2po1 0.92 0.91 1.00 1.00 0.96 0.96 0.92 0.91 1.00 1.00 0.03 0.00 2qux 0.19 0.28 1.00 0.77 0.33 0.41 0.20 0.57 1.00 0.77 0.01 0.52 2r7r 0.42 0.83 1.00 0.94 0.59 0.88 0.42 0.89 1.00 0.94 0.00 0.86 2r8s 0.73 0.73 1.00 1.00 0.84 0.84 0.73 0.73 1.00 1.00 0.00 0.04 2vnu 0.25 0.69 1.00 0.96 0.40 0.80 0.25 0.88 1.00 0.96 0.00 0.86 2voo 0.76 0.76 1.00 1.00 0.86 0.86 0.76 0.76 1.00 1.00 0.00 0.00 2w2h 0.55 0.63 1.00 0.91 0.71 0.75 0.55 0.66 1.00 0.91 0.00 0.35 2wj8 0.24 0.82 1.00 0.93 0.39 0.88 0.24 0.94 1.00 0.93 0.00 0.94 2z2q 0.59 0.60 1.00 0.99 0.74 0.75 0.59 0.60 1.00 0.99 0.00 0.05 2zi0 0.79 0.89 1.00 0.98 0.88 0.93 0.79 0.89 1.00 0.98 0.00 0.55 2zko 0.17 0.24 0.52 0.62 0.26 0.34 0.61 0.68 0.52 0.62 0.62 0.69 Resultats globaux des 120 complexes de la P ´ RIDB sous le seuil du meilleur Fscore : avec les mesures d’evaluation globales pour chacun des complexes pour la fonction ´ de score par defaut de RosettaDock (ROS) et la fonction de score atomique apprise ´ avec ROGER (POS). 144Precision ´ Rappel Fscore Accuracy Sensibilite´ Specificit ´ e´ pdb ROS POS ROS POS ROS POS ROS POS ROS POS ROS POS 2zni 0.27 0.52 1.00 0.71 0.42 0.60 0.27 0.75 1.00 0.71 0.00 0.76 2zue 0.49 0.77 1.00 0.88 0.66 0.82 0.49 0.81 1.00 0.88 0.00 0.74 2zzm 0.13 0.76 1.00 0.79 0.22 0.78 0.13 0.94 1.00 0.79 0.00 0.96 3a6p 0.61 0.88 0.56 0.90 0.58 0.89 0.84 0.96 0.56 0.90 0.91 0.97 3bso 0.25 0.77 0.99 0.94 0.40 0.85 0.27 0.92 0.99 0.94 0.04 0.91 3bt7 0.54 0.67 1.00 0.87 0.70 0.76 0.54 0.70 1.00 0.87 0.00 0.50 3ciy 0.56 0.58 1.00 0.98 0.72 0.73 0.56 0.58 1.00 0.98 0.00 0.07 3d2s 0.89 0.90 1.00 1.00 0.94 0.94 0.89 0.89 1.00 1.00 0.00 0.02 3dd2 0.25 0.30 1.00 0.79 0.40 0.43 0.25 0.48 1.00 0.79 0.00 0.38 3egz 0.52 0.82 1.00 0.91 0.69 0.87 0.52 0.85 1.00 0.91 0.00 0.79 3eph 0.10 0.93 1.00 0.95 0.18 0.94 0.10 0.99 1.00 0.95 0.00 0.99 3eqt 0.52 0.85 1.00 0.76 0.68 0.80 0.52 0.80 1.00 0.76 0.00 0.85 3ex7 0.75 0.87 1.00 0.96 0.86 0.91 0.75 0.86 1.00 0.96 0.00 0.59 3fht 0.83 0.92 1.00 0.95 0.90 0.93 0.83 0.89 1.00 0.95 0.00 0.59 3foz 0.13 0.68 1.00 0.92 0.24 0.78 0.13 0.93 1.00 0.92 0.00 0.93 3gib 0.23 0.40 1.00 0.64 0.38 0.49 0.23 0.69 1.00 0.64 0.00 0.71 3hax 0.10 0.76 1.00 0.60 0.19 0.67 0.10 0.94 1.00 0.60 0.00 0.98 3hl2 0.91 0.95 1.00 0.99 0.95 0.97 0.91 0.94 1.00 0.99 0.00 0.48 3htx 0.10 0.63 1.00 0.76 0.19 0.69 0.10 0.93 1.00 0.76 0.00 0.95 3i5x 0.68 0.79 1.00 0.96 0.81 0.87 0.68 0.80 1.00 0.96 0.00 0.47 3iab 0.48 0.74 1.00 0.85 0.65 0.79 0.48 0.78 1.00 0.85 0.00 0.73 3icq 0.51 0.67 1.00 0.89 0.68 0.76 0.51 0.72 1.00 0.89 0.00 0.53 3iev 0.79 0.79 1.00 1.00 0.88 0.88 0.79 0.79 1.00 1.00 0.00 0.01 3k62 0.85 0.85 1.00 1.00 0.92 0.92 0.85 0.85 1.00 1.00 0.00 0.03 3l25 0.12 0.92 1.00 0.96 0.22 0.94 0.12 0.98 1.00 0.96 0.00 0.99 3snp 0.32 0.63 1.00 0.75 0.48 0.68 0.32 0.78 1.00 0.75 0.00 0.79 TABLE S1 – Resultats globaux des 120 complexes de la P ´ RIDB sous le seuil du meilleur Fscore : avec les mesures d’evaluation globales pour chacun des complexes pour la ´ fonction de score par defaut de RosettaDock (ROS) et la fonction de score atomique ´ apprise avec ROGER (POS). 145Precision ´ Rappel Fscore Accuracy Sensibilite´ Specificit ´ e´ pdb ROS POS ROS POS ROS POS ROS POS ROS POS ROS POS 1asy 0.70 0.90 0.00 0.00 0.00 0.00 0.28 0.28 0.00 0.00 1.00 1.00 1av6 0.50 1.00 0.00 0.00 0.00 0.00 0.12 0.12 0.00 0.00 1.00 1.00 1b23 0.40 1.00 0.00 0.00 0.00 0.00 0.50 0.50 0.00 0.00 1.00 1.00 1c0a 0.10 1.00 0.00 0.00 0.00 0.01 0.74 0.74 0.00 0.00 1.00 1.00 1ddl 0.20 0.40 0.00 0.00 0.00 0.00 0.72 0.72 0.00 0.00 1.00 1.00 1dfu 0.40 1.00 0.00 0.00 0.00 0.00 0.08 0.08 0.00 0.00 0.99 1.00 1di2 1.00 0.90 0.00 0.00 0.00 0.00 0.25 0.25 0.00 0.00 1.00 1.00 1e8o 0.60 0.40 0.00 0.00 0.00 0.00 0.66 0.66 0.00 0.00 1.00 1.00 1f7u 0.40 1.00 0.00 0.00 0.00 0.00 0.59 0.59 0.00 0.00 1.00 1.00 1feu 0.40 1.00 0.00 0.00 0.00 0.00 0.09 0.09 0.00 0.00 0.99 1.00 1ffy 0.00 0.80 0.00 0.00 0.00 0.01 0.69 0.69 0.00 0.00 1.00 1.00 1fxl 0.00 1.00 0.00 0.00 0.00 0.00 0.49 0.49 0.00 0.00 1.00 1.00 1gtf 1.00 1.00 0.00 0.00 0.00 0.00 0.04 0.04 0.00 0.00 1.00 1.00 1h3e 0.00 0.80 0.00 0.00 0.00 0.00 0.41 0.41 0.00 0.00 1.00 1.00 1h4s 0.10 0.50 0.00 0.00 0.00 0.01 0.88 0.88 0.00 0.00 1.00 1.00 1hq1 0.60 0.00 0.00 0.00 0.00 0.00 0.74 0.74 0.00 0.00 1.00 1.00 1j1u 1.00 1.00 0.00 0.00 0.00 0.00 0.17 0.17 0.00 0.00 1.00 1.00 1j2b 0.00 0.90 0.00 0.01 0.00 0.01 0.87 0.87 0.00 0.01 1.00 1.00 1jbs 0.00 0.20 0.00 0.00 0.00 0.00 0.75 0.75 0.00 0.00 1.00 1.00 1jid 0.20 1.00 0.00 0.00 0.00 0.00 0.06 0.07 0.00 0.00 0.99 1.00 1k8w 0.10 1.00 0.00 0.00 0.00 0.01 0.61 0.61 0.00 0.00 1.00 1.00 1knz 0.00 0.50 0.00 0.00 0.00 0.00 0.69 0.69 0.00 0.00 1.00 1.00 1lng 0.60 0.90 0.00 0.00 0.00 0.00 0.27 0.27 0.00 0.00 1.00 1.00 1m8v 1.00 0.90 0.00 0.00 0.00 0.00 0.30 0.30 0.00 0.00 1.00 1.00 1m8x 0.70 1.00 0.00 0.00 0.00 0.00 0.16 0.16 0.00 0.00 1.00 1.00 1mzp 0.00 0.60 0.00 0.00 0.00 0.01 0.84 0.84 0.00 0.00 1.00 1.00 1n35 0.00 0.00 0.00 0.00 0.00 0.00 0.93 0.93 0.00 0.00 1.00 1.00 1n78 0.00 1.00 0.00 0.00 0.00 0.00 0.56 0.56 0.00 0.00 1.00 1.00 1ooa 0.60 0.90 0.00 0.00 0.00 0.00 0.13 0.13 0.00 0.00 1.00 1.00 1pgl 1.00 1.00 0.00 0.00 0.00 0.00 0.07 0.07 0.00 0.00 1.00 1.00 1q2r 0.00 1.00 0.00 0.00 0.00 0.00 0.54 0.54 0.00 0.00 1.00 1.00 1qf6 0.00 1.00 0.00 0.01 0.00 0.02 0.88 0.89 0.00 0.01 1.00 1.00 1qtq 0.00 1.00 0.00 0.00 0.00 0.01 0.70 0.70 0.00 0.00 1.00 1.00 1r3e 0.00 0.90 0.00 0.00 0.00 0.01 0.66 0.67 0.00 0.00 1.00 1.00 1r9f 1.00 1.00 0.00 0.00 0.00 0.00 0.07 0.07 0.00 0.00 1.00 1.00 1sds 0.50 0.40 0.00 0.00 0.00 0.00 0.58 0.58 0.00 0.00 1.00 1.00 1ser 0.00 0.60 0.00 0.00 0.00 0.00 0.70 0.70 0.00 0.00 1.00 1.00 1si3 0.00 1.00 0.00 0.00 0.00 0.00 0.23 0.23 0.00 0.00 1.00 1.00 1t0k 0.80 0.00 0.00 0.00 0.00 0.00 0.63 0.63 0.00 0.00 1.00 1.00 1tfw 0.00 0.40 0.00 0.02 0.00 0.03 0.98 0.98 0.00 0.02 1.00 1.00 1u0b 0.00 1.00 0.00 0.00 0.00 0.01 0.74 0.74 0.00 0.00 1.00 1.00 1un6 0.00 0.90 0.00 0.00 0.00 0.00 0.60 0.61 0.00 0.00 1.00 1.00 1uvj 0.00 0.40 0.00 0.00 0.00 0.00 0.79 0.79 0.00 0.00 1.00 1.00 1vfg 0.90 0.90 0.00 0.00 0.00 0.00 0.07 0.07 0.00 0.00 1.00 1.00 1wpu 1.00 1.00 0.00 0.00 0.00 0.00 0.13 0.13 0.00 0.00 1.00 1.00 1wsu 0.00 0.60 0.00 0.00 0.00 0.00 0.52 0.52 0.00 0.00 1.00 1.00 1wz2 0.00 0.90 0.00 0.00 0.00 0.01 0.75 0.76 0.00 0.00 1.00 1.00 Resultats globaux des 120 complexes de la P ´ RIDB sous le seuil du top10 des candidats : avec les mesures d’evaluation globales pour chacun des complexes pour la ´ fonction de score par defaut de RosettaDock (ROS) et la fonction de score atomique ´ apprise avec ROGER (POS). 146Precision ´ Rappel Fscore Accuracy Sensibilite´ Specificit ´ e´ pdb ROS POS ROS POS ROS POS ROS POS ROS POS ROS POS 1yvp 0.80 1.00 0.00 0.00 0.00 0.00 0.06 0.06 0.00 0.00 1.00 1.00 1zbh 0.20 0.80 0.00 0.00 0.00 0.00 0.62 0.62 0.00 0.00 1.00 1.00 2a8v 0.20 0.50 0.00 0.00 0.00 0.00 0.52 0.52 0.00 0.00 1.00 1.00 2anr 0.70 0.10 0.00 0.00 0.00 0.00 0.71 0.71 0.00 0.00 1.00 1.00 2asb 0.20 1.00 0.00 0.00 0.00 0.00 0.45 0.45 0.00 0.00 1.00 1.00 2az0 0.00 0.40 0.00 0.00 0.00 0.01 0.86 0.86 0.00 0.00 1.00 1.00 2azx 0.00 0.90 0.00 0.00 0.00 0.00 0.28 0.28 0.00 0.00 1.00 1.00 2b3j 0.00 1.00 0.00 0.00 0.00 0.00 0.28 0.28 0.00 0.00 1.00 1.00 2bgg 0.00 1.00 0.00 0.00 0.00 0.00 0.46 0.46 0.00 0.00 1.00 1.00 2bh2 0.00 1.00 0.00 0.00 0.00 0.01 0.77 0.77 0.00 0.00 1.00 1.00 2bte 0.70 1.00 0.00 0.00 0.00 0.00 0.28 0.28 0.00 0.00 1.00 1.00 2bu1 0.50 0.30 0.00 0.00 0.00 0.00 0.61 0.61 0.00 0.00 1.00 1.00 2bx2 0.00 0.80 0.00 0.00 0.00 0.00 0.65 0.66 0.00 0.00 1.00 1.00 2ct8 0.30 1.00 0.00 0.00 0.00 0.00 0.42 0.42 0.00 0.00 1.00 1.00 2czj 1.00 1.00 0.00 0.00 0.00 0.00 0.09 0.09 0.00 0.00 1.00 1.00 2d6f 1.00 0.50 0.00 0.00 0.00 0.00 0.16 0.15 0.00 0.00 1.00 1.00 2der 0.00 0.90 0.00 0.00 0.00 0.01 0.65 0.65 0.00 0.00 1.00 1.00 2du3 0.90 1.00 0.00 0.00 0.00 0.00 0.08 0.09 0.00 0.00 1.00 1.00 2e9t 0.00 0.90 0.00 0.01 0.00 0.01 0.83 0.83 0.00 0.01 1.00 1.00 2f8k 0.90 0.50 0.00 0.00 0.00 0.00 0.50 0.50 0.00 0.00 1.00 1.00 2f8s 0.60 1.00 0.00 0.00 0.00 0.00 0.32 0.32 0.00 0.00 1.00 1.00 2fk6 1.00 0.90 0.00 0.00 0.00 0.00 0.18 0.18 0.00 0.00 1.00 1.00 2fmt 0.00 1.00 0.00 0.00 0.00 0.01 0.73 0.73 0.00 0.00 1.00 1.00 2gic 0.00 0.60 0.00 0.00 0.00 0.00 0.60 0.60 0.00 0.00 1.00 1.00 2gje 0.60 1.00 0.00 0.00 0.00 0.00 0.28 0.28 0.00 0.00 1.00 1.00 2gjw 0.80 1.00 0.00 0.00 0.00 0.00 0.22 0.22 0.00 0.00 1.00 1.00 2gtt 0.00 0.40 0.00 0.00 0.00 0.00 0.76 0.76 0.00 0.00 1.00 1.00 2gxb 0.00 0.40 0.00 0.00 0.00 0.00 0.53 0.53 0.00 0.00 1.00 1.00 2hw8 0.90 0.90 0.00 0.00 0.00 0.00 0.27 0.27 0.00 0.00 1.00 1.00 2i82 0.60 1.00 0.00 0.00 0.00 0.00 0.31 0.31 0.00 0.00 1.00 1.00 2iy5 0.00 0.00 0.00 0.00 0.00 0.00 0.91 0.91 0.00 0.00 1.00 1.00 2jlv 0.00 0.10 0.00 0.00 0.00 0.00 0.55 0.55 0.00 0.00 1.00 1.00 2nqp 0.00 0.20 0.00 0.00 0.00 0.00 0.73 0.74 0.00 0.00 1.00 1.00 2nug 0.00 1.00 0.00 0.03 0.00 0.05 0.96 0.96 0.00 0.03 1.00 1.00 2ozb 0.10 1.00 0.00 0.00 0.00 0.01 0.63 0.63 0.00 0.00 1.00 1.00 2pjp 0.10 0.60 0.00 0.00 0.00 0.00 0.70 0.70 0.00 0.00 1.00 1.00 2po1 1.00 0.30 0.00 0.00 0.00 0.00 0.09 0.09 0.00 0.00 1.00 0.99 2qux 0.10 0.00 0.00 0.00 0.00 0.00 0.81 0.81 0.00 0.00 1.00 1.00 2r7r 0.00 0.70 0.00 0.00 0.00 0.00 0.58 0.58 0.00 0.00 1.00 1.00 2r8s 0.80 0.90 0.00 0.00 0.00 0.00 0.27 0.27 0.00 0.00 1.00 1.00 2vnu 0.00 0.20 0.00 0.00 0.00 0.00 0.75 0.75 0.00 0.00 1.00 1.00 2voo 1.00 1.00 0.00 0.00 0.00 0.00 0.25 0.25 0.00 0.00 1.00 1.00 2w2h 0.20 1.00 0.00 0.00 0.00 0.00 0.45 0.45 0.00 0.00 1.00 1.00 2wj8 0.00 0.80 0.00 0.00 0.00 0.01 0.76 0.76 0.00 0.00 1.00 1.00 2z2q 0.30 0.60 0.00 0.00 0.00 0.00 0.41 0.41 0.00 0.00 1.00 1.00 2zi0 0.00 0.60 0.00 0.00 0.00 0.00 0.21 0.21 0.00 0.00 1.00 1.00 2zko 0.00 0.10 0.00 0.00 0.00 0.00 0.87 0.87 0.00 0.00 1.00 1.00 Resultats globaux des 120 complexes de la P ´ RIDB sous le seuil du top10 des candidats : avec les mesures d’evaluation globales pour chacun des complexes pour la ´ fonction de score par defaut de RosettaDock (ROS) et la fonction de score atomique ´ apprise avec ROGER (POS). 147Precision ´ Rappel Fscore Accuracy Sensibilite´ Specificit ´ e´ pdb ROS POS ROS POS ROS POS ROS POS ROS POS ROS POS 2zni 0.00 1.00 0.00 0.00 0.00 0.01 0.73 0.73 0.00 0.00 1.00 1.00 2zue 0.00 1.00 0.00 0.00 0.00 0.00 0.51 0.51 0.00 0.00 1.00 1.00 2zzm 0.00 1.00 0.00 0.01 0.00 0.02 0.87 0.88 0.00 0.01 1.00 1.00 3a6p 0.00 0.70 0.00 0.00 0.00 0.01 0.80 0.80 0.00 0.00 1.00 1.00 3bso 0.00 0.00 0.00 0.00 0.00 0.00 0.75 0.75 0.00 0.00 1.00 1.00 3bt7 0.10 1.00 0.00 0.00 0.00 0.00 0.46 0.46 0.00 0.00 1.00 1.00 3ciy 0.40 0.30 0.00 0.00 0.00 0.00 0.44 0.44 0.00 0.00 1.00 1.00 3d2s 0.60 1.00 0.00 0.00 0.00 0.00 0.11 0.11 0.00 0.00 1.00 1.00 3dd2 0.00 0.30 0.00 0.00 0.00 0.00 0.75 0.75 0.00 0.00 1.00 1.00 3egz 0.60 0.90 0.00 0.00 0.00 0.00 0.48 0.48 0.00 0.00 1.00 1.00 3eph 0.00 1.00 0.00 0.01 0.00 0.02 0.90 0.90 0.00 0.01 1.00 1.00 3eqt 0.20 1.00 0.00 0.00 0.00 0.00 0.48 0.48 0.00 0.00 1.00 1.00 3ex7 0.00 1.00 0.00 0.00 0.00 0.00 0.25 0.25 0.00 0.00 1.00 1.00 3fht 0.00 1.00 0.00 0.00 0.00 0.00 0.17 0.18 0.00 0.00 0.99 1.00 3foz 0.00 1.00 0.00 0.01 0.00 0.01 0.86 0.87 0.00 0.01 1.00 1.00 3gib 0.00 0.50 0.00 0.00 0.00 0.00 0.77 0.77 0.00 0.00 1.00 1.00 3hax 0.10 1.00 0.00 0.01 0.00 0.02 0.90 0.90 0.00 0.01 1.00 1.00 3hl2 0.00 1.00 0.00 0.00 0.00 0.00 0.09 0.09 0.00 0.00 0.99 1.00 3htx 0.00 0.90 0.00 0.01 0.00 0.02 0.89 0.90 0.00 0.01 1.00 1.00 3i5x 0.00 1.00 0.00 0.00 0.00 0.00 0.32 0.32 0.00 0.00 1.00 1.00 3iab 0.00 1.00 0.00 0.00 0.00 0.00 0.52 0.52 0.00 0.00 1.00 1.00 3icq 0.00 0.90 0.00 0.00 0.00 0.00 0.49 0.49 0.00 0.00 1.00 1.00 3iev 0.80 1.00 0.00 0.00 0.00 0.00 0.21 0.21 0.00 0.00 1.00 1.00 3k62 0.90 1.00 0.00 0.00 0.00 0.00 0.15 0.15 0.00 0.00 1.00 1.00 3l25 0.00 0.90 0.00 0.01 0.00 0.01 0.88 0.88 0.00 0.01 1.00 1.00 3snp 0.10 1.00 0.00 0.00 0.00 0.01 0.68 0.68 0.00 0.00 1.00 1.00 TABLE S2 – Resultats globaux des 120 complexes de la P ´ RIDB sous le seuil du top10 des candidats : avec les mesures d’evaluation globales pour chacun des complexes ´ pour la fonction de score par defaut de RosettaDock (ROS) et la fonction de score ´ atomique apprise avec ROGER (POS). 148Precision ´ Rappel Fscore Accuracy Sensibilite´ Specificit ´ e´ pdb ROS POS ROS POS ROS POS ROS POS ROS POS ROS POS 1b7f 0.36 0.75 1.00 0.73 0.53 0.74 0.36 0.82 1.00 0.73 0.00 0.87 1c9s 0.59 0.64 1.00 0.94 0.74 0.77 0.59 0.66 1.00 0.94 0.00 0.25 1dk1 0.77 0.81 1.00 0.97 0.87 0.88 0.77 0.80 1.00 0.97 0.00 0.25 1e7k 0.34 0.34 0.98 1.00 0.50 0.50 0.35 0.34 0.98 1.00 0.04 0.00 1ec6 0.18 0.22 0.99 0.81 0.30 0.34 0.20 0.46 0.99 0.81 0.03 0.39 1efw 0.64 0.73 1.00 0.91 0.78 0.81 0.64 0.73 1.00 0.91 0.00 0.41 1ekz 0.19 0.19 0.89 0.96 0.31 0.31 0.30 0.25 0.89 0.96 0.17 0.09 1g1x 0.88 0.88 1.00 1.00 0.93 0.93 0.88 0.88 1.00 1.00 0.00 0.00 1hc8 0.94 0.95 1.00 1.00 0.97 0.97 0.94 0.94 1.00 1.00 0.00 0.07 1hvu 0.44 0.50 0.99 0.90 0.61 0.65 0.45 0.57 0.99 0.90 0.03 0.32 1jbr 0.92 0.92 1.00 1.00 0.96 0.96 0.92 0.92 1.00 1.00 0.00 0.00 1kog 0.15 0.16 1.00 0.94 0.27 0.28 0.15 0.25 1.00 0.94 0.00 0.12 1kq2 0.26 0.42 1.00 0.65 0.41 0.51 0.26 0.67 1.00 0.65 0.00 0.68 1m5o 0.47 0.66 1.00 0.91 0.64 0.77 0.47 0.74 1.00 0.91 0.00 0.57 1m8w 0.83 0.84 1.00 1.00 0.91 0.91 0.83 0.84 1.00 1.00 0.00 0.02 1mfq 0.78 0.78 1.00 1.00 0.88 0.87 0.78 0.78 1.00 1.00 0.02 0.00 1mms 0.89 0.90 1.00 0.99 0.94 0.94 0.89 0.89 1.00 0.99 0.00 0.13 1msw 0.08 0.91 1.00 0.99 0.16 0.95 0.08 0.99 1.00 0.99 0.00 0.99 1ob2 0.46 0.67 1.00 0.83 0.63 0.74 0.46 0.73 1.00 0.83 0.00 0.65 1t4l 0.79 0.79 1.00 1.00 0.88 0.88 0.79 0.79 1.00 1.00 0.00 0.00 1ttt 0.47 0.59 1.00 0.89 0.64 0.71 0.47 0.65 1.00 0.89 0.00 0.44 1u63 0.83 0.86 1.00 0.97 0.91 0.91 0.83 0.84 1.00 0.97 0.00 0.22 1wne 0.22 0.92 1.00 0.99 0.36 0.95 0.22 0.98 1.00 0.99 0.00 0.98 1zbi 0.22 0.37 1.00 0.71 0.37 0.49 0.22 0.67 1.00 0.71 0.00 0.66 2ad9 0.92 0.92 1.00 1.00 0.96 0.96 0.92 0.92 1.00 1.00 0.00 0.01 2adb 0.92 0.95 1.00 0.97 0.96 0.96 0.92 0.93 1.00 0.97 0.00 0.48 2adc 0.69 0.85 1.00 0.85 0.82 0.85 0.69 0.79 1.00 0.85 0.00 0.67 2b6g 0.52 0.52 1.00 1.00 0.69 0.69 0.52 0.52 1.00 1.00 0.00 0.00 2c0b 0.39 0.67 1.00 0.82 0.57 0.73 0.39 0.77 1.00 0.82 0.00 0.73 2dra 0.14 0.63 1.00 0.67 0.25 0.65 0.14 0.90 1.00 0.67 0.00 0.93 2err 0.83 0.92 1.00 0.97 0.90 0.95 0.83 0.91 1.00 0.97 0.00 0.60 2ez6 0.52 0.53 1.00 0.98 0.69 0.69 0.53 0.54 1.00 0.98 0.01 0.06 2hgh 0.54 0.76 1.00 0.80 0.70 0.78 0.54 0.75 1.00 0.80 0.00 0.70 2i91 0.17 0.81 1.00 0.85 0.29 0.83 0.17 0.94 1.00 0.85 0.00 0.96 2ix1 0.18 0.66 1.00 0.91 0.30 0.76 0.18 0.90 1.00 0.91 0.00 0.89 2py9 0.80 0.88 1.00 0.98 0.89 0.92 0.80 0.87 1.00 0.98 0.00 0.44 3bo2 0.37 0.55 1.00 0.89 0.54 0.68 0.37 0.69 1.00 0.89 0.00 0.57 3bsb 0.83 0.84 1.00 1.00 0.91 0.91 0.83 0.84 1.00 1.00 0.00 0.02 3bsx 0.84 0.85 1.00 1.00 0.92 0.92 0.84 0.85 1.00 1.00 0.00 0.02 3bx2 0.86 0.87 1.00 0.99 0.92 0.93 0.86 0.86 1.00 0.99 0.00 0.07 TABLE S3 – Resultats globaux des ´ Benchmarks I et II : avec les mesures d’evaluation ´ globales pour chacun des complexes pour la fonction de score par defaut de Rosetta- ´ Dock (ROS) et la fonction de score atomique apprise avec ROGER (POS). 149Precision ´ Rappel Fscore Accuracy Sensibilite´ Specificit ´ e´ pdb ROS POS ROS POS ROS POS ROS POS ROS POS ROS POS 1m5o 0.48 0.66 1.00 0.81 0.65 0.73 0.48 0.71 1.00 0.81 0.00 0.62 1qtq 0.28 0.73 1.00 0.76 0.44 0.74 0.28 0.85 1.00 0.76 0.00 0.89 1wpu 0.87 0.88 1.00 1.00 0.93 0.93 0.87 0.88 1.00 1.00 0.00 0.05 1yvp 0.94 0.94 1.00 1.00 0.97 0.97 0.94 0.94 1.00 1.00 0.00 0.00 1zbh 0.98 0.99 1.00 1.00 0.99 0.99 0.98 0.99 1.00 1.00 0.00 0.21 2ad9 0.00 0.00 1.00 1.00 0.00 0.01 0.02 0.98 1.00 1.00 0.02 0.98 TABLE S4 – Resultats globaux des 6 complexes avec prot ´ eine non li ´ ee : avec les ´ mesures d’evaluation globales pour chacun des complexes pour la fonction de score ´ par defaut de RosettaDock (ROS) et la fonction de score atomique apprise avec ´ ROGER (POS). 150pdb ES Top10 Top100 # presque-natifs ROC-AUC ROS POS ROS POS Attendu ROS POS ROS POS 1b7f 0.47 5.15 1 10 3.58 1 100 3579 0.32 0.89 1c9s 0.90 1.19 6 7 5.91 25 81 5905 0.37 0.69 1dk1 2.32 2.58 9 8 7.66 89 97 7660 0.61 0.82 1e7k 0.67 1.33 2 1 3.36 11 16 3359 0.50 0.53 1ec6 0.31 0.88 1 0 1.73 3 14 1730 0.44 0.60 1efw 0.41 2.90 0 10 6.37 0 96 6366 0.33 0.79 1ekz 0.95 0.81 4 1 1.77 18 20 1768 0.52 0.52 1g1x 3.32 0.54 2 6 8.76 85 82 8764 0.59 0.51 1hc8 1.56 3.63 10 10 9.43 94 100 9433 0.49 0.79 1hvu 0.77 1.93 2 2 4.37 42 48 4366 0.50 0.70 1jbr 3.56 0.02 9 9 9.23 71 86 9229 0.45 0.65 1kog 0.95 1.14 3 1 1.53 11 23 1532 0.49 0.54 1kq2 0.09 5.40 0 9 2.60 0 89 2602 0.31 0.74 1m5o 1.06 1.33 6 5 4.75 6 78 4748 0.24 0.83 1m8w 1.79 1.27 4 10 8.34 80 97 8343 0.37 0.74 1mfq 1.36 2.35 10 3 7.76 91 52 7757 0.62 0.59 1mms 2.52 3.31 10 9 8.86 85 96 8859 0.50 0.86 1msw 0.00 8.84 0 10 0.84 0 98 841 0.08 1.00 1ob2 0.78 3.38 7 10 4.63 12 97 4625 0.41 0.83 1t4l 0.56 1.64 10 10 7.85 98 95 7852 0.52 0.61 1ttt 0.76 3.25 6 10 4.69 11 97 4691 0.39 0.78 1u63 3.14 1.13 7 10 8.34 72 100 8338 0.44 0.86 1wne 0.01 4.41 0 7 2.21 0 96 2213 0.17 0.99 1zbi 0.37 2.95 0 8 2.23 0 69 2231 0.34 0.75 2ad9 1.99 2.53 10 10 9.18 84 100 9179 0.31 0.90 2adb 1.03 3.37 10 10 9.18 75 100 9180 0.25 0.89 2adc 3.38 2.61 3 10 6.94 40 100 6940 0.44 0.86 2b6g 1.73 0.02 9 6 5.23 93 62 5228 0.58 0.42 2c0b 0.00 2.98 0 8 3.94 0 91 3937 0.26 0.86 2dra 0.03 6.16 0 8 1.42 0 88 1419 0.32 0.91 2err 1.27 2.48 8 10 8.26 20 100 8263 0.15 0.92 2ez6 1.42 2.92 10 9 5.24 87 67 5235 0.58 0.62 2hgh 0.74 1.03 0 4 5.39 0 69 5387 0.25 0.82 2i91 0.47 7.35 0 10 1.73 0 95 1726 0.28 0.98 2ix1 0.02 2.14 0 4 1.80 0 55 1795 0.17 0.94 2py9 4.28 2.95 9 10 8.01 89 98 8014 0.50 0.83 3bo2 0.66 2.73 4 6 3.66 4 82 3663 0.31 0.80 3bsb 1.60 1.55 7 10 8.35 81 100 8348 0.36 0.80 3bsx 1.60 1.20 3 10 8.45 83 100 8448 0.32 0.82 3bx2 1.83 3.09 8 10 8.60 75 100 8595 0.33 0.84 TABLE S5 – Resultats pour les 40 complexes utilis ´ es des ´ Benchmarks I et II : score d’enrichissement (ES), nombre de presque-natifs dans le top10, nombre de presquenatifs attendus en moyenne par un tri aleatoire, nombre de presque-natifs dans le ´ top100, nombre de presque-natifs sur les 10 000 structures et aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb evalu ´ e.´ 151pdb ES Top10 Top100 # presque-natifs ROC-AUC ROS POS ROS POS Attendu ROS POS ROS POS 1m5o 0.43 4.75 0 4 4.79 3 66 4790 0.25 0.79 1qtq 0.00 6.09 0 10 2.80 0 98 2798 0.24 0.91 1wpu 1.60 3.15 9 10 8.72 71 100 8723 0.47 0.70 1yvp 0.93 0.20 6 10 9.36 61 100 9362 0.29 0.81 1zbh 0.88 0.00 5 10 9.83 82 100 9834 0.12 0.96 2ad9 0.00 6.06 0 0 0.00 0 0 1 0.02 0.98 TABLE S6 – Resultats pour les 6 complexes dans le cas de la prot ´ eine non li ´ ee des ´ Benchmarks I et II : score d’enrichissement (ES), nombre de presque-natifs dans le top10, nombre de presque-natifs attendus en moyenne par un tri aleatoire, nombre de ´ presque-natifs dans le top100, nombre de presque-natifs sur les 10 000 structures et aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb evalu ´ e.´ 152pdb ES Top10 Attendu Top100 # presque-natifs ROC-AUC 1asy 2.35 0 0.008 0 8 0.59 1av6 2.43 5 0.654 19 654 0.71 1b23 1.67 0 0.024 1 24 0.72 1c0a 1.89 0 0.001 0 1 0.77 1ddl 1.21 0 0.327 1 327 0.61 1dfu 1.20 2 0.743 9 743 0.66 1di2 0.93 0 0.114 0 114 0.52 1e8o 1.43 0 0.743 10 743 0.60 1f7u 2.56 0 0.007 1 7 0.86 1feu 1.97 2 0.378 17 378 0.69 1ffy 2.30 0 0.008 2 8 0.88 1fxl 4.43 8 0.589 64 589 0.85 1gtf 1.55 10 6.307 99 6307 0.70 1h3e 1.98 0 0.024 1 24 0.75 1h4s 1.73 0 0.036 1 36 0.67 1hq1 1.27 0 0.684 9 684 0.60 1j1u 1.66 0 0.112 1 112 0.54 1j2b 2.15 0 0.001 0 1 0.72 1jbs 2.57 0 0.499 20 499 0.71 1jid 1.91 1 0.377 11 377 0.65 1k8w 3.16 2 0.151 16 151 0.84 1knz 3.26 10 1.136 90 1136 0.73 1lng 1.80 2 0.13 6 130 0.65 1m8v 1.70 10 6.192 92 6192 0.61 1m8x 1.91 4 0.899 25 899 0.67 1mzp 1.85 2 0.148 8 148 0.69 1n35 4.40 2 0.017 17 17 1.00 1n78 2.08 0 0.01 1 10 0.83 1ooa 2.92 0 0.497 21 497 0.76 1pgl 1.85 2 0.898 26 898 0.63 1q2r 1.62 0 0.043 0 43 0.51 1qf6 2.06 0 0.005 1 5 0.85 1qtq 2.05 0 0.007 3 7 0.93 1r3e 1.78 0 0.028 0 28 0.59 1r9f 1.77 0 0.2 2 200 0.71 1sds 1.47 2 2.19 36 2190 0.67 1ser 1.95 0 0.008 1 8 0.88 1si3 2.33 4 0.547 23 547 0.69 1t0k 1.08 0 0.382 1 382 0.56 1tfw 2.99 0 0.004 0 4 0.98 1u0b 2.24 1 0.014 3 14 0.83 1un6 3.44 1 0.129 20 129 0.85 1uvj 5.06 8 0.357 62 357 0.94 1vfg 2.02 1 0.248 7 248 0.68 1wpu 1.53 1 1.162 21 1162 0.65 1wsu 1.26 0 2.288 20 2288 0.59 1wz2 2.18 0 0 0 0 1.00 Resultats de la fonction de score gros-grain VOR pour les 120 complexes de la P ´ RIDB : score d’enrichissement (ES), nombre de presque-natifs dans le top10, nombre de presque-natifs attendus en moyenne par un tri aleatoire, nombre de presque-natifs ´ dans le top100, nombre de presque-natifs sur les 10 000 structures et aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb evalu ´ e.´ 153pdb ES Top10 Attendu Top100 # presque-natifs ROC-AUC 1yvp 1.72 1 0.13 4 130 0.64 1zbh 2.07 4 0.967 30 967 0.62 2a8v 2.22 10 5.018 90 5018 0.67 2anr 1.52 3 0.929 22 929 0.59 2asb 2.80 3 0.186 9 186 0.80 2az0 2.83 1 0.2 3 200 0.69 2azx 2.00 0 0.011 0 11 0.70 2b3j 2.39 2 0.426 29 426 0.71 2bgg 2.13 2 0.131 8 131 0.63 2bh2 3.23 0 0.051 12 51 0.84 2bte 2.46 0 0.002 1 2 0.98 2bu1 1.88 2 1.291 22 1291 0.65 2bx2 1.74 3 0.31 9 310 0.62 2ct8 1.92 0 0.029 1 29 0.64 2czj 2.69 2 0.207 9 207 0.76 2d6f 1.58 0 0.087 2 87 0.55 2der 1.10 0 0.029 0 29 0.72 2du3 1.20 0 0.186 1 186 0.56 2e9t 2.75 1 0.06 16 60 0.80 2f8k 1.33 3 3.82 52 3820 0.53 2f8s 1.21 0 0.076 0 76 0.39 2fk6 2.18 0 0.092 5 92 0.70 2fmt 1.82 0 0.018 0 18 0.67 2gic 4.48 7 0.103 38 103 0.94 2gje 2.11 0 0.079 3 79 0.72 2gjw 1.98 0 0.078 3 78 0.70 2gtt 3.91 5 0.069 24 69 0.91 2gxb 1.99 7 3.404 65 3404 0.64 2hw8 2.10 1 0.149 13 149 0.75 2i82 2.80 2 0.159 19 159 0.83 2iy5 1.22 0 0.001 0 1 0.51 2jlv 4.63 8 0.416 59 416 0.90 2nqp 2.10 1 0.296 15 296 0.70 2nug 2.19 0 0.001 0 1 0.97 2ozb 2.20 2 0.078 4 78 0.74 2pjp 2.14 1 0.576 15 576 0.65 2po1 1.91 1 0.19 4 190 0.65 2qux 2.53 1 0.26 7 260 0.74 2r7r 3.19 3 0.074 25 74 0.95 2r8s 1.31 0 0.039 0 39 0.56 2vnu 5.79 8 0.123 38 123 0.98 2voo 4.88 10 3.261 97 3261 0.77 2w2h 1.30 0 0.018 0 18 0.46 2wj8 3.08 3 0.43 29 430 0.79 2z2q 1.73 3 0.863 20 863 0.57 2zi0 0.86 3 1.278 15 1278 0.49 2zko 3.61 1 0.181 11 181 0.80 Resultats de la fonction de score gros-grain VOR pour les 120 complexes de la P ´ RIDB : score d’enrichissement (ES), nombre de presque-natifs dans le top10, nombre de presque-natifs attendus en moyenne par un tri aleatoire, nombre de presque-natifs ´ dans le top100, nombre de presque-natifs sur les 10 000 structures et aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb evalu ´ e.´ 154pdb ES Top10 Attendu Top100 # presque-natifs ROC-AUC 2zni 1.91 1 0.017 2 17 0.83 2zue 2.77 0 0.004 0 4 0.95 2zzm 3.59 2 0.009 4 9 0.93 3a6p 2.19 0 0.001 1 1 0.99 3bso 2.74 2 0.038 12 38 0.85 3bt7 3.59 6 0.192 36 192 0.87 3ciy 1.43 0 0.01 2 10 0.79 3d2s 1.63 10 5.557 93 5557 0.62 3dd2 1.95 1 0.232 6 232 0.74 3egz 1.41 0 0.235 5 235 0.57 3eph 2.01 0 0.001 0 1 0.99 3eqt 3.87 2 0.405 24 405 0.80 3ex7 2.03 1 0.239 12 239 0.71 3fht 2.05 2 0.513 8 513 0.65 3foz 1.81 0 0.019 4 19 0.89 3gib 1.67 1 0.641 13 641 0.63 3hax 2.07 0 0.008 0 8 0.62 3hl2 2.07 0 0.015 1 15 0.67 3htx 1.59 0 0.014 0 14 0.65 3i5x 2.48 0 0.175 3 175 0.74 3iab 3.35 0 0.03 3 30 0.82 3icq 2.64 0 0.002 0 2 0.91 3iev 1.90 1 0.227 8 227 0.68 3k62 2.34 4 0.486 19 486 0.69 3l25 7.94 3 0.247 26 247 0.97 3snp 2.68 0 0.041 8 41 0.85 TABLE S7 – Resultats de la fonction de score gros-grain VOR pour les 120 com- ´ plexes de la PRIDB : score d’enrichissement (ES), nombre de presque-natifs dans le top10, nombre de presque-natifs attendus en moyenne par un tri aleatoire, nombre de ´ presque-natifs dans le top100, nombre de presque-natifs sur les 10 000 structures et aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb evalu ´ e.´ 155pdb ES Top10 Attendu Top100 # presque-natifs ROC-AUC 1asy 0.43 0 0.008 0 8 0.35 1av6 0.46 0 0.654 0 654 0.37 1b23 1.16 0 0.024 0 24 0.60 1c0a 0.79 0 0.001 0 1 0.04 1ddl 1.12 0 0.327 0 327 0.53 1dfu 0.31 1 0.743 2 743 0.31 1di2 0.82 0 0.114 1 114 0.39 1e8o 0.88 0 0.743 0 743 0.54 1f7u 0.38 0 0.007 0 7 0.16 1feu 0.23 0 0.378 1 378 0.38 1ffy 0.65 0 0.008 0 8 0.15 1fxl 0.46 0 0.589 2 589 0.38 1gtf 1.27 7 6.307 53 6307 0.48 1h3e 0.51 0 0.024 0 24 0.36 1h4s 0.73 0 0.036 0 36 0.34 1hq1 0.50 0 0.684 0 684 0.41 1j1u 0.65 0 0.112 0 112 0.43 1j2b 0.16 0 0.001 0 1 0.12 1jbs 0.92 0 0.499 2 499 0.56 1jid 0.38 0 0.377 0 377 0.32 1k8w 1.58 0 0.151 0 151 0.47 1knz 0.10 0 1.136 1 1136 0.26 1lng 0.32 0 0.13 0 130 0.34 1m8v 0.48 0 6.192 34 6192 0.44 1m8x 0.40 0 0.899 6 899 0.41 1mzp 0.60 0 0.148 0 148 0.40 1n35 0.12 0 0.017 0 17 0.01 1n78 0.46 0 0.01 0 10 0.13 1ooa 0.15 0 0.497 2 497 0.27 1pgl 0.35 0 0.898 0 898 0.30 1q2r 1.00 0 0.043 1 43 0.46 1qf6 0.81 0 0.005 0 5 0.18 1qtq 0.59 0 0.007 0 7 0.09 1r3e 0.73 0 0.028 0 28 0.39 1r9f 0.49 0 0.2 0 200 0.38 1sds 0.69 4 2.19 15 2190 0.52 1ser 0.33 0 0.008 0 8 0.12 1si3 0.18 0 0.547 0 547 0.25 1t0k 0.19 0 0.382 1 382 0.33 1tfw 0.27 0 0.004 0 4 0.13 1u0b 0.37 0 0.014 0 14 0.14 1un6 0.21 0 0.129 0 129 0.20 1uvj 0.02 0 0.357 0 357 0.09 1vfg 0.51 0 0.248 0 248 0.40 1wpu 0.62 0 1.162 5 1162 0.48 1wsu 0.71 0 2.288 7 2288 0.50 1wz2 0.29 0 0 0 0 1.00 Resultats de la fonction de score gros-grain avec poids positifs pour les 120 com- ´ plexes de la PRIDB : score d’enrichissement (ES), nombre de presque-natifs dans le top10, nombre de presque-natifs attendus en moyenne par un tri aleatoire, nombre de ´ presque-natifs dans le top100, nombre de presque-natifs sur les 10 000 structures et aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb evalu ´ e.´ 156pdb ES Top10 Attendu Top100 # presque-natifs ROC-AUC 1yvp 0.89 0 0.13 1 130 0.33 1zbh 0.23 0 0.967 0 967 0.29 2a8v 0.69 5 5.018 54 5018 0.46 2anr 0.35 0 0.929 1 929 0.38 2asb 0.32 0 0.186 0 186 0.27 2az0 0.64 0 0.2 0 200 0.32 2azx 0.76 0 0.011 0 11 0.33 2b3j 0.34 0 0.426 0 426 0.28 2bgg 0.52 0 0.131 0 131 0.50 2bh2 0.84 0 0.051 0 51 0.40 2bte 0.33 0 0.002 0 2 0.02 2bu1 0.35 1 1.291 4 1291 0.38 2bx2 0.90 0 0.31 0 310 0.35 2ct8 0.84 0 0.029 0 29 0.39 2czj 0.63 0 0.207 0 207 0.34 2d6f 0.53 0 0.087 0 87 0.49 2der 1.27 0 0.029 0 29 0.45 2du3 0.78 0 0.186 2 186 0.44 2e9t 0.40 0 0.06 0 60 0.27 2f8k 0.66 0 3.82 14 3820 0.47 2f8s 0.87 0 0.076 3 76 0.62 2fk6 0.48 0 0.092 0 92 0.34 2fmt 0.15 0 0.018 0 18 0.25 2gic 0.18 0 0.103 0 103 0.07 2gje 0.26 0 0.079 0 79 0.28 2gjw 0.45 0 0.078 0 78 0.54 2gtt 0.01 0 0.069 0 69 0.07 2gxb 0.16 1 3.404 8 3404 0.32 2hw8 0.27 0 0.149 0 149 0.21 2i82 0.49 0 0.159 0 159 0.21 2iy5 0.47 0 0.001 0 1 0.51 2jlv 0.54 0 0.416 1 416 0.17 2nqp 0.27 0 0.296 0 296 0.34 2nug 0.34 0 0.001 0 1 0.28 2ozb 1.10 0 0.078 2 78 0.52 2pjp 0.70 0 0.576 1 576 0.40 2po1 0.16 0 0.19 0 190 0.35 2qux 0.06 0 0.26 0 260 0.20 2r7r 0.48 0 0.074 0 74 0.45 2r8s 0.62 0 0.039 0 39 0.50 2vnu 0.21 0 0.123 0 123 0.18 2voo 0.00 0 3.261 3 3261 0.34 2w2h 0.81 0 0.018 0 18 0.52 2wj8 0.01 0 0.43 0 430 0.17 2z2q 0.71 0 0.863 2 863 0.45 2zi0 1.07 1 1.278 14 1278 0.51 2zko 0.32 0 0.181 0 181 0.17 Resultats de la fonction de score gros-grain avec poids positifs pour les 120 com- ´ plexes de la PRIDB : score d’enrichissement (ES), nombre de presque-natifs dans le top10, nombre de presque-natifs attendus en moyenne par un tri aleatoire, nombre de ´ presque-natifs dans le top100, nombre de presque-natifs sur les 10 000 structures et aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb evalu ´ e.´ 157pdb ES Top10 Attendu Top100 # presque-natifs ROC-AUC 2zni 0.45 0 0.017 0 17 0.16 2zue 0.18 0 0.004 0 4 0.15 2zzm 0.37 0 0.009 0 9 0.11 3a6p 0.34 0 0.001 0 1 0.31 3bso 0.57 0 0.038 0 38 0.22 3bt7 0.63 0 0.192 0 192 0.17 3ciy 0.89 0 0.01 0 10 0.23 3d2s 1.00 5 5.557 47 5557 0.49 3dd2 0.68 0 0.232 0 232 0.36 3egz 0.67 0 0.235 1 235 0.38 3eph 0.18 0 0.001 0 1 0.01 3eqt 0.21 0 0.405 0 405 0.22 3ex7 1.09 0 0.239 1 239 0.46 3fht 0.88 0 0.513 2 513 0.51 3foz 0.82 0 0.019 0 19 0.20 3gib 0.62 0 0.641 2 641 0.41 3hax 0.83 0 0.008 0 8 0.40 3hl2 0.48 0 0.015 0 15 0.42 3htx 0.77 0 0.014 0 14 0.36 3i5x 0.19 0 0.175 0 175 0.21 3iab 0.05 0 0.03 0 30 0.15 3icq 0.20 0 0.002 0 2 0.08 3iev 0.31 0 0.227 0 227 0.19 3k62 0.34 0 0.486 1 486 0.31 3l25 0.04 0 0.247 0 247 0.08 3snp 0.63 0 0.041 0 41 0.31 TABLE S8 – Resultats de la fonction de score gros-grain avec poids positifs pour les 120 ´ complexes de la PRIDB : score d’enrichissement (ES), nombre de presque-natifs dans le top10, nombre de presque-natifs attendus en moyenne par un tri aleatoire, nombre ´ de presque-natifs dans le top100, nombre de presque-natifs sur les 10 000 structures et aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb evalu ´ e.´ 158pdb ES Top10 Attendu Top100 # presque-natifs ROC-AUC 1asy 0.69 0 0.008 0 8 0.46 1av6 0.93 0 0.654 2 654 0.48 1b23 0.77 0 0.024 0 24 0.48 1c0a 0.81 0 0.001 0 1 0.48 1ddl 1.04 0 0.327 1 327 0.48 1dfu 1.08 2 0.743 14 743 0.52 1di2 1.06 1 0.114 1 114 0.45 1e8o 0.80 0 0.743 5 743 0.49 1f7u 0.52 0 0.007 0 7 0.38 1feu 1.07 1 0.378 4 378 0.48 1ffy 0.65 0 0.008 0 8 0.46 1fxl 0.63 0 0.589 0 589 0.45 1gtf 1.12 8 6.307 65 6307 0.51 1h3e 0.80 0 0.024 0 24 0.39 1h4s 0.86 0 0.036 0 36 0.46 1hq1 0.96 1 0.684 7 684 0.50 1j1u 0.98 1 0.112 3 112 0.55 1j2b 0.73 0 0.001 0 1 0.51 1jbs 0.86 0 0.499 1 499 0.49 1jid 1.04 0 0.377 4 377 0.48 1k8w 0.71 0 0.151 0 151 0.47 1knz 0.81 1 1.136 11 1136 0.50 1lng 0.97 0 0.13 0 130 0.45 1m8v 1.07 5 6.192 57 6192 0.49 1m8x 1.04 1 0.899 7 899 0.51 1mzp 0.93 0 0.148 0 148 0.44 1n35 0.73 0 0.017 0 17 0.27 1n78 0.71 0 0.01 0 10 0.45 1ooa 0.74 1 0.497 3 497 0.46 1pgl 1.04 2 0.898 6 898 0.50 1q2r 1.07 0 0.043 0 43 0.53 1qf6 0.85 0 0.005 0 5 0.52 1qtq 0.69 0 0.007 0 7 0.34 1r3e 1.07 0 0.028 0 28 0.45 1r9f 0.98 0 0.2 2 200 0.43 1sds 1.04 1 2.19 16 2190 0.50 1ser 0.82 0 0.008 0 8 0.41 1si3 0.80 0 0.547 3 547 0.46 1t0k 0.88 0 0.382 3 382 0.50 1tfw 0.95 0 0.004 0 4 0.61 1u0b 0.71 0 0.014 1 14 0.55 1un6 0.34 0 0.129 0 129 0.36 1uvj 0.94 1 0.357 5 357 0.51 1vfg 0.81 0 0.248 1 248 0.44 1wpu 0.96 2 1.162 6 1162 0.49 1wsu 1.02 4 2.288 29 2288 0.51 1wz2 0.60 0 0 0 0 1.00 Resultats de la fonction de score gros-grain non lin ´ eaire avec valeurs de centrage ´ pour les 120 complexes de la PRIDB : score d’enrichissement (ES), nombre de presque-natifs dans le top10, nombre de presque-natifs attendus en moyenne par un tri aleatoire, nombre de presque-natifs dans le top100, nombre de presque-natifs sur ´ les 10 000 structures et aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb evalu ´ e. ´ 159pdb ES Top10 Attendu Top100 # presque-natifs ROC-AUC 1yvp 0.99 0 0.13 3 130 0.48 1zbh 0.87 0 0.967 4 967 0.48 2a8v 0.77 3 5.018 43 5018 0.49 2anr 0.71 0 0.929 4 929 0.47 2asb 0.86 0 0.186 0 186 0.46 2az0 1.40 1 0.2 5 200 0.51 2azx 0.83 0 0.011 1 11 0.52 2b3j 0.66 0 0.426 1 426 0.49 2bgg 0.92 0 0.131 2 131 0.53 2bh2 0.65 0 0.051 1 51 0.39 2bte 0.55 0 0.002 0 2 0.17 2bu1 0.96 1 1.291 8 1291 0.49 2bx2 1.09 0 0.31 0 310 0.48 2ct8 0.75 0 0.029 0 29 0.39 2czj 0.75 0 0.207 1 207 0.49 2d6f 1.00 0 0.087 3 87 0.53 2der 0.94 0 0.029 0 29 0.48 2du3 0.91 0 0.186 3 186 0.47 2e9t 0.91 1 0.06 2 60 0.49 2f8k 1.06 5 3.82 43 3820 0.49 2f8s 1.04 0 0.076 2 76 0.53 2fk6 0.65 0 0.092 0 92 0.41 2fmt 0.89 0 0.018 0 18 0.41 2gic 0.40 0 0.103 0 103 0.42 2gje 0.69 0 0.079 0 79 0.49 2gjw 0.89 0 0.078 0 78 0.47 2gtt 0.40 0 0.069 0 69 0.34 2gxb 0.96 4 3.404 39 3404 0.49 2hw8 0.59 0 0.149 0 149 0.39 2i82 0.86 0 0.159 2 159 0.46 2iy5 0.87 0 0.001 0 1 0.02 2jlv 1.01 1 0.416 6 416 0.50 2nqp 0.84 0 0.296 1 296 0.51 2nug 1.09 0 0.001 0 1 0.42 2ozb 0.64 0 0.078 0 78 0.47 2pjp 0.86 0 0.576 1 576 0.49 2po1 0.86 0 0.19 1 190 0.48 2qux 0.79 0 0.26 1 260 0.46 2r7r 0.73 0 0.074 0 74 0.40 2r8s 0.85 0 0.039 0 39 0.52 2vnu 0.49 0 0.123 0 123 0.27 2voo 1.07 3 3.261 27 3261 0.49 2w2h 1.14 0 0.018 0 18 0.47 2wj8 0.74 0 0.43 2 430 0.47 2z2q 0.97 2 0.863 10 863 0.49 2zi0 1.09 1 1.278 13 1278 0.51 2zko 1.37 1 0.181 6 181 0.53 Resultats de la fonction de score gros-grain non lin ´ eaire avec valeurs de centrage ´ pour les 120 complexes de la PRIDB : score d’enrichissement (ES), nombre de presque-natifs dans le top10, nombre de presque-natifs attendus en moyenne par un tri aleatoire, nombre de presque-natifs dans le top100, nombre de presque-natifs sur ´ les 10 000 structures et aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb evalu ´ e. ´ 160pdb ES Top10 Attendu Top100 # presque-natifs ROC-AUC 2zni 0.75 0 0.017 0 17 0.47 2zue 0.64 0 0.004 0 4 0.26 2zzm 0.67 0 0.009 0 9 0.36 3a6p 1.16 0 0.001 0 1 0.11 3bso 0.66 0 0.038 0 38 0.38 3bt7 0.47 0 0.192 0 192 0.45 3ciy 1.07 0 0.01 0 10 0.62 3d2s 0.91 3 5.557 49 5557 0.48 3dd2 0.87 1 0.232 6 232 0.50 3egz 0.98 0 0.235 0 235 0.47 3eph 0.83 0 0.001 0 1 0.59 3eqt 0.40 0 0.405 1 405 0.45 3ex7 0.85 0 0.239 1 239 0.47 3fht 0.99 0 0.513 3 513 0.49 3foz 0.72 0 0.019 0 19 0.30 3gib 0.84 0 0.641 3 641 0.49 3hax 0.86 0 0.008 0 8 0.39 3hl2 0.76 0 0.015 0 15 0.51 3htx 0.99 0 0.014 0 14 0.54 3i5x 0.90 0 0.175 1 175 0.52 3iab 0.67 0 0.03 0 30 0.52 3icq 0.71 0 0.002 0 2 0.46 3iev 0.82 0 0.227 0 227 0.45 3k62 0.87 0 0.486 3 486 0.48 3l25 0.35 0 0.247 0 247 0.42 3snp 0.70 0 0.041 0 41 0.50 TABLE S9 – Resultats de la fonction de score gros-grain non lin ´ eaire avec valeurs de ´ centrage pour les 120 complexes de la PRIDB : score d’enrichissement (ES), nombre de presque-natifs dans le top10, nombre de presque-natifs attendus en moyenne par un tri aleatoire, nombre de presque-natifs dans le top100, nombre de presque-natifs ´ sur les 10 000 structures et aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb evalu ´ e. ´ 161pdb Description prot´eine Nombre d’acides amin´es Description ARN Nombre d’acides nucl´eiques Type 2zi0 Tomato aspermy virus protein 2b 60 siRNA 40 dsRNA 2gxb H. sapiens dsRNA-specific adenosine deaminase 62 dsRNA 5’-UCGCGCG-3’ and 5’-CGCGCG-3’ 13 dsRNA 1hq1 E. coli signal recognition particle protein 76 4.5S RNA domain IV 49 dsRNA 2f8k S. cerevisiae VTS1 protein SAM domain 84 5’-UAAUCUUUGACAGAUU-3’ 16 dsRNA 1lng M. jannaschii signal recognition particle 19 kDa protein 87 7S.S signal recognition particle RNA 97 dsRNA 3egz H. sapiens U1 small nuclear ribonucleoprotein A 91 Tetracyclin haptamer and artificial riboswitch 65 dsRNA 1dfu E. coli ribosomal protein L25 94 5S rRNA fragment 38 dsRNA 1jid H. sapiens signal recognition particle 19 kDa protein 114 signal recognition particle RNA helix 6 29 dsRNA 2pjp E. coli selenocysteine-specific elongation factor selB 121 SECIS RNA 23 dsRNA 1r9f Tomato bushy stunt virus core protein 19 121 siRNA 40 dsRNA 2czj T. thermophilus SsrA-binding protein 122 tmRNA tRNA domain 62 dsRNA 1wsu M. thermoacetica selenocystein-specific elongation factor 124 5’-GGCGUUGCCGGUCGGCAACGCC-3’ 22 dsRNA 2bu1 E. phage MS2 coat protein 129 5’-CAUGAGGAUUACCCAUG-3’ 17 dsRNA 1di2 X. laevis protein A dsRNA-binding domain 129 dsRNA 5’-GGCGCGCGCC-3’ tetramer 40 dsRNA 2zko Influenza A virus non-structural protein 1 (NS1) 140 dsRNA 42 dsRNA 2az0 Flock house virus B2 protein 141 dsRNA 5’-GCAUGGACGCGUCCAUGC-3’ dimer 36 dsRNA 1jbs A. restrictus restrictocin 142 29-mer sarcin/ricin domain RNA analog 29 dsRNA 1un6 X. laevis transcription factor IIIA 145 5S rRNA fragment 61 dsRNA 1e8o H. sapiens signal recognition particle 9 kDa and 14 kDa protein 149 7SL RNA 49 dsRNA 2anr H. sapiens neuro-oncological ventral antigen 1 (NOVA 1) 155 5’-CUCGCGGAUCAGUCACCCAAGCGAG-3’ 25 dsRNA 1feu T. thermophilus 50S ribosomal protein L25 185 5S rRNA fragment 40 dsRNA 2i82 E. coli ribosomal large subunit pseudouridine synthase A 217 5’-GAGGGGAAUGAAAAUCCCCUC-3’ 21 dsRNA 1mzp S. acidocaldarius 50S ribosomal protein L1P 217 23S rRNA fragment 55 dsRNA 1zbh H. sapiens 3’-5’ exonuclease ERI1 224 histone mRNA stem-loop 16 dsRNA 2hw8 T. thermophilus 50S ribosomal protein L1 228 mRNA 36 dsRNA 2qux P. phage coat protein 244 dsRNA 25 dsRNA 3iab S. cerevisiae ribonuclease P/MRP protein subunit POP6 255 Ribonuclease MRP RNA component P3 domain 46 dsRNA and POP7 3eqt H. sapiens ATP-dependent RNA helicase DHX58 269 5’-GCGCGCGC-3’ 8 dsRNA 3dd2 H. sapiens thrombine 288 dsRNA 26 dsRNA 2b3j S. aureus tRNA adenosine deaminase (tAdA) 302 tRNA-ARG2 anticodon stem-loop 15 dsRNA 1k8w E. coli tRNA-PseudoU synthase B 304 T stem-loop RNA 22 dsRNA Codes PDB des complexes prot´eine-ARN utilis´es dans la PRIDB non redondante RB199, avec une description de la prot´eine et de l’ARN, ainsi que le nombre d’acides amin´es #aa et d’acides nucl´eiques #an dans la structure 3D. Le type d’ARN est aussi indiqu´e entre simple brin (ssRNA), double brin (dsRNA) et ARN de transfert (tRNA). 162pdb Description prot´eine Nombre d’acides amin´es Description ARN Nombre d’acides nucl´eiques Type 1r3e T. maritima tRNA-PseudoU synthase B 305 tRNA-PseudoU T-arm 51 dsRNA 1ooa M. musculus nuclear factor NF-kappa-B p105 subunit 313 RNA aptamer 29 dsRNA 1vfg A. aeolicus tRNA nucleotidyltransferase 342 Primer tRNA 31 dsRNA 2ozb H. sapiens U4/U6 small nuclear ribonucleoprotein Prp31 365 U4snRNA 5’ stem-loop 33 dsRNA 3bt7 E. coli tRNA (uracile-5)-methyltransferase 369 19 nucleotide T-arm analogue 19 dsRNA 2bgg A. fulgidus piwi AF1318 protein 395 dsRNA 5’-UUCGACGC-3’ and 5’-GUCGAAUU-3’ 16 dsRNA 2r8s M. musculus synthetic FAB 433 P4-P6 RNA ribozyme domain 159 dsRNA 2nug A. aeolicus ribonuclease III 434 dsRNA 44 dsRNA 1t0k E. coli maltose-binding periplasmic-protein 462 mRNA 3’ consensus 5’-UGACC-3’ 27 dsRNA and S. cerevisiae 60S ribosomal protein L30 2e9t Foot-and-mouth disease virus RNA-dependent RNA polymerase 474 dsRNA 5’-UAGGGCCC-3’ and 5’-GGGCCCU-3’ 15 dsRNA 3bso Norwalk virus RNA-dependent RNA polymerase 479 primer-template RNA 16 dsRNA 3l25 Ebola virus polymerase cofactor VP35 492 dsRNA 5’-CGCAUGCG-3’ dimer 16 dsRNA 1yvp X. laevis 60 kDa SS-A Ro ribonucleoprotein 529 Both strands of the Y RNA sequence 20 dsRNA 2w2h Equine infectious anemia virus protein TAT 581 TAR RNA 44 dsRNA and E. caballus cyclin-T1 2gjw A. fulgidus tRNA-splicing endonuclease 612 dsRNA 37 dsRNA 3ciy M. musculus toll-like receptor 3 661 dsRNA 92 dsRNA 1q2r Z. mobilis queunine tRNA ribosyltransferase 748 dsRNA 5’-AGCACGGCUNUAAACCGUGC-3’ dimer 40 dsRNA 3htx A. thaliana RNA methyltransferase HEN1 780 dsRNA 44 dsRNA 3snp O. cuniculus cytoplasmic aconitate hydratase 850 Ferritin H IRE RNA 30 dsRNA 1tfw A. fulgidus tRNA nucleotidyltransferase 874 Immature tRNA 26 dsRNA 3icq S. cerevisiae GTP-binding nuclear protein GSP1/CNR1 1116 dsRNA 62 dsRNA and S. pombe exportin-T 3a6p H. sapiens exportin-5 1242 pre-miRNA 46 dsRNA 1n35 M. orthoreovirus minor core protein lambda 3 1264 dsRNA 5’-GGGGG-3’ and 5’-UAGCCCCC-3’ 13 dsRNA 2f8s A. aeolicus argonaute protein 1408 dsRNA 5’-AGACAGCAUAUAUGCUGUCUUU-3’ dimer 44 dsRNA 1m8v P. abyssi putative snRNP sm-like protein 72 5’-UUUUUU-3’ 6 ssRNA 1sds M. jannaschii 50S ribosomal protein L7Ae 112 Archeal box H/ACA sRNA K-turn 15 ssRNA 2a8v E. coli rho-dependent transcription termination 118 5’-CCC-3’ 3 ssRNA factor RNA-binding domain 1si3 H. sapiens eukaryotic translation initiation factor 2C 1 120 5’-CGUGACUCU-3’ 9 ssRNA Codes PDB des complexes prot´eine-ARN utilis´es dans la PRIDB non redondante RB199, avec une description de la prot´eine et de l’ARN, ainsi que le nombre d’acides amin´es #aa et d’acides nucl´eiques #an dans la structure 3D. Le type d’ARN est aussi indiqu´e entre simple brin (ssRNA), double brin (dsRNA) et ARN de transfert (tRNA). 163pdb Description prot´eine Nombre d’acides amin´es Description ARN Nombre d’acides nucl´eiques Type 3d2s H. sapiens musculeblind-like protein 1 (MBNL1) 135 5’-GCUGU-3’ 5 ssRNA 1gtf G. staerothermophilus TRP RNA-binding attenuation protein 142 5’-GAGU-3’ 4 ssRNA 1wpu B. subtilis hut operon positive regulatory protein 148 5’-UUGAGUU-3’ 7 ssRNA 1fxl P. encephalomyelitis antigen hud 167 5’-UUUUAUUUU-3’ 9 ssRNA 2voo H. sapiens lupus LA protein 179 5’-UUU-3’ 3 ssRNA 3gib E. coli protein Hfq 191 5’-AAAAAAAAA-3’ 9 ssRNA 2asb M. tuberculosis transcription elongation protein nusA 226 5’-GAACUCAAUAG-3’ 11 ssRNA 1av6 Vaccinia cap-specific mRNA methyltransferase VP39 290 M7G Capped RNA 5’-GAAAAA-3’ 7 ssRNA 1knz S. rotavirus nonstructural RNA-binding protein 34 292 mRNA 3’ consensus 5’-UGACC-3’ 5 ssRNA 2gje T. brucei mRNA-binding protein bBP 292 Guide-RNA fragment 18 ssRNA 3iev A. aeolicus GTP-binding protein ERA 302 16S rRNA 3’ end 11 ssRNA 1m8x H. sapiens pumilio 1 homology domain 341 5’-UUGUAUAU-3’ 8 ssRNA 2wj8 Human respiratory syncytial virus nucleoprotein 374 5’-CCCCCCC-3’ 7 ssRNA 3fht H. sapiens ATP-dependent RNA helicase DDX19B 392 5’-UUUUUU-3’ 6 ssRNA 3k62 C. elegans Fem-3 mRNA-binding factor 2 400 5’-UGUGUUAUC-3’ 9 ssRNA 2gtt Rabies virus nucleoprotein 401 ssRNA 17 ssRNA 2gic Vesicular stomatitis Indiana virus nucleocapsid protein 416 ssRNA fragment 15 ssRNA 2bh2 E. coli 23S ribosomal RNA (uracil-5)-methyltransferase RUMA 419 23S rRNA fragment 29 ssRNA 2jlv Dengue virus serine protease subunit NS3 451 5’-AGACUAA-3’ 7 ssRNA 2bx2 E. coli ribonuclease E 500 5’-UUUACAGUAUUUGU-3’ 14 ssRNA 2po1 P. abyssi probable exosome complex exonuclease 503 5’-AAAAAAA-3’ 7 ssRNA 3i5x S. cerevisiae ATP-dependent RNA helicase MSS116 509 5’-UUUUUUUUUU-3’ 10 ssRNA 1ddl Desmodium yellow mottle tymovirus 551 5’-UUUUUUU-3’ 7 ssRNA 1pgl Bean pod mottle virus 555 5’-AGUCUC-3’ 6 ssRNA 1uvj P. phage P2 protein 664 5’-UUCC-3’ 4 ssRNA 3ex7 H. sapiens CASC3 and mago nashi homolog 687 5’-UUUUUU-3’ 6 ssRNA and RNA-binding protein 8 and eukaryotic initiation factor 4A-III 2vnu S. cerevisiae exosome complex exonuclease RRP44 694 5’-AAAAAAAAA-3’ 9 ssRNA 2z2q Flock house viruse capsid protein 980 Flock house virus genomic RNA 12 ssRNA 2r7r Simian rotavirus RNA-dependent RNA polymerase 1073 5’-UGUGACC-3’ 7 ssRNA 1j1u M. jannaschii tRNA-TYR synthetase 300 tRNA-TYR 74 tRNA 3foz E. coli isopentenyl-tRNA transferase 303 tRNA-PHE 69 tRNA Codes PDB des complexes prot´eine-ARN utilis´es dans la PRIDB non redondante RB199, avec une description de la prot´eine et de l’ARN, ainsi que le nombre d’acides amin´es #aa et d’acides nucl´eiques #an dans la structure 3D. Le type d’ARN est aussi indiqu´e entre simple brin (ssRNA), double brin (dsRNA) et ARN de transfert (tRNA). 164pdb Description prot´eine Nombre d’acides amin´es Description ARN Nombre d’acides nucl´eiques Type 2fk6 B. subtilis ribonuclease Z 307 tRNA-THR 53 tRNA 2fmt E. coli tRNA-FMET formyltransferase 314 Formyl-methionyl-tRNA-FMET2 77 tRNA 2zzm M. jannaschii uncharacterized protein MJ0883 329 tRNA-LEU 84 tRNA 2der E. coli tRNA-specific 2-thiouridylase mnmA 348 tRNA-GLU 74 tRNA 3eph S. cerevisiae tRNA isopentenyltransferase 402 tRNA 69 tRNA 1b23 T. aquaticus elongation factor EF-TU 405 E. coli tRNA-CYS 74 tRNA 1h3e T. thermophilus tRNA-TYR synthetase 427 Wild type tRNA-TYR (GUA) 84 tRNA 1u0b E. coli tRNA-CYS 461 tRNA-CYS 74 tRNA 2ct8 A. aeolicus tRNA-MET synthetase 465 tRNA-MET 74 tRNA 1n78 T. thermophilus tRNA-GLU synthetase 468 tRNA-GLU 75 tRNA 2d6f M. thermautotrophicus tRNA-GLN amidotransferase 485 tRNA-GLN 72 tRNA 1asy Yeast tRNA-ASP synthetase 490 tRNA-ASP 75 tRNA 3hax P. furiosus probable tRNA-PseudoU synthase B 503 H/ACA RNA 74 tRNA and ribosome biogenesis protein Nop10 and 50S ribosomal protein L7Ae 2nqp E. coli tRNA-PseudoU synthase A 528 tRNA-LEU 71 tRNA 1qtq E. coli tRNA-GLN synthetase 529 tRNA-GLN II 74 tRNA 2zni D. hafniense tRNA-PYL synthetase 558 tRNA-PYL 72 tRNA 1c0a E. coli tRNA-ASP synthetase 585 tRNA-ASP 77 tRNA 1f7u S. cerevisiae tRNA-ARG synthetase 607 tRNA-ARG 76 tRNA 2zue P. horikoshii tRNA-ARG synthetase 628 tRNA-ARG 76 tRNA 1qf6 E. coli tRNA-THR synthetase 641 tRNA-THR 76 tRNA 2azx H. sapiens tRNA-TRP synthetase 778 tRNA-TRP 72 tRNA 1ser T. thermophilus tRNA-SER synthetase 793 tRNA-SER 65 tRNA 2bte T. thermophilus aminoacyl-tRNA synthetase 877 tRNA-LEU transcript with anticodon CAG 78 tRNA 3hl2 H. sapiens O-phosphoseryl-tRNA-SEC selenium transferase 886 tRNA-SEC 82 tRNA 1ffy S. aureus tRNA-ILE synthetase 917 tRNA-ILE 75 tRNA 1h4s T. thermophilus tRNA-PRO synthetase 946 tRNA-PRO (CGG) 67 tRNA 1wz2 P. horikoshii tRNA-LEU synthetase 948 tRNA-LEU 88 tRNA 2du3 A. fulgidus O-phosphoseryl-tRNA synthetase 1001 tRNA-CYS 71 tRNA 2iy5 T. thermophilus tRNA-PHE synthetase 1117 tRNA-PHE 76 tRNA 1j2b P. horikoshii archaeosine tRNA-GUA transglycosylase 1152 tRNA-VAL 77 tRNA TABLE S10 – Codes PDB des complexes prot´eine-ARN utilis´es dans la PRIDB non redondante RB199, avec une description de la prot´eine et de l’ARN, ainsi que le nombre d’acides amin´es et d’acides nucl´eiques dans la structure 3D. Le type d’ARN est aussi indiqu´e entre simple brin (ssRNA), double brin (dsRNA) et ARN de transfert (tRNA). 165D pdb pdb aa Description prot´eine Nombre d’acides amin´es pdb na Description ARN Nombre d’acides nucl´eiques Type R 2b6g 2d3d S. cerevisiae VTS1 protein SAM domain 81 2b7g 5’-GGAGGCUCUGGCAGCUUUC-3’ 19 dsRNA R 1ec6 1dtj H. sapiens neuro-oncological ventral antigen 2 (NOVA 2) 87 – dsRNA 20 dsRNA R 1t4l 1t4o S. cerevisiae ribonuclease III 90 – snRNA 47 precursor 5’ terminal hairpin 32 dsRNA R 1m5o 1nu4 H. sapiens U1 small nuclear ribonucleoprotein A 92 – RNA substrate and RNA hairpin ribozyme 113 dsRNA R 3bo2 1nu4 H. sapiens U1 small nuclear ribonucleoprotein A 95 – Group I intron P9 and mRNA 221 dsRNA R 1g1x 1ris T. thermophilus 30S ribosomal protein S6 98 – 16S rRNA fragment 84 dsRNA R 1zbi 1zbf B. halodurans Ribonuclease H-related protein 135 – RNA-DNA hydrid 24 dsRNA R 1jbr 1aqz A. restrictus restrictocin 149 – 31-mer SRD RNA analog 31 dsRNA R 1u63 1l2a M. jannaschii 50S ribosomal protein L1P 214 – mRNA 49 dsRNA R 2ez6 1jfz A. aeolicus ribonuclease III 218 – dsRNA 56 dsRNA R 1kog 1evl E. coli tRNA-THR synthetase 401 – tRNA-THR synthetase mRNA 37 dsRNA operator essential domain R 2dra 1r89 A. fulgidus CCA-adding enzyme 437 1vfg tRNA mini DCC 34 dsRNA R 1wne 1u09 Foot-and-mouth disease virus 476 – dsRNA 5’-CAUGGGCC-3’ 13 dsRNA RNA-dependent RNA polymerase and 5’-GGCCC-3’ dimer R 1c9s 1qaw G. staerothermopilus TRP RNA-binding attenuation protein 67 – 5’-GAUGAGA-3’ 7 ssRNA R 1m8w 1mz8 H. sapiens pumilio 1 homology domain 340 – 5’-UUGUAUAU-3’ 8 ssRNA R 3bsb 1m8z H. sapiens pumilio 1 homology domain 341 – 5’-UUUAAUGUU-3’ 9 ssRNA R 3bsx 1m8z H. sapiens pumilio 1 homology domain 341 – 5’-UUGUAAUAUU-3’ 10 ssRNA R 1kq2 1kq1 S. aureus host factor protein for Q beta 365 – 5’-AUUUUUG-3’ 7 ssRNA R 2i91 1yvr S. laevis 60 kDa SS-A Ro ribonucleoprotein 526 – misfolded RNA fragment 23 ssRNA Codes PDB des 40 complexes prot´eine-ARN utilis´es dans les benchmarks I et II, par difficult´e (D, avec R pour corps rigide, S pour semi-flexible et X pour flexible), avec une description de la prot´eine et de l’ARN, ainsi que le nombre d’acides amin´es #aa et d’acides nucl´eiques #an dans la structure 3D et le code PDB de la structure 3D de la prot´eine (pdb aa) et de l’ARN (pdb na) non li´es si disponibles. Le type d’ARN est aussi indiqu´e entre simple brin (ssRNA), double brin (dsRNA) et ARN de transfert (tRNA). 166D pdb pdb aa Description prot´eine Nombre d’acides amin´es pdb na Description ARN Nombre d’acides nucl´eiques Type R 2ix1 2id0 E. coli exoribonuclease II 643 – 5’-AAAAAAAAAAAAA-3’ 13 ssRNA R 1ttt 1eft T. aquaticus elongation factor EF-TU 405 4tna Yeast tRNA-PHE 76 tRNA R 1efw 1l0w T. thermophilus tRNA-ASP synthetase 580 1c0a tRNA-ASP 73 tRNA S 1hc8 1foy G. staerothermopilus ribosomal protein L11 74 – 23S rRNA fragment 57 dsRNA S 1dk1 2fkx T. thermophilus 30S ribosomal protein S15 86 – 30S rRNA fragment 57 dsRNA S 1mfq 1qb2 H. sapiens signal recognition particle 54 kDa protein 108 1l9a 7S RNA of Human signal recognition particle 128 dsRNA S 1e7k 2jnb H. sapiens 15.5 kDa RNA-binding protein 125 – 5’-GCCAAUGAGGCCGAGGC-3’ 17 dsRNA S 1mms 2k3f T. maritima ribosomal protein L11 133 – 23S rRNA fragment 58 dsRNA S 2err 2cq3 H. sapiens ataxin-2-binding protein 1 (Fox 1) 88 – 5’-UGCAUGU-3’ 7 ssRNA S 2ad9 1sjq H. sapiens polypyrimidine tract-binding protein RBD1 98 – 5’-CUCUCU-3’ 6 ssRNA S 2adb 1sjr H. sapiens polypyrimidine tract-binding protein RBD2 127 – 5’-CUCUCU-3’ 6 ssRNA S 2py9 2jzx H. sapiens poly(rC)-binding protein 2 141 – Human telomeric RNA 12 ssRNA S 2adc 2evz H. sapiens polypyrimidine tract-binding protein RBD3 and 4 208 – 5’-CUCUCU-3’ 6 ssRNA S 3bx2 1m8z H. sapiens pumilio 1 homology domain 328 – 5’-UGUAUAUUA-3’ 9 ssRNA X 1ekz 1stu D. melanogaster maternal effect protein 76 – RNA hairpin 30 dsRNA X 2hgh 2j7j S. laevis transcription factor IIIA 87 – 5S rRNA fragment 55 dsRNA X 1hvu 2vg5 Human immunodeficiency virus HIV1 reverse transcriptase 954 – RNA pseudoknot 30 dsRNA X 1b7f 3sxl D. melanogaster SXL-lethal protein 167 – 5’-GUUGUUUUUUUU-3’ 12 ssRNA X 2c0b 2vmk E. coli ribonuclease E 488 – 5’-UUUACAGUAUU-3’ 11 ssRNA X 1msw 1aro E. phage DNA-directed T7 RNA polymerase 863 – mRNA 47 ssRNA X 1ob2 1efc E. coli elongation factor EF-TU 393 1ehz tRNA-PHE 76 tRNA TABLE S11 – Codes PDB des 40 complexes prot´eine-ARN utilis´es dans les benchmarks I et II, par difficult´e (D, avec R pour corps rigide, S pour semi-flexible et X pour flexible), avec une description de la prot´eine et de l’ARN, ainsi que le nombre d’acides amin´es et d’acides nucl´eiques dans la structure 3D et le code PDB de la structure 3D de la prot´eine (pdb aa) et de l’ARN (pdb na) non li´es si disponibles. Le type d’ARN est aussi indiqu´e entre simple brin (ssRNA), double brin (dsRNA) et ARN de transfert (tRNA). 167ES TOP10 TOP100 ROC-AUC pdb ROS POS ALL NEG ROS POS ALL NEG Attendu ROS POS ALL NEG ROS POS ALL NEG 1asy 0.49 3.69 0.88 0.87 7 8 7 7 7.195 28 95 92 92 0.43 0.74 0.58 0.57 1av6 3.15 1.53 0.00 0.00 5 10 10 10 8.815 77 100 97 97 0.38 0.88 0.62 0.62 1b23 1.47 2.87 0.94 0.94 4 10 9 9 5.037 4 99 88 88 0.39 0.81 0.61 0.61 1c0a 0.46 5.89 2.82 2.76 1 10 9 9 2.568 11 99 75 75 0.30 0.91 0.70 0.70 1ddl 0.52 2.64 1.24 1.24 2 3 1 1 2.789 18 35 28 28 0.48 0.64 0.53 0.52 1dfu 2.11 5.07 0.22 0.22 4 10 10 10 9.24 47 100 99 99 0.28 0.93 0.74 0.73 1di2 0.59 4.05 0.92 0.92 10 10 8 8 7.553 99 98 90 89 0.41 0.91 0.60 0.60 1e8o 1.18 2.08 1.48 1.48 6 2 8 8 3.376 23 37 62 62 0.44 0.63 0.56 0.56 1f7u 0.17 4.46 2.58 2.55 4 10 10 10 4.105 4 94 75 75 0.21 0.89 0.80 0.80 1feu 1.16 1.72 0.11 0.11 4 10 9 9 9.081 65 99 96 96 0.34 0.81 0.67 0.67 1ffy 0.02 7.09 1.11 1.10 0 10 4 4 3.121 0 100 17 17 0.42 0.93 0.58 0.58 1fxl 0.08 6.26 0.26 0.24 0 10 10 10 5.104 0 100 98 98 0.18 0.79 0.83 0.82 1gtf 4.28 1.61 0.00 0.00 10 10 10 10 9.628 97 100 100 100 0.49 0.72 0.51 0.51 1h3e 0.41 5.02 0.96 0.95 0 10 4 4 5.918 11 100 65 65 0.35 0.77 0.65 0.65 1h4s 0.81 1.90 1.72 1.75 1 4 4 4 1.19 2 34 35 35 0.42 0.63 0.58 0.58 1hq1 1.43 2.42 0.68 0.67 6 3 0 0 2.624 31 40 6 6 0.57 0.67 0.43 0.43 1j1u 1.56 1.40 0.15 0.15 10 9 10 10 8.331 96 92 97 97 0.53 0.67 0.47 0.47 1j2b 0.02 6.25 4.17 4.14 0 10 9 9 1.317 0 100 75 75 0.13 0.87 0.87 0.87 1jbs 0.58 0.79 0.59 0.59 0 0 3 3 2.528 1 5 25 26 0.44 0.61 0.56 0.56 1jid 2.52 0.05 0.00 0.00 2 10 10 10 9.357 63 98 95 95 0.37 0.65 0.64 0.63 1k8w 0.59 7.73 2.78 2.70 1 10 10 10 3.916 5 100 86 86 0.35 0.94 0.67 0.65 1knz 0.00 5.68 0.19 0.19 0 10 3 3 3.11 0 100 62 63 0.15 0.93 0.86 0.85 1lng 2.74 3.91 0.77 0.77 6 10 5 5 7.299 70 95 58 58 0.61 0.65 0.39 0.39 1m8v 0.85 1.70 0.51 0.50 10 3 10 10 7.017 90 51 81 81 0.44 0.54 0.56 0.56 1m8x 1.68 4.61 0.26 0.26 7 10 9 9 8.413 86 100 90 90 0.43 0.75 0.58 0.58 1mzp 0.76 3.15 1.96 1.95 0 6 4 4 1.592 11 51 39 38 0.40 0.71 0.60 0.60 1n35 0.10 7.27 2.62 2.62 0 8 0 0 0.732 0 85 13 13 0.34 0.99 0.67 0.67 1n78 0.33 3.67 0.53 0.53 0 10 4 4 4.39 0 98 62 62 0.30 0.92 0.71 0.71 1ooa 3.45 2.56 0.00 0.00 6 10 10 10 8.662 75 100 95 95 0.44 0.91 0.57 0.57 1pgl 3.13 0.00 0.00 0.00 10 9 9 9 9.344 80 98 99 99 0.24 0.85 0.76 0.76 1q2r 0.00 6.33 1.13 1.11 0 10 9 9 4.585 0 100 93 93 0.24 0.82 0.77 0.77 1qf6 0.09 7.30 2.92 2.92 0 10 7 7 1.154 0 99 52 52 0.23 0.90 0.77 0.77 R´esultats des fonctions de score atomiqes de la fonction par d´efaut de RosettaDock (ROS), positive (POS), n´egative (NEG) et sans contrainte (ALL) pour les complexes de la PRIDB : score d’enrichissement, nombre de presque-natifs dans le top10, nombre de presque-natifs attendus en moyenne par un tri al´eatoire, nombre de presque-natifs dans le top100 et aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb ´evalu´e. 168ES TOP10 TOP100 ROC-AUC pdb ROS POS ALL NEG ROS POS ALL NEG Attendu ROS POS ALL NEG ROS POS ALL NEG 1qtq 0.05 6.36 2.57 2.54 0 10 9 9 2.971 4 100 80 80 0.30 0.89 0.70 0.70 1r3e 0.66 6.89 2.65 2.65 0 10 6 6 3.356 10 100 75 75 0.41 0.90 0.60 0.60 1r9f 1.55 3.19 0.28 0.28 10 10 10 10 9.359 99 100 98 98 0.38 0.87 0.63 0.62 1sds 0.80 1.51 0.47 0.47 5 6 2 2 4.183 41 37 32 32 0.55 0.59 0.45 0.45 1ser 0.10 4.35 0.51 0.51 0 9 7 7 2.999 0 95 41 39 0.29 0.96 0.72 0.71 1si3 0.27 4.66 0.11 0.09 0 10 10 10 7.681 0 100 100 100 0.08 0.75 0.92 0.92 1t0k 1.53 1.34 0.73 0.73 8 0 4 4 3.725 59 14 27 27 0.55 0.51 0.45 0.45 1tfw 0.02 4.38 3.33 3.31 0 10 1 1 0.225 0 97 14 14 0.22 1.00 0.79 0.78 1u0b 0.02 6.33 3.44 3.41 0 10 7 7 2.616 0 97 69 69 0.21 0.87 0.79 0.79 1un6 0.66 2.93 1.29 1.30 0 9 7 7 3.952 1 93 87 86 0.30 0.83 0.71 0.71 1uvj 0.51 3.20 0.66 0.66 0 6 2 2 2.066 0 73 47 46 0.31 0.80 0.69 0.69 1vfg 2.96 0.32 0.11 0.11 9 10 10 10 9.313 87 99 98 98 0.42 0.74 0.59 0.59 1wpu 2.16 3.48 0.14 0.13 10 10 9 9 8.746 78 100 95 95 0.51 0.62 0.49 0.49 1wsu 0.50 1.72 1.50 1.48 0 2 6 6 4.816 14 32 72 72 0.36 0.52 0.64 0.64 1wz2 0.25 5.18 1.81 1.72 0 10 5 4 2.451 0 98 55 53 0.31 0.79 0.70 0.69 1yvp 2.26 2.69 0.00 0.00 8 10 10 10 9.384 84 100 99 99 0.37 0.84 0.63 0.63 1zbh 0.15 1.74 1.33 1.33 2 8 7 7 3.809 4 69 62 62 0.34 0.68 0.66 0.66 2a8v 0.14 2.20 1.81 1.83 2 8 6 6 4.775 14 84 64 65 0.34 0.53 0.66 0.66 2anr 0.55 2.06 2.14 2.15 7 0 3 3 2.927 23 18 48 48 0.38 0.57 0.62 0.62 2asb 1.18 5.26 0.13 0.13 2 10 6 6 5.475 3 100 60 60 0.46 0.92 0.55 0.55 2az0 0.22 4.33 1.36 1.34 0 10 1 1 1.351 1 77 12 12 0.40 0.84 0.61 0.61 2azx 0.13 2.29 1.85 1.81 0 9 9 9 7.22 10 90 90 89 0.29 0.63 0.72 0.71 2b3j 1.56 3.18 0.11 0.11 0 10 10 10 7.172 7 100 100 100 0.24 0.93 0.76 0.76 2bgg 0.30 4.89 2.25 2.21 0 10 10 10 5.42 4 100 98 97 0.28 0.88 0.73 0.73 2bh2 0.29 7.08 1.75 1.74 0 10 8 8 2.34 0 100 82 82 0.32 0.89 0.68 0.68 2bte 0.98 2.15 0.23 0.23 7 10 6 6 7.251 76 98 83 82 0.42 0.82 0.59 0.58 2bu1 0.18 2.41 1.75 1.73 5 3 2 2 3.909 17 54 43 43 0.38 0.60 0.62 0.62 2bx2 0.07 2.08 0.98 0.96 0 5 3 2 3.441 0 42 21 20 0.36 0.81 0.64 0.64 2ct8 0.68 3.09 0.87 0.87 3 10 4 4 5.817 37 87 69 69 0.35 0.79 0.65 0.65 2czj 3.12 3.51 0.06 0.05 10 10 10 10 9.135 94 100 97 97 0.51 0.78 0.49 0.49 2d6f 2.30 2.75 0.00 0.00 10 10 1 1 8.458 81 96 64 64 0.63 0.67 0.37 0.37 2der 0.88 4.52 0.88 0.87 0 10 5 5 3.535 0 100 84 84 0.26 0.96 0.75 0.74 R´esultats des fonctions de score atomiqes de la fonction par d´efaut de RosettaDock (ROS), positive (POS), n´egative (NEG) et sans contrainte (ALL) pour les complexes de la PRIDB : score d’enrichissement, nombre de presque-natifs dans le top10, nombre de presque-natifs attendus en moyenne par un tri al´eatoire, nombre de presque-natifs dans le top100 et aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb ´evalu´e. 169ES TOP10 TOP100 ROC-AUC pdb ROS POS ALL NEG ROS POS ALL NEG Attendu ROS POS ALL NEG ROS POS ALL NEG 2du3 2.14 2.11 0.05 0.05 9 6 10 10 9.16 65 84 95 95 0.48 0.52 0.52 0.52 2e9t 0.00 7.70 1.83 1.80 0 10 4 4 1.688 0 100 75 73 0.19 1.00 0.83 0.82 2f8k 1.37 1.47 0.92 0.92 9 1 4 4 4.993 78 32 63 62 0.51 0.57 0.49 0.49 2f8s 1.27 2.19 0.62 0.62 6 10 10 10 6.802 53 100 93 93 0.40 0.67 0.60 0.60 2fk6 0.84 2.93 0.61 0.61 10 10 9 9 8.17 78 98 94 94 0.46 0.86 0.54 0.54 2fmt 0.59 5.99 1.07 1.06 0 10 7 7 2.675 10 100 44 43 0.40 0.90 0.61 0.61 2gic 1.11 3.06 0.13 0.13 0 8 3 3 3.956 0 87 36 35 0.38 0.92 0.63 0.63 2gje 1.11 2.60 0.27 0.26 6 9 10 10 7.233 74 95 93 93 0.30 0.83 0.70 0.70 2gjw 0.11 4.25 0.18 0.18 8 10 10 10 7.806 28 100 100 100 0.22 0.89 0.79 0.79 2gtt 1.03 3.38 0.41 0.38 0 9 0 0 2.419 0 88 12 12 0.43 0.88 0.57 0.57 2gxb 0.54 1.87 0.98 0.95 0 3 3 3 4.715 16 45 37 37 0.49 0.59 0.51 0.51 2hw8 1.89 3.72 0.14 0.14 9 10 9 9 7.302 23 99 91 90 0.52 0.93 0.49 0.48 2i82 3.45 7.14 0.05 0.05 6 10 10 10 6.908 60 100 96 96 0.41 0.84 0.60 0.60 2iy5 0.07 6.69 2.12 2.10 0 4 0 0 0.92 0 79 3 3 0.31 0.96 0.70 0.70 2jlv 0.53 0.74 0.00 0.00 0 1 0 0 4.519 0 13 7 7 0.33 0.81 0.67 0.67 2nqp 0.74 3.02 0.77 0.77 0 5 1 1 2.642 5 58 25 25 0.43 0.74 0.57 0.57 2nug 0.29 6.56 5.83 5.82 0 10 0 0 0.365 0 100 1 1 0.66 1.00 0.40 0.37 2ozb 1.10 6.82 2.24 2.23 1 10 10 10 3.716 3 100 95 95 0.37 0.84 0.63 0.63 2pjp 0.01 1.75 2.16 2.17 1 1 6 6 2.983 1 33 53 53 0.31 0.60 0.69 0.69 2po1 1.98 1.35 0.00 0.00 10 10 1 1 9.139 97 100 55 55 0.45 0.75 0.56 0.56 2qux 0.16 3.18 1.63 1.61 1 4 0 0 1.94 1 56 16 17 0.40 0.70 0.60 0.60 2r7r 0.03 4.54 0.16 0.16 0 10 6 6 4.231 0 98 74 73 0.18 0.91 0.83 0.83 2r8s 1.35 1.96 0.28 0.28 8 10 9 9 7.263 42 90 83 82 0.46 0.59 0.54 0.54 2vnu 0.09 2.20 1.13 1.13 0 2 0 0 2.481 0 58 30 30 0.24 0.93 0.76 0.76 2voo 0.08 1.69 0.13 0.13 10 10 10 10 7.556 96 100 97 97 0.43 0.85 0.58 0.57 2w2h 0.50 3.96 2.71 2.70 2 10 10 10 5.472 20 99 97 97 0.36 0.81 0.64 0.64 2wj8 0.06 6.11 0.66 0.65 0 10 5 5 2.429 0 99 52 52 0.22 0.91 0.79 0.79 2z2q 0.49 2.64 1.36 1.36 3 9 5 5 5.908 26 89 76 76 0.41 0.60 0.59 0.59 2zi0 3.01 0.48 0.01 0.01 0 9 4 4 7.917 10 88 58 58 0.27 0.80 0.74 0.74 2zko 1.15 4.04 0.99 1.00 0 7 0 0 1.338 9 83 9 9 0.57 0.83 0.44 0.43 2zni 0.30 6.44 1.70 1.64 0 10 9 9 2.671 0 100 48 46 0.40 0.76 0.61 0.61 2zue 0.30 4.53 1.50 1.49 0 10 9 9 4.929 0 99 82 82 0.22 0.89 0.79 0.78 R´esultats des fonctions de score atomiqes de la fonction par d´efaut de RosettaDock (ROS), positive (POS), n´egative (NEG) et sans contrainte (ALL) pour les complexes de la PRIDB : score d’enrichissement, nombre de presque-natifs dans le top10, nombre de presque-natifs attendus en moyenne par un tri al´eatoire, nombre de presque-natifs dans le top100 et aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb ´evalu´e. 170ES TOP10 TOP100 ROC-AUC pdb ROS POS ALL NEG ROS POS ALL NEG Attendu ROS POS ALL NEG ROS POS ALL NEG 2zzm 0.11 8.06 3.62 3.57 0 10 6 6 1.256 0 100 67 67 0.18 0.93 0.83 0.83 3a6p 6.30 7.17 0.00 0.00 0 7 0 0 1.972 54 96 0 0 0.80 0.99 0.21 0.20 3bso 0.94 5.84 0.08 0.08 0 10 0 0 2.472 1 100 0 0 0.43 0.99 0.58 0.58 3bt7 0.57 4.98 0.75 0.72 1 10 10 10 5.376 20 100 90 90 0.33 0.79 0.68 0.68 3ciy 1.71 2.79 0.19 0.18 4 10 2 2 5.629 44 82 54 53 0.59 0.69 0.41 0.41 3d2s 0.04 0.79 0.56 0.56 6 10 9 9 8.929 62 97 97 97 0.32 0.71 0.69 0.69 3dd2 0.74 2.00 1.21 1.21 0 3 2 2 2.468 4 43 34 35 0.44 0.66 0.56 0.56 3egz 1.05 3.05 0.41 0.39 6 10 7 7 5.223 6 97 91 90 0.16 0.79 0.84 0.84 3eph 0.19 8.81 5.65 5.61 0 10 10 10 1.002 0 100 90 90 0.13 0.99 0.88 0.87 3eqt 0.40 7.19 0.50 0.48 2 10 8 8 5.188 54 100 85 85 0.38 0.94 0.62 0.62 3ex7 0.05 4.06 0.55 0.53 0 10 10 10 7.516 0 96 99 99 0.18 0.75 0.83 0.82 3fht 2.19 3.66 0.01 0.01 0 10 10 10 8.25 0 100 100 100 0.18 0.84 0.83 0.83 3foz 0.48 8.00 2.67 2.66 0 10 8 8 1.341 0 100 48 48 0.21 0.98 0.80 0.79 3gib 0.37 1.80 1.78 1.78 0 6 6 6 2.324 0 48 56 57 0.31 0.49 0.69 0.69 3hax 0.04 6.51 4.73 4.71 1 10 9 9 1.027 1 100 81 80 0.19 0.88 0.81 0.81 3hl2 2.67 3.66 0.00 0.00 0 10 10 10 9.062 56 100 100 100 0.48 0.99 0.54 0.53 3htx 0.02 8.04 3.70 3.69 0 10 6 6 1.045 0 100 52 51 0.22 0.96 0.79 0.78 3i5x 0.31 3.55 1.20 1.19 0 10 8 8 6.791 4 100 80 79 0.35 0.80 0.65 0.65 3iab 0.59 5.28 1.17 1.13 0 10 10 10 4.77 7 92 100 100 0.24 0.73 0.77 0.77 3icq 0.14 2.83 1.12 1.12 0 10 7 8 5.14 10 88 80 80 0.35 0.81 0.65 0.65 3iev 1.30 5.64 0.94 0.92 8 10 10 10 7.914 67 100 99 99 0.61 0.65 0.40 0.40 3k62 2.51 3.40 0.15 0.15 9 10 9 9 8.482 86 100 96 96 0.35 0.78 0.65 0.65 3l25 0.35 7.02 1.09 1.07 0 7 2 2 1.205 0 79 35 33 0.38 0.99 0.64 0.62 3snp 0.02 6.63 2.80 2.77 1 10 10 10 3.201 1 100 86 86 0.25 0.84 0.75 0.75 TABLE S12 – R´esultats des fonctions de score atomiqes de la fonction par d´efaut de RosettaDock (ROS), positive (POS), n ´egative (NEG) et sans contrainte (ALL) pour les complexes de la PRIDB : score d’enrichissement, nombre de presquenatifs dans le top10, nombre de presque-natifs attendus en moyenne par un tri al´eatoire, nombre de presque-natifs dans le top100 et aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb ´evalu´e. 171 https://hal.archives-ouvertes.fr/tel-01081605/document Une approche agile, fiable et minimale pour le maintien de la qualit´e de service lors de l’´evolution d’applications `a base de processus m´etiers Alexandre Feugas To cite this version: Alexandre Feugas. Une approche agile, fiable et minimale pour le maintien de la qualit´e de service lors de l’´evolution d’applications `a base de processus m´etiers. Software Engineering. Universit´e des Sciences et Technologie de Lille - Lille I, 2014. French. HAL Id: tel-01073193 https://tel.archives-ouvertes.fr/tel-01073193 Submitted on 9 Oct 2014 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destin´ee au d´epˆot et `a la diffusion de documents scientifiques de niveau recherche, publi´es ou non, ´emanant des ´etablissements d’enseignement et de recherche fran¸cais ou ´etrangers, des laboratoires publics ou priv´es.Universit´e Lille 1 Sciences et Technologies D´epartement de formation doctorale en informatique Ecole doctorale SPI Lille ´ UFR IEEA Une Approche Agile, Fiable et Minimale pour le Maintien de la Qualit´e de Service lors de l’Evolution ´ d’Applications `a Base de Processus M´etiers THESE ` pr´esent´ee et soutenue publiquement le 8 octobre 2014 pour l’obtention du Doctorat de l’Universit´e Lille 1 Sciences et Technologies Sp´ecialit´e Informatique par Alexandre Feugas Composition du jury Rapporteurs : Marie-Pierre Gervais, Universit´e Paris Ouest Nanterre La D´efense Jean-Michel Bruel, Universit´e de Toulouse Directeur de th`ese : Laurence Duchien, Universit´e Lille 1 Examinateurs : Jean-Luc Dekeyser, Universit´e Lille 1 S´ebastien Mosser, Universit´e Nice - Sophia Antipolis Laboratoire d’Informatique Fondamentale de Lille — UMR CNRS 8022 INRIA Lille - Nord EuropeUne Approche Agile, Fiable et Minimale pour le Maintien de la Qualité de Service lors de l’Évolution d’Applications à Base de Processus Métiers Les logiciels actuels adoptent une méthodologie de développement dite "agile" pour mieux prendre en compte la nécessité de s’adapter constamment aux nouveaux besoins des utilisateurs. Les concepteurs et développeurs se rapprochent alors des futurs utilisateurs du logiciel en proposant des cycles courts d’itération, où le futur utilisateur fait un retour rapide sur l’incrément apporté au logiciel, et fait part de nouveaux besoins à prendre en compte dans les incréments à venir. Ces itérations peuvent être vues comme des évolutions, faisant suite à la définition d’un nouveau besoin de l’utilisateur, à un changement de l’environnement d’exécution, ou encore à une remise en question de l’architecture du logiciel. Dans l’écosystème des architectures orientées services, la conception d’applications passe par la chorégraphie ou l’orchestration de services par des processus métiers. Concevoir ces applications consiste alors à mettre en relation les flots de contrôle et de données de ces services. La phase d’évolution devient une phase complexe, où une simple modification localisée à une sous-partie d’un processus métier peut avoir des conséquences sur l’ensemble du système logiciel, causant par exemple son ralentissement lors de l’exécution. Du point de vue de la qualité de service (QoS), la maîtrise de la fiabilité du processus d’évolution pour maintenir la qualité de service d’un logiciel est alors critique. Il est donc nécessaire de pouvoir proposer des mécanismes d’évolution agiles et fiables permettant le maintien de la QoS lors de l’évolution d’applications à base de processus métiers. En d’autres termes, il s’agit de s’assurer qu’une évolution ne viole pas les contrats de QoS définis initialement. Cette garantie doit être établie en fonction du contrat soit lors de la conception soit lors de l’exécution. Dans ce dernier cas, le processus de vérification doit être minimal et localisé, afin de ne pas dégrader les performances du système logiciel. Pour cela, nous proposons de mettre en œuvre un cycle de développement agile, centré sur le maintien de la QoS lors de l’évolution. Il s’agit de prendre l’aspect évolutif du système, ceci dès l’étape de conception initiale, en identifiant les informations requises pour déterminer si la QoS est correcte et si elle est non violée par une évolution. Ces informations étant détenues par plusieurs intervenants, il est également nécessaire d’établir les points d’interaction au cours du cycle de développement, au cours desquels les informations seront partagées de façon à ce que le logiciel qui en est issu reste syntaxiquement et sémantiquement cohérent et que les contrats de QoS soient (re)vérifiés a minima. Les contributions de cette thèse sont donc mises en œuvre dans Blink, un cycle de développement pour l’évolution, et Smile, un canevas de développement pour le maintien de la qualité de service lors de l’évolution d’applications orientées service définies à base de processus métiers. Tandis que le cycle de développement Blink vise à identifier les différents rôles présents dans l’équipe de développement et à expliciter leurs interactions, le canevas Smile propose la réalisation d’une boucle d’évolution. Cette boucle permet de concevoir, d’analyser et d’appliquer une évolution, en détectant les potentielles violations de contrat de QoS. Pour cela, l’analyse de l’évolution détermine son effet sur la QoS du logiciel, en établissant des relations de causalité entre les différentes variables, opérations, services et autres parties du système. Ainsi, en identifiant les éléments causalement affectés par l’évolution et en écartant ceux qui ne le sont pas, notre approche permet de limiter le nombre d’éléments à (re)vérifier, garantissant ainsi une étape d’évolution fiable, avec une étape de (re)vérification minimale. Nous montrons sur un cas concret de système de gestion de crises, constitué de onze processus métiers et de dix scénarios, que l’utilisation conjointe de Blink et de Smile permet d’identifier, pour chaque évolution, quel sera son effet sur le reste du système, et si la qualité de service sera maintenue ou non.An Agile, Reliable and Minimalist Approach to Preserve the QoS of Business-Processes Based Applications during their Evolutions Current softwares are built using "agile" development methods, to better consider the need to adapt to new user requirements. Developers and designers are getting closer to future software users by making short iterative cycles, where the future user gives a fast feedback on the increment made to the software and emits new user requirement to be fulfilled in future increments. These iterations can be seen as evolutions, as an answer to the definition of a new user requirement, or due to a change in the execution environment or in the architecture of the software. In the Service-Oriented Architecture (SOA) world, the design of software is composed of service choreography, or service orchestration using business processes. The design of these applications is equivalent to connecting the services control flow and data flow. As a result, the evolution step becomes a complex step, where a simple modification on a sub-part of a business process can have consequences on the entire system, causing for example its slowing down at runtime. From the Quality of Service (QoS) point of view, ensuring the fiability of the evolution process to maintain software QoS is critical. As a result, it is necessary to propose agile, reliable evolution mecanisms ensuring QoS preservation during the evolution of software made of business processes. In other words, we need to control that an evolution does not violate any QoS contract initially set up. Depending of the contract, this garanty must be established either at design time or at runtime. In the latter case, the verification process must be minimal and local, in order to not degrade the software performance. To achieve this goal, we propose to realise an agile development cycle, centered on the QoS preservation during the evolution. It is necessary to care about the evolutive concern of a system from the initial design step, by identifying required information to determine if the QoS continues to be correct and not violated by an evolution. Considering that this information is known by many stakeholders, it is also necessary to set up interaction points during the development cycle, during which information is shared in order to keep building a syntactically and semantically coherent software and to minimally (re)check QoS contracts. The contributions of this thesis are applied in Blink, a development cycle for evolution, and Smile, a framework to maintain QoS during the evolution of a service-oriented software made of business processes. While Blink is intended to identify the different actors and to make their interactions explicit, Smile proposes the realisation of an evolution loop. This loop enables the design, analysis and application of an evolution, by detecting the potential QoS contract violation. The evolution analysis determines its effect on the software QoS, by defining causal relations among variables, operations, services and other parts of the system. In this way, by identifying elements that are causally affected by the evolution, and by avoiding the elements that are not, our approach enables the limitation of the number of elements to (re)check in order to assure a reliable evolution step, with a minimal (re)check step. We show on the concrete case of a crisis management system, composed of eleven business processes and ten scenarios, that the combined use of Blink and Smile enables for each evolution the identification of its effect on the system, and the QoS preservation of the system.Remerciements La thèse est une aventure, une expérience humaine qui vous marque profondément tant elle change vos habitudes,votre façon de penser. J’ai vécu au cours de ces quatre dernières années quelque chose de beau, d’intense, de douloureux et de décourageant aussi. Mais c’est avant tout l’ensemble des rencontres faites durant ce laps de temps qui ont fait de cette thèse un moment fort à mes yeux. Dans cette page, je n’aurai pas la prétention d’être exhaustif, j’oublierai sûrement quelques personnes qui, je l’espère, ne m’en voudront pas. Mais sachez juste que, qui que vous soyez, que je vous ai croisé de près ou de loin, merci à vous d’avoir joué un rôle dans mon aventure doctorante. Je voudrais remercier en premier lieu mes encadrants, Laurence et Seb, qui ont dû avoir quelques cheveux blancs à cause de moi. Merci de vous être impliqué dans ces travaux, d’avoir su garder patience avec moi. J’espère que vous ne m’en voulez pas trop de vous avoir mené la vie dure. A titre postume, j’ai également une pensée profonde pour AnneFrançoise, qui a su croire en moi ; qui m’a encouragé et qui a été derrière moi à mes débuts. Merci à toi. J’aurais aimé que tu sois présente, auprès de nous. Plus généralement, je voudrais remercier l’équipe Adam/Spirals, qui a été ma deuxième famille. Merci aux permanents, avec leurs remarques, leurs discussions passionnantes, ou leurs reculs. Merci enfin aux doctorants et ingénieurs de l’équipe, qui ont partagé avec moi le stress des différentes présentations et autres deadlines d’articles. On ne le dit jamais assez, une thèse, c’est pas une sinécure... Et puis merci à tous les collègues embarqués dans la même galère : bravo, merci et courage au 4 autres compagnons ayant démarré cette folle aventure avec moi : Adel, Nico, Rémi et Rémi. Bonne continuation à vous, en espérant que vous garderez le même souvenir d’Inria que moi. Un clin d’œil pour Clément, frère de thèse, qui a su m’accueillir à Lille malgré son accent sudiste, qui m’a fait découvrir de nombreux endroits sympathiques. J’ai beaucoup apprécié nos longues conversations, autant scientifiques que footballistiques. J’espère que tu mèneras une longue et brillante carrière académique, en démarrant par Milan. Obrigado également à Antonio, mon frère de bière, compagnon de nuit et de braderie, qui m’a fait découvrir sa culture, son pays, et bien plus encore. J’ai été heureux de faire ta connaissance, en espérant te re-croiser un jour, ou dans une vie future. Je ne pourrai pas écrire ces remerciements sans penser à mes camarades de l’association des doctorants, Tilda. Tout particulièrement, je voudrais saluer Fabien et sa bonne humeur, avec qui j’ai eu le plaisir de travailler. Enfin, un immense merci à Julie, voisine de thèse, compagnon de pause café et motivatrice intarissable. Merci de m’avoir épaulé autant dans ma thèse que dans ma vie perso. Enfin, merci à ma famille, qui m’a soutenu tout au long de ces quatre dernières années, dans les bons et les mauvais moments. Merci d’avoir été auprès de moi, d’avoir cru en moi, lorsque moi-même je n’y croyais plus. Encore une fois, merci à vous. Merci également à tous mes amis sudistes, qui ont sû rester en contact avec moi, malgré la grande distance séparant mon sud natal de cette terre d’accueil qu’a été le Nord. Je ne citerai personne de peur d’oublier quelqu’un, exception faite bien sûr de Laetitia, qui a été mon accroche immuable tout au long du doctorat. Tu as su rester auprès de moi malgré la distance, l’eau qui coulait sur les ponts, et nos chemins qui tendaient à bifurquer. Tu as été présente au bout du téléphone lorsque j’allais bien, lorsque j’allais mal, quand j’avais envie de parler politique, ou simplement de la pluie et du beau temps pour oublier les difficultés de la journée passée. Plus encore, c’est sans nul doute grâce à toi si aujourd’hui, je suis docteur... (le 13ème ?) C’est toi qui, au moment où j’avais envie de baisser les bras, là où je ne voyais plus aucun espoir ni réconfort, a réussi non seulement à me donner la force de terminer ma thèse, mais qui m’a en plus redonné l’envie de sourire, et qui m’a donné un but en m’attendant patiemment dans notre nouvelle contrée toulousaine. Merci, merci infiniment. iiiTable des matières Table des matières 1 Introduction 1 1.1 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2 Défis pour maintenir la qualité de service lors de l’évolution . . . . . . . . . 2 1.3 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.4 Organisation du document . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.5 Liste des publications liées à cette thèse . . . . . . . . . . . . . . . . . . . . 5 I Contexte et Motivations 7 2 Contexte 9 2.1 Les architectures orientées services . . . . . . . . . . . . . . . . . . . . . . . 9 2.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.1.2 Organisation des architectures orientées services . . . . . . . . . . . 10 2.2 La Qualité de Service . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.2.1 Qualité du logiciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.2.2 Méthodes de détermination de la qualité de service . . . . . . . . . . 14 2.2.3 Contrats de Qualité de Service . . . . . . . . . . . . . . . . . . . . . 17 2.3 Évolution des systèmes logiciels . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.3.1 Définition de l’évolution . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.3.2 Caractéristiques d’une évolution . . . . . . . . . . . . . . . . . . . . 18 2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 3 État de l’art 25 3.1 Processus de développement . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 3.1.1 Les processus de développement généralistes . . . . . . . . . . . . . . 26 3.1.2 Les processus de développement spécialisés SOA . . . . . . . . . . . 27 3.1.3 Prise en compte de la Qualité de Service . . . . . . . . . . . . . . . . 28 3.1.4 Prise en compte de l’évolution . . . . . . . . . . . . . . . . . . . . . 28 3.1.5 Comparatif et limitations . . . . . . . . . . . . . . . . . . . . . . . . 29 3.2 Analyse d’impact . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.2.1 Fondements de la causalité . . . . . . . . . . . . . . . . . . . . . . . 29 3.2.2 Application de la causalité : les analyses d’impact . . . . . . . . . . 30 3.2.3 Analyse d’impact pour la qualité de service . . . . . . . . . . . . . . 32 3.2.4 Comparatif et limitations . . . . . . . . . . . . . . . . . . . . . . . . 32 3.3 Conclusion de l’état de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 4 Présentation du cas d’étude 37 4.1 Séduite, un système de diffusion d’informations à base de processus métiers 37 4.2 PicWeb, un processus métier de recherche d’images . . . . . . . . . . . . . 39 4.2.1 Description de PicWeb . . . . . . . . . . . . . . . . . . . . . . . . . 39 4.2.2 Évolution de PicWeb . . . . . . . . . . . . . . . . . . . . . . . . . . 40Table des matières II Contributions 41 5 Un processus de développement pour le maintien de la qualité de service 43 5.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 5.2 Définition des acteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 5.3 Description du processus de développement . . . . . . . . . . . . . . . . . . 44 5.4 Coopération entre acteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 5.5 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 6 Modélisation d’un système à base de processus métiers 51 6.1 Défis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 6.2 Modélisation du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 6.2.1 Univers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 6.2.2 Variables et types . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 6.2.3 Messages et Opérations . . . . . . . . . . . . . . . . . . . . . . . . . 53 6.2.4 Services . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 6.2.5 Activités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 6.2.6 Relations d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 6.2.7 Processus métier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 6.2.8 Système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 6.3 Causalité de l’exécution d’un système . . . . . . . . . . . . . . . . . . . . . 58 6.3.1 Mise en œuvre de la causalité . . . . . . . . . . . . . . . . . . . . . . 59 6.3.2 Relations causales fonctionnelles . . . . . . . . . . . . . . . . . . . . 59 6.3.3 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 6.4 Déduction des relations causales d’un système . . . . . . . . . . . . . . . . . 61 6.4.1 Méthodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 6.4.2 Expression des règles causales . . . . . . . . . . . . . . . . . . . . . . 62 6.5 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 7 Modélisation de la qualité de service pour l’évolution 65 7.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 7.2 Modélisation de la qualité de service d’un système . . . . . . . . . . . . . . 66 7.2.1 Propriété, unité et critère de comparaison . . . . . . . . . . . . . . . 67 7.2.2 Domaine d’application . . . . . . . . . . . . . . . . . . . . . . . . . . 67 7.2.3 Valeur de propriété . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 7.2.4 Influence et ressource . . . . . . . . . . . . . . . . . . . . . . . . . . 68 7.2.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 7.3 Définition des relations causales de propriété . . . . . . . . . . . . . . . . . 69 7.3.1 Relations d’environnement . . . . . . . . . . . . . . . . . . . . . . . . 71 7.3.2 Relations de dérivation de propriétés . . . . . . . . . . . . . . . . . . 71 7.3.3 Relations d’agrégation de valeurs . . . . . . . . . . . . . . . . . . . . 73 7.3.4 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 7.4 QoS4Evol, un langage de description de la qualité de service . . . . . . . . . 74 7.4.1 Présentation de QoS4Evol . . . . . . . . . . . . . . . . . . . . . . . . 75 7.4.2 Définition du langage . . . . . . . . . . . . . . . . . . . . . . . . . . 75 7.4.3 Caractéristiques du langage . . . . . . . . . . . . . . . . . . . . . . . 76 7.5 Déduction des règles causales d’une propriété . . . . . . . . . . . . . . . . . 77 7.5.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 7.5.2 Obtention des relations causales d’environnement . . . . . . . . . . . 78 7.5.3 Obtention des relations causales de dérivation . . . . . . . . . . . . . 79 viTable des matières 7.5.4 Obtention des relations causales d’agrégation . . . . . . . . . . . . . 79 7.5.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 7.6 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 8 Analyse de l’évolution du logiciel orientée QoS 83 8.1 Présentation générale du processus d’évolution . . . . . . . . . . . . . . . . 84 8.1.1 Enjeux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 8.1.2 Spécification du processus d’évolution . . . . . . . . . . . . . . . . . 84 8.1.3 Hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 8.2 Un langage pour l’évolution des processus métier . . . . . . . . . . . . . . . 86 8.3 Spécification de l’analyse de l’évolution . . . . . . . . . . . . . . . . . . . . . 87 8.3.1 Aperçu des différentes étapes . . . . . . . . . . . . . . . . . . . . . . 88 8.3.2 Étape 1 : mise à jour du modèle causal . . . . . . . . . . . . . . . . . 89 8.3.3 Étape 2 : analyse causale . . . . . . . . . . . . . . . . . . . . . . . . 92 8.3.4 Étape 3 : re-vérification . . . . . . . . . . . . . . . . . . . . . . . . . 93 8.3.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 8.4 Résultat de l’analyse et prise de décision . . . . . . . . . . . . . . . . . . . . 96 8.4.1 Enjeux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 8.4.2 Vérification des contrats . . . . . . . . . . . . . . . . . . . . . . . . . 97 8.4.3 Détermination des causes racines . . . . . . . . . . . . . . . . . . . . 98 8.4.4 Déploiement et retour en arrière (roll-back) . . . . . . . . . . . . . . 99 8.4.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 8.5 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 III Validation 103 9 Mise en œuvre et utilisation de Smile 105 9.1 Réalisation de Smile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 9.1.1 Présentation du canevas . . . . . . . . . . . . . . . . . . . . . . . . . 106 9.1.2 Besoins des utilisateurs de Smile . . . . . . . . . . . . . . . . . . . . 106 9.1.3 Architecture de Smile . . . . . . . . . . . . . . . . . . . . . . . . . . 106 9.2 Smile pour la description du système . . . . . . . . . . . . . . . . . . . . . 109 9.2.1 Import de système . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 9.2.2 Description des règles causales . . . . . . . . . . . . . . . . . . . . . 111 9.3 Smile pour la qualité de service . . . . . . . . . . . . . . . . . . . . . . . . 113 9.3.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 9.3.2 Description d’une propriété . . . . . . . . . . . . . . . . . . . . . . . 113 9.3.3 Gestion des règles causales de propriété . . . . . . . . . . . . . . . . 114 9.3.4 Collecte des données . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 9.3.5 Description d’un contrat . . . . . . . . . . . . . . . . . . . . . . . . . 116 9.4 Smile pour l’évolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 9.4.1 Description d’une évolution . . . . . . . . . . . . . . . . . . . . . . . 117 9.4.2 Analyse causale de l’évolution . . . . . . . . . . . . . . . . . . . . . . 118 9.4.3 Contrôle à l’exécution . . . . . . . . . . . . . . . . . . . . . . . . . . 119 9.5 Limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 9.6 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 viiTable des matières 10 Evaluation 121 10.1 Défis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 10.2 Cas d’étude : le Système de gestion de crises . . . . . . . . . . . . . . . . . . 122 10.2.1 Contexte du cas d’étude . . . . . . . . . . . . . . . . . . . . . . . . . 122 10.2.2 Description du scénario . . . . . . . . . . . . . . . . . . . . . . . . . 123 10.2.3 Cas d’utilisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 10.3 Implémentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 10.4 Évolutions du scénario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 10.4.1 Évolutions pour la construction du système . . . . . . . . . . . . . . 128 10.4.2 Évolutions du processus Gestion de la Mission . . . . . . . . . . . . 129 10.5 Évaluation quantitative des contributions . . . . . . . . . . . . . . . . . . . 132 10.5.1 Comparaison des éléments à re-vérifier . . . . . . . . . . . . . . . . . 132 10.6 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 10.7 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 IV Conclusion 137 11 Conclusion et Travaux Futurs 139 11.1 Résumé des contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 11.2 Perspectives à court terme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 11.3 Perspectives à long terme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 viiiTable des figures Table des figures 2.1 Exemple de détermination par dérivation. . . . . . . . . . . . . . . . . . . . 16 2.2 Exemple de détermination par agrégation. . . . . . . . . . . . . . . . . . . . 16 4.1 Utilisation de Séduite au cours de la nuit de l’info. . . . . . . . . . . . . . . 38 4.2 Architecture de Séduite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 4.3 Évolutions de PicWeb. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 5.1 Schéma du processus de développement Blink. . . . . . . . . . . . . . . . . 46 6.1 Extrait du méta-modèle de Smile : variables et types. . . . . . . . . . . . . 53 6.2 modélisation du service Helper. . . . . . . . . . . . . . . . . . . . . . . . . . 54 6.3 Extrait du méta-modèle de Smile : services, opérations et messages. . . . . 55 6.4 Extrait du méta-modèle de Smile : activités. . . . . . . . . . . . . . . . . . 55 6.5 Extrait du modèle de PicWeb : activité receive. . . . . . . . . . . . . . . . 55 6.6 Extrait du modèle de PicWeb : relations d’ordre. . . . . . . . . . . . . . . 57 6.7 Extrait du méta-modèle : relations d’ordre. . . . . . . . . . . . . . . . . . . 57 6.8 Extrait du méta-modèle : processus métier. . . . . . . . . . . . . . . . . . . 58 6.9 Modèle causal fonctionnel de PicWeb. . . . . . . . . . . . . . . . . . . . . . 60 6.10 Procédé de déduction des relations causales. . . . . . . . . . . . . . . . . . . 62 7.1 Modèle et méta-modèle d’une propriété. . . . . . . . . . . . . . . . . . . . . 67 7.2 Modèle et méta-modèle du domaine d’application. . . . . . . . . . . . . . . 68 7.3 Méta-Modèle de propriété : Valeurs de propriété. . . . . . . . . . . . . . . . 69 7.4 Modèle du temps de réponse : Valeurs de propriété. . . . . . . . . . . . . . . 70 7.5 Modèle et méta-modèle des facteurs d’influence. . . . . . . . . . . . . . . . . 71 7.6 Modèle causal enrichi avec les relations d’environnement. . . . . . . . . . . 72 7.7 Modèle causal enrichi avec les relations de dérivation. . . . . . . . . . . . . 72 7.8 Modèle causal enrichi avec les relations d’agrégation. . . . . . . . . . . . . . 73 7.9 Définition du Temps de Réponse. . . . . . . . . . . . . . . . . . . . . . . . . 75 7.10 Chaîne de déduction des relations causales de propriété. . . . . . . . . . . . 78 8.1 Processus d’évolution. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 8.2 Évolution de PicWeb. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 8.3 Étapes de l’analyse de l’évolution. . . . . . . . . . . . . . . . . . . . . . . . 88 8.4 Traduction de l’évolution en actions sur le modèle causal. . . . . . . . . . . 90 8.5 Application à PicWeb de l’analyse causale. . . . . . . . . . . . . . . . . . . 93 8.6 Application à PicWeb de l’analyse causale. . . . . . . . . . . . . . . . . . . 94 8.7 Obtention des données brutes. . . . . . . . . . . . . . . . . . . . . . . . . . . 95 8.8 Contrat de QoS qualifiant le temps de réponse de PicWeb. . . . . . . . . . 98 8.9 Détermination des causes racines de la violation du contrat de PicWeb. . . 100 9.1 Diagramme des cas d’utilisation de Smile. . . . . . . . . . . . . . . . . . . . 107 9.2 Architecture de Smile. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 9.3 Procédé dirigé par les modèles de l’approche Smile. . . . . . . . . . . . . . 109 9.4 Import de PicWeb. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 9.5 Extrait de fichier composite. . . . . . . . . . . . . . . . . . . . . . . . . . . . 111Table des figures 9.6 Méta-modèle du modèle causal. . . . . . . . . . . . . . . . . . . . . . . . . . 112 9.7 Extrait d’une règle causale écrite en ATL. . . . . . . . . . . . . . . . . . . . 112 9.8 Processus de la partie QoS de Smile. . . . . . . . . . . . . . . . . . . . . . . 114 9.9 Chaîne d’outillage pour la description d’une propriété. . . . . . . . . . . . . 115 9.10 Méta-Modèle de traces de Smile. . . . . . . . . . . . . . . . . . . . . . . . . 115 9.11 Modélisation des contrat de qualité de service. . . . . . . . . . . . . . . . . 116 9.12 Méta-Modèle d’évolution de Smile. . . . . . . . . . . . . . . . . . . . . . . . 117 9.13 Utilisation de l’éditeur d’évolutions de Smile. . . . . . . . . . . . . . . . . . 118 10.1 Description des différents rôles opérationnels. . . . . . . . . . . . . . . . . . 123 10.2 Description des différents rôles d’observation. . . . . . . . . . . . . . . . . . 124 10.3 Description des différents rôles stratégiques. . . . . . . . . . . . . . . . . . . 124 10.4 Architecture du système de gestion de crises. . . . . . . . . . . . . . . . . . 127 10.5 Graphe de dépendance des processus métiers du système de gestion de crises. 127 10.6 Évolution de la taille du modèle causal au cours de la construction du système.128 10.7 Processus métier du cas d’utilisation "Exécution de la mission". . . . . . . . 129 10.8 Évolution du processus métier Gestion de la mission : UnavailableIntRes. . 130 10.9 Évolution du processus métier Gestion de la mission : UnavailableExtRes. . 131 10.10Évolution du processus métier Gestion de la mission : RehandleOnChange. 132 10.11Extrait du modèle causal du processus métier Gestion de la mission après l’évolution RehandleOnChange. . . . . . . . . . . . . . . . . . . . . . . . . . 133 xListe des tableaux Liste des tableaux 2.1 Taxonomie d’une évolution : la dimension "Où". . . . . . . . . . . . . . . . 19 2.2 Taxonomie d’une évolution : la dimension "Quoi". . . . . . . . . . . . . . . 20 2.3 Taxonomie d’une évolution : la dimension "Quand". . . . . . . . . . . . . . 21 2.4 Taxonomie d’une évolution : la dimension "Comment". . . . . . . . . . . . . 22 2.5 Récapitulatif des hypothèses de travail. . . . . . . . . . . . . . . . . . . . . . 23 3.1 Comparatif des différents processus de développement. . . . . . . . . . . . . 29 3.2 Comparatif des différentes analyses d’impact. . . . . . . . . . . . . . . . . . 35 5.1 Rôles intervenants dans la réalisation d’un système. . . . . . . . . . . . . . . 45 5.2 Description des étapes 0 à 2 du processus de développement (Blink). . . . 47 5.3 Description des étapes 3 à 5 du processus de développement (Blink). . . . 48 5.4 Description de l’étape 6 du processus de développement (Blink). . . . . . . 49 6.1 Règle causale pour les relations causales de paramètre d’entrée. . . . . . . . 62 6.2 Règle causale pour les relations causales de paramètre de sortie. . . . . . . . 63 7.1 Formules d’agrégation du temps de réponse. . . . . . . . . . . . . . . . . . . 76 7.2 Règle de production des relations causales d’environnement. . . . . . . . . . 78 7.3 Règle causale d’environnement générée. . . . . . . . . . . . . . . . . . . . . 78 7.4 Règle de production des relations causales de dérivation. . . . . . . . . . . . 79 7.5 Règle causale de dérivation générée. . . . . . . . . . . . . . . . . . . . . . . 79 7.6 Règle de production des relations causales d’agrégation. . . . . . . . . . . . 80 7.7 Règle causale d’agrégation générée. . . . . . . . . . . . . . . . . . . . . . . . 80 8.1 Liste des opérations d’évolution. . . . . . . . . . . . . . . . . . . . . . . . . 86 8.2 Correspondance entre opérations d’évolution et actions du modèle causal. . 90 8.3 Génération de la mise à jour du modèle causal de PicWeb. . . . . . . . . . 91 8.4 Description de l’opération collecte. . . . . . . . . . . . . . . . . . . . . . . . 92 9.1 Description des fonctionnalités par module. . . . . . . . . . . . . . . . . . . 108 10.1 Nombre de valeurs de propriété à re-vérifier pour chaque méthode d’analyse. 134Chapitre 1 Introduction Sommaire 1.1 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2 Défis pour maintenir la qualité de service lors de l’évolution . . 2 1.3 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.4 Organisation du document . . . . . . . . . . . . . . . . . . . . . . . 4 1.5 Liste des publications liées à cette thèse . . . . . . . . . . . . . . . 5 L ’informatique prend aujourd’hui une place de plus en plus grande dans le quotidien des personnes, et dans le quotidien des entreprises. L’outil numérique développé au cours du dernier siècle est aujourd’hui omniprésent dans la société. Cela se traduit par l’existence de nombreux systèmes logiciels, allant du simple jeu sur un téléphone portable au moteur de recherche utilisé massivement. Ces systèmes, qui autrefois étaient monolithiques et centralisés, sont devenus avec l’apogée de l’Internet et l’augmentation de la taille des organisations des entreprises des systèmes distribués, de taille conséquente, et à la complexité croissante. Les architectures orientées services (SOA) constituent une solution permettant de maî- triser cette complexité. La conception d’applications se matérialise par le biais de la chorégraphie ou de l’orchestration de services à l’aide de processus métiers, offrant ainsi un mécanisme de composition permettant de gagner en abstraction et de réduire la complexité. En ce sens, concevoir une application reposant sur les principes des architectures orientées services consiste à mettre en relation les flots de contrôle et de données de ces services. Au delà de la nécessité de produire des systèmes correspondant aux besoins des utilisateurs, la qualité de service (QoS), définie par Crnkovic et al. comme "une caractérisation de tout ou d’une partie du système, selon une préoccupation particulière" [Crnkovic 2005], constitue une préoccupation à gérer au cours du développement de logiciels. L’analyse et le maintien de la QoS d’un système sont des opérations critiques, car la QoS sert de base à l’établissement de contrats de service entre fournisseurs et utilisateurs, et un non-maintien de la QoS entrainerait une rupture de contrat. De par la composition des services, la dé- termination de la QoS d’une orchestration s’effectue par calcul, dépendant ainsi de la QoS des services la constituant. C’est ce que l’on appelle l’agrégation [Cardoso 2004]. Les logiciels que nous considérons ici, dont la taille et la complexité échappent à la compréhension d’une seule personne, sont amenés à être modifiés tout au long de leur cycle de vie. Les modifications opérées, que l’on appelle dans ce document évolutions, sont la conséquence/réaction d’un changement de besoins de la part des utilisateurs, d’un changement survenu dans l’environnement d’exécution ou encore dans l’architecture du système. Ces évolutions, de par la modification du comportement du système qu’elles entraînent, impliquent de s’assurer que la QoS n’a pas été détériorée. Ainsi, lors de chaque évolution, les changements effectués sur le logiciel impliquent de re-vérifier la QoS de l’ensemble du système.1.1. Problématique 1.1 Problématique Dans un contexte où les attentes en termes de fonctionnalités et de qualités du logiciel sont fortes, faire évoluer ce dernier est un processus critique, tant par l’effet que l’évolution peut avoir que par la nécessité d’un processus court permettant d’être réactif à l’égard des utilisateurs. Il est parfois même nécessaire d’appliquer l’évolution au cours même de leur exécution. Dans ce cas, il est vital d’établir un processus d’évolution court et minimal, pour ne pas parasiter ou ralentir son fonctionnement. Il s’agit ici d’un problème complexe, où la nécessité d’effectuer une évolution maintenant les propriétés de QoS implique une collaboration proche entre les différentes expertises de l’équipe de développement, notamment entre l’expertise de la QoS et celle de l’évolution. Le processus d’évolution nécessite d’être court dans sa réalisation, tout en s’assurant du maintien de la QoS du logiciel. L’objectif est donc ici de minimiser la re-vérification des propriétés de QoS, en déterminant de manière précise quelles parties du logiciel ont été réellement affectées par l’évolution. Dans le cadre de cette thèse, nous nous intéressons tout particulièrement aux systèmes reposant sur une architecture orientée services, pour lesquels le comportement est représenté à l’aide de processus métiers. Les mécanismes d’évolution à définir doivent permettre d’établir l’effet d’une évolution sur le reste du système, afin d’éviter un ensemble de dépendances cachées entre les éléments. De plus, le processus d’évolution devra garantir le maintien des contrats de qualité de service. Il s’agit donc non seulement de comprendre l’effet d’une évolution sur le reste du système, mais également sur les différentes propriétés de QoS ayant un intérêt pour l’équipe de développement ou pour la communauté d’utilisateurs. Enfin, ces mécanismes d’évolution devront prendre en compte la répartition des compétences et des expertises de l’équipe de développement, en définissant les différents rôles nécessaires à un processus d’évolution fiable en termes de QoS, et en identifiant les points d’interaction entre ces différents rôles pour partager leurs expertises propres. 1.2 Défis pour maintenir la qualité de service lors de l’évolution L’objectif de cette thèse est de fournir à l’équipe de développement et de maintenance les outils permettant de s’assurer que la qualité de service est maintenue au cours des différentes évolutions du logiciel, tout au long de son cycle de vie. Le maintien de la QoS lors d’une évolution est une tâche complexe, nécessitant la collaboration de différentes expertises telles que l’expertise du métier, de l’environnement d’exécution, ou encore de la propriété de QoS considérée. De plus, le contexte des architectures orientées services positionne notre travail dans un environnement où l’agilité du développement est pré-dominante. En effet, avec des changements fréquents des besoins des utilisateurs, mais également des services externes utilisés, la fiabilité de la QoS et son maintien dans de tels systèmes sont des valeurs importantes. Nous énumérons dans cette section les différents défis liés à l’évolution d’un logiciel en terme de qualité de service : 1. Collaboration entre acteurs : pour gérer une évolution et assurer le maintien de la qualité de service d’un système, la connaissance et la coopération des acteurs œuvrant au niveau du système développé, des propriétés de qualité de service étudiées, et des évolutions sont nécessaires. En effet, effectuer une évolution tout en s’assurant du maintien de la qualité de service requiert une connaissance transversale à ces différents domaines, que seule la coopération peut apporter. L’identification des différents rôles et des différentes expertises au sein de l’organisation permettront de concevoir et de 21.3. Proposition faire évoluer un système où la qualité de service est l’une des préoccupations. Cette identification est nécessaire dans le but de responsabiliser et de définir les différentes collaborations à mettre en place. 2. Interactions entre les différentes parties d’un logiciel : le logiciel réalisé par l’équipe de développement est bien souvent constitué de sous-parties, qui interagissent pour proposer des fonctionnalités attendues par les utilisateurs. Ces interactions in- fluent sur la qualité du service du système, et sont bien souvent implicites. L’identi- fication explicite des interactions entre les éléments d’un système permet d’améliorer la compréhension du système dans son ensemble, notamment lors d’une évolution. 3. Minimisation de la vérification : afin de s’assurer du maintien de la qualité de service, l’étape de l’évolution est accompagnée d’une étape de vérification, où chaque propriété de QoS est contrôlée pour l’ensemble du système. Toutefois, avec l’augmentation de la taille des systèmes, cette phase peut devenir chronophage. Ce phénomène s’accentue si l’on considère des systèmes développés de manière agile, où les évolutions sont fréquentes. Dans ces conditions, l’étape de vérification doit être la plus rapide possible afin de ne pas interférer avec le bon fonctionnement du système et de ne pas dégrader ses performances. Nous devons rendre l’étape de vérification la plus rapide possible, en minimisant le nombre d’éléments à re-vérifier. 4. Identification de la cause de la violation d’un contrat : lorsqu’une évolution viole un contrat de QoS, l’équipe de développement a pour tâche de détecter l’origine de cette violation, dans le but de pouvoir corriger l’évolution. Partant du contrat violé, il s’agit donc d’identifier l’ensemble des interactions du logiciel impliquées dans la dégradation de la QoS, afin de cibler au plus près son origine. Pour cela, nous cherchons à établir les dépendances existant entre l’exécution du logiciel et sa qualité de service. 1.3 Proposition Pour répondre à ces défis, nous présentons dans cette thèse un ensemble de contributions constituant un mécanisme d’évolution à la fois agile dans la réaction aux besoins de l’utilisateur, fiable dans le maintien de la qualité de service une fois l’évolution réalisée, et minimale, dans le sens où le processus de vérification de la qualité de service doit être le plus court possible dans le cas où l’évolution s’opèrerait à l’exécution. Ces contributions s’articulent autour d’un cycle de développement agile, nommé Blink, portant une attention particulière sur le maintien de la QoS lors de l’évolution. Notre cycle de développement met au centre des préoccupations la notion d’évolution comme élément à prendre en compte dès les premières étapes de conception du logiciel. En identifiant les différents rôles nécessaires au maintien de la QoS de l’évolution, Blink permet d’identifier l’ensemble des informations devant être fourni, et de délimiter les points d’interaction dans le but d’échanger ces informations. En complément du processus de développement, nous présentons Smile, un canevas de développement mettant en œuvre Blink. Celui-ci implémente une boucle d’évolution, permettant de concevoir, d’analyser et d’appliquer une évolution, en portant une attention particulière au maintien de la qualité de service. Le but de cette boucle est de déterminer au plus tôt l’effet que peut avoir une évolution sur le reste du système et sur sa QoS. Pour cela, notre analyse de l’évolution consiste à déterminer les relations de causalité qu’une évolution a sur le reste du système. Il s’agit ici d’utiliser ces relations causales, dans le but d’identifier les différents éléments affectés et de re-vérifier par la suite si la qualité de service de ces éléments a été affectée. Cela permet ainsi de pouvoir identifier dans un premier temps la 31.4. Organisation du document portée d’une évolution, afin de pouvoir dans un second temps minimiser le processus de re-vérification. En résumé, les contributions de la thèse sont les suivantes : – Blink, un processus de développement collaboratif pour le maintien de la QoS lors de l’évolution : nous définissons dans ce document un processus de développement pour lequel la problématique du maintien de la QoS lors de l’évolution est au centre des préoccupations. Pour cela, nous définissons un ensemble d’acteurs, devant collaborer tout au long du cycle de développement en partageant les informations propres à leur expertise qui pourraient être utile au maintien. – Une méthode de détermination des interactions entre les différentes parties du système : nous définissons dans un premier temps quels types d’influence nous pouvons retrouver dans un système et au niveau de la qualité de service. Puis, nous présentons une méthode permettant, à partir d’un système et de la description d’une propriété de qualité de service, de déterminer de manière automatique ces influences. – Une analyse d’évolution permettant de déterminer l’effet d’une évolution sur la QoS du système : en réutilisant les modèles représentant les interactions existantes au sein d’un système, nous présentons une analyse permettant, à partir d’une évolution, de savoir l’effet de cette dernière au sein du système, mais également de déterminer si un contrat de QoS a été violé ou non, gage du maintien de la QoS. – Smile, un canevas de développement automatisant les différents traitements nécessaires à Blink : nous introduisons dans ce document notre canevas supportant les différents points abordés ci-dessus, et montrons ce que ce canevas de développement apporte lors de l’évolution. Afin de valider l’apport de notre approche dans le maintien de la QoS lors de l’évolution, nous appliquons Blink et Smile sur un cas d’étude nommé Système de gestion de crises. Lors de cette validation, nous vérifions notamment si notre outil est en mesure de détecter le non-maintien de la QoS lors de l’évolution du cas d’étude. 1.4 Organisation du document Ce document est organisé en trois parties : 1. La première partie se concentre sur le contexte et les motivations de la thèse. Dans le chapitre 2, nous posons le contexte de travail, d’un point de vue conceptuel et technologique. Nous définissons ici les notions liées aux architectures orientées services, à la qualité de service, et à l’évolution des systèmes logiciels. Dans le chapitre 3, nous dressons l’état de l’art des travaux de recherche sur ce domaine. Pour cela, nous nous focalisons sur deux axes, à savoir les cycles de développement d’un logiciel, et les différentes analyses d’impact pouvant déterminer l’effet d’une évolution, ou d’un changement en général. Enfin, dans le chapitre 4, nous décrivons PicWeb, que nous utilisons comme exemple fil rouge nous permettant d’illustrer les différentes contributions de la thèse. Après avoir présenté l’exemple, nous expliquons comment un problème de qualité de service est survenu lors de son évolution. 2. La deuxième partie regroupe les contributions de la thèse, réparties en quatre chapitres. Dans le chapitre 5, nous présentons Blink, un processus de développement orienté pour le maintien de la qualité de service au cours des différentes évolutions. Nous mettons notamment en évidence les différents acteurs nécessaires au maintien de la QoS. Les chapitres 6 à 8 se focalisent alors successivement sur chaque acteur 41.5. Liste des publications liées à cette thèse impliqué dans Blink. Le chapitre 6 se centre sur la réalisation d’un système, et sur le rôle de l’architecte du système. Nous définissons un méta-modèle permettant de représenter un système à base de processus métiers. Puis, nous introduisons la notion de causalité dans un système, permettant de représenter les interactions entre ses différentes parties, et dressons une liste de causalités que l’on peut retrouver. Le chapitre 7 est focalisé sur le rôle de l’expert en qualité de service. Nous présentons ici notre méta-modèle pour représenter une propriété, ainsi que QoS4Evol, un langage permettant à l’expert en QoS de la définir de manière textuelle. De manière similaire au chapitre précédent, nous définissons ensuite la notion de causalité pour les propriétés de qualité de service. Nous listons les différents types de relation causale que nous pouvons retrouver pour une propriété de QoS, et les illustrons sur PicWeb. Enfin, nous présentons une méthode permettant d’extraire automatiquement les relations causales de la description d’une propriété. Le chapitre 8 porte sur l’architecte de l’évolution. Nous introduisons un langage d’évolution des processus métiers, permettant d’ajouter ou de supprimer des fonctionnalités. Puis, nous nous focalisons sur l’étape d’analyse d’une évolution, où nous utilisons les relations causales présentées dans les chapitres précédents pour déterminer l’effet d’une évolution sur la qualité de service d’un système, et ainsi qualifier si une évolution permet le maintien de la QoS ou non. 3. La troisième partie du document s’intéresse à l’évaluation de notre approche. Le chapitre 9 détaille la mise en œuvre des différentes contributions au travers de notre canevas, Smile, tandis que le chapitre 10 est une évaluation de notre approche sur un autre cas d’étude, le système de gestion de crise. Ce cas d’étude a l’avantage d’être de taille plus importante que PicWeb, d’être constitué de plusieurs processus métiers, et d’être doté d’une base d’évolutions conséquentes. Enfin, nous terminons avec le chapitre 11, où nous faisons le bilan des différents chapitres de la thèse, et présentons quelques pistes à explorer dans de futurs travaux. 1.5 Liste des publications liées à cette thèse Les communications mentionnées ci-dessous ont été réalisées dans des manifestations avec comité de sélection. Communications internationales – A Causal Model to predict the Effect of Business Process Evolution on Quality of Service. Alexandre Feugas, Sébastien Mosser et Laurence Duchien. Dans International Conference on the Quality of Software Architectures (QoSA’13), pages 143-152, Vancouver, Canada, juin 2013. (Rang A selon le classement CORE Austalian) Communications nationales – Déterminer l’impact d’une évolution dans les processus métiers. Alexandre Feugas, Sébastien Mosser, Anne-Françoise Le Meur et Laurence Duchien. Dans IDM, pages 71-76, Lille, France, juin 2011. 51.5. Liste des publications liées à cette thèse Posters – Un processus de développement pour contrôler l’évolution des processus métiers en termes de QoS. Alexandre Feugas, Sébastien Mosser et Laurence Duchien. Poster dans GDR GPL, pages 237-238, Rennes, France, Juin 2012. 6Première partie Contexte et MotivationsChapitre 2 Contexte Sommaire 2.1 Les architectures orientées services . . . . . . . . . . . . . . . . . . 9 2.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.1.2 Organisation des architectures orientées services . . . . . . . . . . . 10 2.2 La Qualité de Service . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.2.1 Qualité du logiciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.2.2 Méthodes de détermination de la qualité de service . . . . . . . . . . 14 2.2.3 Contrats de Qualité de Service . . . . . . . . . . . . . . . . . . . . . 17 2.3 Évolution des systèmes logiciels . . . . . . . . . . . . . . . . . . . . 17 2.3.1 Définition de l’évolution . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.3.2 Caractéristiques d’une évolution . . . . . . . . . . . . . . . . . . . . 18 2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 N ous avons présenté dans l’introduction l’objectif de cette thèse. Dans ce chapitre, nous présentons ses enjeux d’un point de vue conceptuel et technologique : nous abordons dans un premier temps les architectures orientées services. Puis, nous présentons la notion de qualité de service, ainsi que les approches existantes permettant de l’étudier. Nous introduisons enfin la définition de l’évolution : quelles notions se trouvent derrière ce concept, comment l’équipe de développement s’y prend pour faire évoluer un logiciel. 2.1 Les architectures orientées services 2.1.1 Définitions Les architectures orientées services (SOA) sont un nouveau paradigme de conception apparu dans la fin des années 90. Il existe différentes définitions pour caractériser les architectures orientées service. Parmi elles, nous pouvons retenir la définition du W3C [Haas 2004] : Définition 1 Architecture Orientée Services (W3C) : "une architecture orientée services regroupe un ensemble de composants qui peuvent être invoqués, et pour lesquels les descriptions de leurs interfaces peuvent être publiées et découvertes". Cette définition peut être complétée par une autre définition, d’IBM : Définition 2 Architecture Orientée Services (IBM) : "une architecture orientée services est un canevas d’information qui considère les applications métiers de tous les jours pour les fragmenter en fonctions et processus métiers individuels, appelés services. Une architecture orientée service permet la construction, le déploiement et l’intégration de ces2.1. Les architectures orientées services services indépendamment des applications et des plate-formes d’exécution". De ces deux définitions, nous pouvons comprendre que la notion de service, comme entité de calcul invocable, et pour lequel une interface est définie, est principale. Ces services sont indépendants, ils sont déployés pour pouvoir par la suite être publiés, découverts et invoqués. Il existe différentes technologies dites orientées services, reprenant les principes des architectures orientées services plus ou moins fidèlement. Parmi elle, nous retiendrons notamment les web-services [Kuebler 2001], où l’on considère que les services sont définis et exposés en utilisant les standards du Web. Propriétés remarquables Les architectures orientées service ont été définies pour concevoir des systèmes logiciels pour lesquels les entités de première classe sont les services, des entités autonomes, invocables, dont l’interface est clairement explicitée. Plusieurs travaux ont proposé la caractérisation des architectures orientées services [Papazoglou 2003, Huhns 2005, Breivold 2007, Papazoglou 2007]. Dans la suite, nous recensons les propriétés suivantes : – Couplage lâche des éléments : afin de pouvoir faciliter la reconfiguration d’un service, e.g., son remplacement, les éléments d’un système doivent bénéficier d’un couplage lâche, c’est-à-dire qu’il n’est pas nécessaire pour un appelant à un service de connaître la structure ou l’implémentation de ce dernier pour pouvoir l’utiliser. De même, une façon de permettre un couplage lâche au niveau d’un service consiste à séparer l’interface de l’opération et son implémentation. Cela offre la possibilité de pouvoir modifier l’implémentation, ou de pouvoir exposer facilement l’interface du service. – Neutralité technologique : pour permettre à tout système d’interagir avec un service, la dépendance à un contexte technologique donné est à proscrire. Cette propriété s’inscrit dans un contexte d’inter-opérabilité, facilitant ainsi l’établissement de partenariats entre différentes organisations. – Transparence de la localisation : un service doit être explicitement atteignable, de façon à permettre à tout client de pouvoir l’invoquer, dans son périmètre de disponibilité. Dans le cas des web-services, un service doit être disponible à n’importe quel point de l’Internet. – Modularité et Composabilité : les architectures orientées services mettent en avant le côté réutilisable des services. Par le biais d’une interface exposée et de l’interopérabilité des services, le concept de service a été conçu pour facilité la modularité, la réutilisabilité et la composabilité d’une application. Ainsi, il est possible de délimiter le cadre de modification d’un service par son aspect modulaire, l’exposition de son interface permet de réutiliser le service dans une autre application, et, partant de différents services, il est possible de composer un nouveau service avec une fonctionnalité différente, en utilisant d’autres services par le biais d’invocations. Pour atteindre cet ensemble de propriétés, un éco-système des architectures orientées services a été défini par Papazoglou [Papazoglou 2003] comme étant constitué de trois couches. Dans la suite de cette section, nous détaillons cette organisation en trois couches. 2.1.2 Organisation des architectures orientées services Dans son travail sur la définition des architectures orientées service, Papazoglou a imaginé l’éco-système des SOA comme étant constitué de trois couches, où chaque couche s’appuie sur les définitions des couches précédentes. La première couche concerne les services à 102.1. Les architectures orientées services leur niveau le plus simple. Ici, on s’intéressera aux notions d’interface, de publication et de sélection d’un service. La seconde couche s’appuie sur les services basiques pour définir de nouveaux services par composition. On appelle composition de services la réalisation d’un service en réutilisant d’autres services, le plus souvent pour construire une fonctionnalité de complexité supérieure. Ici, on attachera plus d’importance à la sémantique du nouveau service composé, mais également à des caractéristiques non fonctionnelles d’un service telles que les propriétés de qualité de service. Enfin, le dernière couche considère la gestion des services. Ici, il s’agit en fait de considérer l’infrastructure dans son ensemble, en ayant en tête des préoccupations telles que le cycle de vie du service, son contrôle, et la gestion du changement d’un service. 2.1.2.1 Services simples Définition d’un service Comme introduit dans les propriétés des SOA, une opération d’un service, ou par abus de langage un service, a une interface explicitement définie. Cette interface définit a minima la signature de l’opération. Concrètement, il peut s’agir d’une structure écrite dans un Language de Description d’Interface (IDL) [Bachmann 2002]. Dans le cadre des web-services, le langage adopté est le Langage de Description des Web Services (WSDL) [Chinnici 2007]. Il est ainsi possible d’y décrire des types de données, les signatures des différentes opérations, tout comme consigner la localisation du service par le biais d’un identifiant de ressource (Uniform Resource Identifier, URI en abbrégé) [Coates 2001]. Un service est en soi autonome et indépendant. C’est cette caractéristique qui permet aux architectures orientées services d’offrir un couplage lâche entre les éléments. Interactions d’un service Au niveau des interactions entre les services, il est important de différencier deux acteurs différents. Ces acteurs auront des préoccupations différentes : – Fournisseur de Service : il est en charge de l’implémentation des différentes opé- rations du service. Il doit notamment prendre en compte la qualité de service, en adoptant une politique, cette police pouvant aller d’une politique de "meilleur effort" (où aucun niveau minimal de qualité est à atteindre), jusqu’à mettre la qualité de service au rang de préoccupation majeure. Ce dernier scénario se rencontre fréquemment dans les logiciels à base de services. En effet, dans un système où les services sont publiés et disponibles pour tous, le critère de différenciation et de choix entre deux services implémentant les mêmes fonctionnalités portera sur le niveau de qualité de service garanti pour l’opération. Il est important dans ce cas de fournir le service le plus efficient possible. Afin de pouvoir établir ces contraintes et ces attentes en termes de qualité de service, il est nécessaire pour le fournisseur du service et pour l’utilisateur du service d’établir un contrat, nommé Service Level Agreement (SLA) [Ludwig 2003], où chacune des parties s’engagent respectivement à fournir un certain niveau de qualité de service et à utiliser le service dans certaines conditions. Nous reviendrons sur ce point dans la section 2.2.3. – Utilisateur du service : il s’agit de l’entité faisant appel à l’opération proposée par le fournisseur. Si l’utilisateur n’a a priori aucun engagement auprès du fournisseur de service, ce dernier doit être en mesure d’établir des limites dans l’utilisation du service invoqué, afin de pouvoir garantir un niveau de qualité de service satisfaisant. En effet, invoquer un service de façon disproportionnée (trop fréquemment par exemple) pourrait notamment détériorer les performances de ce dernier [Menasce 2002]. De 112.2. La Qualité de Service plus, l’utilisateur du service doit être le garant de la bonne intégration du service dans l’éco-système du logiciel qu’il réalise, notamment dans le cadre de transactions. 2.1.2.2 Composition de Services La notion de service est enrichie avec le concept de composition, où l’on va chercher ici à réutiliser des services existants pour, en les combinant, produire un nouveau service ayant une fonctionnalité différente. Dans les architectures orientées services, il existe principalement deux types de composition : la composition par orchestration et la composition par chorégraphie. Nous appelons orchestration de services un processus métier exécutable, pouvant interagir avec des services internes et externes [Peltz 2003]. Il s’agit en fait de la combinaison d’un flot de contrôle et d’un flot de données pour décrire la séquence des opérations à effectuer pour aboutir à un but donné. L’orchestration d’un service diffère de la chorégraphie dans le sens où cette dernière a un rôle de vision globale des interactions d’un système, là où l’orchestration représente le comportement d’une seule opération, et ses échanges avec d’autres services. 2.1.2.3 Gestion de services Le dernier niveau organisationnel consiste à gérer les différents services existants. Dans cette partie, il s’agit de gérer le cycle de vie d’un service (marche/arrêt) ainsi que le contrôle de son exécution. Dans certains cas, il pourra également s’agir de gérer le remplacement à chaud de services par un autre, en cas de défaillance par exemple. Ces techniques sont implémentées dans les Bus de Services pour les Entreprises (ESB), véritable plate-forme d’exécution gérant entre autres l’exécution des services et leurs communication. La modularité présente dans les architectures orientées services, associée à la notion d’inter-opérabilité, permet notamment de faciliter la sélection ou le remplacement d’un service par un autre aux fonctionnalités similaires. Dès lors, le concepteur a face à lui un panel de services équivalents parmi lesquels il devra en choisir un. Pour effectuer son choix, il peut désormais prendre en compte un nouveau critère de sélection : la qualité de service. 2.2 La Qualité de Service Dans cette section, nous présentons la notion de qualité de service. Nous introduisons dans un premier temps le domaine de qualité du logiciel, avant de nous concentrer sur ce qu’est la qualité de service, quelles sont les différentes méthodes de détermination, et comment il est possible de la maintenir dans les SOA. 2.2.1 Qualité du logiciel La notion de qualité du logiciel regroupe l’ensemble des caractéristiques visant à évaluer la manière dont le logiciel a été réalisé. Derrière ce terme, on retrouve un ensemble de caractéristiques ; certaines sont quantifiables, tandis que d’autres sont totalement à l’appréciation de l’humain. Afin de pouvoir caractériser les caractéristiques d’un logiciel qui ne sont pas propres à son exécution ou à sa logique métier, la notion de qualité du logiciel a été introduite dans le milieu des années 70 pour définir une classification d’un ensemble de propriétés de qualité du logiciel [Boehm 1976]. Cette notion fut normalisée par la norme ISO/CEI9126 [ISO 2001] et est régulièrement ré-actualisée [ISO 2004], pour s’inscrire désormais dans une démarche d’établissement des besoins de qualité et de son évaluation. Cette 122.2. La Qualité de Service démarche se nomme Square. On retrouve notamment dans cette norme une classification regroupant l’ensemble des propriétés de qualité autour de 5 catégories : – La capacité fonctionnelle : il s’agit de la manière dont les fonctionnalités développées correspondent au cahier des charges. On s’intéresse notamment ici aux souscaractéristiques d’aptitude, d’exactitude et d’interopérabilité [Brownsword 2004]. – La fiabilité : il s’agit de la faculté du logiciel à continuer d’être digne de confiance. Pour cela, on s’intéresse aux sous-caractéristiques de maturité, de tolérance aux fautes et de capacité de récupération [Ucla 2001, Clements 2003]. – La facilité d’usage : cette catégorie qualifie la capacité d’un utilisateur quelconque à utiliser le logiciel développé. On s’intéresse ici aux sous-caractéristiques d’exploitabilité, de facilité d’apprentissage et de facilité de compréhension – L’efficacité : cette caractéristique étudie l’adéquation entre les moyens financiers et humains mis en œuvre pour réaliser le logiciel, et les besoins effectifs. On s’intéresse ici à l’efficacité en parlant des ressources employées, et des temps de réalisation – La maintenabilité : cette catégorie regroupe toutes les caractéristiques propres à la faculté de modifier le logiciel pour ,par exemple, corriger un bogue. On s’intéresse ici aux sous-caractéristiques de stabilité, de facilité de modification, de facilité d’analyse, et de facilité à être testé. – La portabilité : enfin, une dernière caractéristique propre à la qualité se centre sur la capacité à déployer une application sur une machine quelconque. On s’intéresse ici aux sous-caractéristiques de facilité d’installation, de facilité de migration, d’adaptabilité et d’interchangeabilité. De toutes ces sous-caractéristiques, certaines sont mesurables et quantifiables, tandis que d’autres sont subjectives. Dans le cadre de cette thèse, nous considérons que les propriétés de qualité de service sont quantifiables, et dont un changement de valeur démontre un changement dans le comportement du système. À noter qu’il est important pour les différentes personnes gravitant autour du logiciel développé de prendre en compte la qualité du logiciel. Pour le client, il s’agit du gage d’un système performant. Pour les développeurs, développer un système de qualité permet de s’assurer que l’entreprise engrangera du profit au lieu d’essuyer des pertes. Qualité de Service Il existe de nombreuses définitions de la qualité de service. Parmi elles, nous retenons dans ce document la définition de Crnkovic et al. [Crnkovic 2005] : Définition 3 Qualité de Service : On appelle propriété de qualité de service "une caractérisation de tout ou d’une partie du système, selon une préoccupation particulière". Il s’agit ici de propriétés portant directement sur le comportement du logiciel. Elles sont le plus souvent quantifiables. Dans le cadre de cette thèse, nous restreignons notre étude des propriétés de QoS aux propriétés quantifiables de manière non équivoque. Un exemple de propriétés de qualité de service correspondant à notre définition est les propriétés de performance telles que la sécurité, le temps de réponse ou la disponibilité [O’Brien 2007, Rosenberg 2006], pour lesquelles il existe bien souvent des outils d’analyse ou de contrôle à l’exécution permettant d’obtenir une valeur numérique. Tout particulièrement, on regardera du côté de [Lelli 2007, Fakhfakh 2012] pour des exemples de propriétés de qualité de service que l’on rencontre dans les SOA. 132.2. La Qualité de Service Il existe de nombreux langages de modélisation de la qualité de service. Les travaux les plus proche de notre thématique sont CQML [Rottger 2003], WQSDL [Newcomer 2002] et MARTE [OMG 2009b]. Dans ces langages, une propriété est définie par son nom. À ce nom est associé a minima une unité de grandeur et un critère de comparaison permettant de savoir si une valeur est meilleure qu’une autre. Par exemple, on cherchera le plus souvent à minimiser des durées (le plus petit est meilleur), mais on cherchera à augmenter un pourcentage dans le cas de la disponibilité (le plus grand est meilleur). Outre ces informations, les langages de QoS décrivent une, ou plusieurs manières de déterminer la valeur de qualité de service. Nous discutons des différentes méthodes de détermination dans la section suivante. 2.2.2 Méthodes de détermination de la qualité de service Dans le contexte de la thèse, les propriétés de qualité de service sont des grandeurs quantifiables caractérisant un spécimen donné, à savoir le service. Nous présentons dans cette section les différentes méthodes de détermination de la qualité de service existantes. Détermination par analyse statique Une manière de déterminer les valeurs des propriétés de qualité de service consiste à effectuer une analyse statique du logiciel. Cette méthode s’opère le plus souvent au cours de la phase de conception, et peut s’appuyer sur des informations provenant de l’exécution du logiciel. De nombreuses techniques existent pour analyser un logiciel. Par exemple, de nombreux travaux transforment le logiciel/processus métier en réseau de Pétri [Reisig 1998] pour effectuer des analyses formelles. On retiendra notamment les travaux de van der Aalst et de Massuthe qui cherchent à déterminer si un logiciel est correct [Van der Aalst 2008, Massuthe 2005]. Dans le domaine de l’ingénierie des performances, l’établissement de modèles tels que les réseaux de file d’attente ("queuing network" en anglais) ou les modèles d’utilisation permettent de simuler l’exécution du système. Il est également possible de traduire un processus métier dans une logique temporelle linéaire (LTL) [Pnueli 1977, Giannakopoulou 2001] ou dans un langage de Pi-Calcul [Milner 1999]. Cela permet par exemple de déterminer des propriétés de sûreté et de correction (justesse). [Havelund 2002, Ferrara 2004]. La détermination par analyse est particulièrement adaptée pour des propriétés portant sur la structure ou l’architecture du système, et qui ne dépendent pas de l’état des éléments du système à l’exécution. Cette technique s’applique hors-ligne, à un moment où on peut se permettre de prendre plus de temps pour exécuter les analyses. Toutefois, dans certains cas, comme lorsqu’on souhaite déterminer la taille d’un message où la taille de certaines variables n’est pas fixe, l’analyse n’est pas déterminable hors ligne. Dans ce cas, l’analyse raffine en déterminant tout ce qui est possible à la conception, pour aller chercher uniquement les informations nécessaires à l’exécution. On parle alors d’analyse dynamique. Détermination par analyse dynamique Dans le cas où certaines informations ne sont pas disponibles hors ligne, la détermination d’une valeur de propriété s’effectue à l’exécution. C’est le cas notamment pour des propriétés telles que le temps de transmission d’un message ou le temps de réparation d’un service [OASIS 2010], qui ont une forte dépendance au contexte d’exécution. Pour cela, la détermination s’effectue à l’aide d’un moniteur. Un moniteur a pour rôle d’observer un 142.2. La Qualité de Service ou plusieurs événements survenant au cours de l’exécution d’un logiciel, en capturant des informations sur l’état du logiciel avant, après, ou en parallèle de ces événements. Outre la propriété qu’il observe, il est possible de qualifier un moniteur selon différents critères. Nous retiendrons ici le type de moniteur. Wetzstein et al. classifient dans leurs travaux trois types de moniteurs : moniteur externe au moteur d’exécution, instrumentation du moteur d’exécution et instrumentation du processus métier [Wetzstein 2009]. Selon la solution choisie, l’insertion de code lié à la capture des informations à l’exécution engendrera un sur-coût en terme de performance pouvant influer sur le bon fonctionnement du système et sur sa qualité de service. On dit que le contrôle à l’exécution est intrusif [Cheng 2009]. L’intrusion du moniteur ainsi que son niveau d’interopérabilité seront plus ou moins grands. Par exemple, un moniteur instrumentant le moteur d’exécution sera optimisé pour que son intrusion soit moindre, mais il ne sera par compatible avec un autre moteur d’exécution. Nous retiendrons également la granularité de l’observation d’un moniteur : il s’agit du degré de détail auquel le moniteur est sensible [Ghezzi 2007]. À titre d’exemple, une mesure peut être effectuée au niveau du processus pour avoir une vision d’ensemble, au niveau de l’activité, ou encore basé sur des événements bas niveau tels que le changement d’état d’une activité en passe d’être exécutée [De Pauw 2005]. Ici encore, cette finesse dans la granularité a un coût : plus le contrôle sera fin, et plus de données seront collectées et précises. C’est autant de données qu’il faut par la suite analyser et interpréter. En revanche, rester à niveau d’abstraction trop élevé empêchera l’observation de certains phénomènes. Détermination par dérivation de propriétés Il est également possible de définir la détermination d’une propriété comme étant une fonction mathématique dépendant de valeurs d’autres propriétés. On parle de propriété dérivée de sous-propriétés. La valeur de propriété pour un élément du système (tel qu’un service) est définie en fonction de valeurs d’autres propriétés pour le même élément du système. Par exemple, le temps de réponse d’un service peut être défini comme étant la somme du temps de transmission et du temps d’exécution. Cette définition est opérée à l’aide d’une formule mathématique, nommée formule de dérivation. La Figure 2.1 est un exemple de dérivation où le temps de réponse est calculé en se basant sur les valeurs des propriétés dont il dérive. La détermination des valeurs de propriétés par dérivation a pour avantage d’être lé- gère, les formules définies utilisant le plus souvent des opérateurs arithmétiques simples. Toutefois, il est nécessaire de déterminer les opérandes utilisés dans la formule ; ces valeurs étant d’autres valeurs de propriétés, la détermination par dérivation nécessitera au préalable d’effectuer des analyses à la conception et/ou des mesures à l’exécution. Détermination par agrégation de valeurs Nous avons restreint dans le cadre de cette thèse le champ des propriétés étudiées aux propriétés composables. Cela veut dire que pour un élément de composition (tels que les processus métiers, les séquences, ou les appels en parallèle), il existe une formule mathématique permettant de déduire la valeur de propriété de la composition, à partir des valeurs de propriétés des activités contenues. Il suffit donc d’observer ces activités (par analyse statique ou par mesure), et de composer une valeur de propriété pour la composition en utilisant une formule mathématique nommée formule d’agrégation. Il est important de noter qu’ici, contrairement à la détermination par dérivation de propriétés, la détermination par agrégation de valeurs ne repose pas sur plusieurs propriétés différentes. Ici, il s’agit de 152.2. La Qualité de Service Activity act Monitor Report Transmission Time = 30 ms Monitor Report Computation Time = 19 ms Derivation Report Response Time = 30 + 19 = 49 ms Figure 2.1 – Exemple de détermination par dérivation. déduire une valeur de propriété pour un élément de composition à partir des valeurs de la même propriété, pour les éléments le constituant. La Figure 2.2 illustre la détermination par agrégation sur un processus métier quelconque. Ici, le temps de réponse du processus est la somme des temps de réponse des activités qu’il contient. De nombreux travaux ont porté sur l’établissement de ces formules d’agrégation. Les premiers à les avoir formalisées sont Cardoso [Cardoso 2004] et Jaeger [Jaeger 2004]. Ces travaux furent repris par Mukherjee [Mukherjee 2008], et par Dumas pour permettre leur établissement dans le cadre de processus métiers mal formés [Dumas 2010]. Canfora a même étendu le concept d’agrégation à des propriétés non fonctionnelles, mais spécifiques au domaine du logiciel étudié [Canfora 2006]. a1 a2 a4 a3 Derivation Report Response Time = 9 ms Derivation Report Response Time = 30 ms Derivation Report Response Time = 55 ms Derivation Report Response Time = 6 ms Aggregation Report Response Time = 9 + 30 + 55 + 6 = 100 ms Figure 2.2 – Exemple de détermination par agrégation. De manière similaire à la détermination par dérivation, la méthode par agrégation est peu coûteuse en elle-même en termes de ressources. Toutefois, elle nécessitera également une phase préliminaire de détermination à la conception et/ou à l’exécution. 162.3. Évolution des systèmes logiciels 2.2.3 Contrats de Qualité de Service Dans l’éco-système d’un service, différentes parties œuvrant pour sa réalisation et son utilisation doivent collaborer. Il s’agit notamment du fournisseur du service, responsable de son implémentation et de sa disponibilité, et du consommateur du service, qui l’utilise. Afin de pouvoir garantir que le service proposé reste stable au niveau de sa qualité de service, les différentes parties impliquées doivent se mettre d’accord. Pour pouvoir établir cet engagement, il est nécessaire d’établir des contrats entre ces différentes parties. Il existe différents supports pour pouvoir établir ces contrats. Le plus utilisé se nomme Web Service Level Agreement (WSLA) [Keller 2003]. Un contrat est un accord liant deux ou plusieurs parties sur certaines conditions, telles que les responsabilités de chaque partie ou les engagements à respecter. Dans le cadre des WSLA, un contrat est constitué de trois sections. D’abord, il s’agit d’établir l’identité de chaque partie impliquée. Puis, le contrat se poursuit par la désignation du service pour lequel les parties se mettent d’accord. Enfin, la dernière section du contrat établit les différentes clauses d’engagement. On parle alors d’objectifs de niveau de service (SLO). Un objectif est constitué d’une partie engagée par l’objectif (l’Obligee en anglais), d’une période de validité de l’objectif, et d’une condition à respecter. Cette condition prend la forme d’une expression, indiquant un ensemble d’opérateurs sur des métriques. Par exemple, on pourra décrire que la métrique de disponibilité doit être supérieur ou égale à 80%, ce qui signifie que le service en question doit être accessible pour le consommateur au minimum 80% du temps. Une fois que le contrat est mis en place, il est nécessaire de s’assurer que tous les objectifs sont bien respectés. Une approche possible pour cela consiste à utiliser un contrôleur, qui vérifie bien qu’aucun objectif n’est violé. On retiendra notamment les travaux de Oriol et al., qui ont développé un système nommé SALMon pour l’analyse et le contrôle de SLA [Oriol 2008]. Nous venons de présenter dans cette section les travaux existants autour de la qualité de service dans les architectures orientées services. Nous avons vu différentes manières de déterminer une valeur de propriété de QoS permettent de qualifier un service, avant de s’intéresser à la manière dont la QoS peut être conservée en définissant un contrat entre le fournisseur du service et son consommateur. Si ce dernier point est facilement vérifiable au moment du contrat, il convient de s’intéresser à l’étape de l’évolution, au cours de laquelle les changements opérés peuvent interférer la validité du contrat. Pour cela, nous nous intéressons dans la section suivante aux différentes caractéristiques de l’évolution des systèmes logiciels. 2.3 Évolution des systèmes logiciels 2.3.1 Définition de l’évolution Le domaine de cette thèse se concentre sur la manière de faire évoluer un logiciel au fil du temps. Cela veut dire par exemple d’ajouter des fonctionnalités, ou de maintenir le code pour effectuer les mêmes fonctionnalités. Traditionnellement, les logiciels ont besoin de changer pour correspondre aux besoins des utilisateurs, pour corriger un bug ou pour supporter l’évolution technologique. La notion d’évolution est apparue dans la fin des années 60 [Lehman 1969]. Lehman et al. ont été les premiers à en donner une définition [Lehman 1985] : Définition 4 Évolution du logiciel : "La satisfaction [des besoins] continue demande des change- 172.3. Évolution des systèmes logiciels ments continus. Le système aura à être adapté en fonction d’un environnement changeant et des besoins changeants, en développant des concepts et en faisant progresser les technologies. L’application et le système doivent évoluer. " Ce genre de logiciel est appelé un logiciel de type-E. Pour accompagner cette définition, les auteurs ont érigé une série de lois de l’évolution, établies de manière empirique suite à l’étude de plusieurs systèmes industriels monolithiques [Lehman 1997, Lehman 2006]. Parmi elles, nous retenons les suivantes, car elles s’inscrivent tout particulièrement dans notre contexte : Définition 5 Lois de l’évolution du logiciel : – Continuité du changement : Un système satisfera progressivement de moins en moins les besoins des utilisateurs au fil du temps, à moins qu’il s’adapte de manière continue pour satisfaire les nouveaux besoins. – Croissance de la complexité : Un système deviendra progressivement de plus en plus complexe, à moins qu’un travail soit effectué pour réduire la complexité. – Déclin de la qualité : Un système sera perçu comme perdant en qualité au fil du temps, à moins que sa conception soit maintenue avec précaution et adaptée à de nouvelles contraintes opérationnelles. En s’appuyant sur des expériences industrielles concrètes, ces trois lois renforcent notre position sur le besoin de faire évoluer un logiciel, et du besoin de s’assurer que la qualité du système continue à être maintenue au fil du temps. Il est important de noter ici que la notion de changement est au centre de ces définitions. Ce changement peut s’opérer de plusieurs manières : si l’on considère l’éco-système d’un système logiciel comme étant constitué du code source du système, de l’environnement dans lequel il est exécuté, des besoins utilisateurs desquels le système a émané, le changement peut s’opérer sur chacun de ces éléments. Pour nous positionner dans cet éco-système, nous nous appuyons sur les travaux de Godfrey et al. [Godfrey 2008]. Dans leur papier, les auteurs dressent un état des lieux du vocabulaire utilisé et des différentes catégories d’opérations que l’on peut qualifier de "changement". Ils se positionnent sur l’utilisation des mots maintenance et évolution. Dans le contexte de la thèse, nous considérons que la maintenance est une phase au cours de laquelle le logiciel est modifié pour corriger des bugs. Nous appelons adaptation la modification du logiciel pendant son exécution pour réagir à un changement de son environnement. En- fin, nous appelons évolution la modification d’un système logiciel suite à l’apparition de nouveaux besoins des utilisateurs. 2.3.2 Caractéristiques d’une évolution Cette section s’intéresse aux différents facteurs permettant de caractériser une évolution. Nous présentons dans un premier temps les différentes catégories, avant de positionner nos travaux pour chaque catégorie, dessinant ainsi le type d’évolution que nous traitons dans cette thèse. Afin de pouvoir décrire les caractéristiques d’une évolution, Mens et al. ont dressé une taxonomie de l’évolution du logiciel [Mens 2003]. Dans ces travaux, les auteurs ont défini quatre dimensions pour caractériser une évolution : le Où, le Quoi, le Quand et le Comment de l’évolution. Sous chaque dimension, un ensemble de caractéristiques caractérise 182.3. Évolution des systèmes logiciels cette dimension, proposant parfois diverses alternatives. Nous reprenons chacune de ces caractéristiques dans la suite pour positionner les travaux de cette thèse, en définissant quel type d’évolution nous traitons. Le "Où" de l’évolution : Cette dimension cherche à caractériser la localisation de l’application d’une évolution. Pour cela, les auteurs se sont intéressés à différents facteurs : – le type d’artéfact logiciel modifié : une évolution va consister en la modification d’un élément du système au sens large. Ici, il peut s’agir bien évidemment du code source de l’application ; mais on peut également considérer l’évolution comme un changement au niveau des besoins de l’utilisateur, de l’architecture, ou encore de la documentation. – la granularité de l’évolution : ce facteur est un ordre de grandeur évaluant à quel niveau de finesse l’évolution opère. Il peut s’agir d’une granularité fine, telle qu’un changement d’instruction ou de paramètre, jusqu’à un changement opéré à l’échelle du fichier, du package, du service, ou même du système dans son ensemble. – l’impact de l’évolution : le facteur d’impact est un critère d’importance pour qualifier une évolution. Il a pour but de caractériser la portée de l’effet du changement sur le reste du système. Il s’agit ici également d’un ordre de grandeur, allant d’un impact local, jusqu’à un impact à l’échelle du système. – la propagation du changement : ce facteur reprend la notion d’impact, en l’appliquant à l’échelle du processus de développement. Là où le facteur d’impact d’une évolution se concentre sur l’effet de l’évolution sur le comportement du système, la propagation du changement s’intéresse aux effets sur d’autres éléments tels que la documentation ou le modèle conceptuel. Nous résumons l’ensemble des facteurs de la dimension "Où" dans la Table 2.1, où les éléments notés en gras sont ceux que nous traitons dans le cadre de la thèse. Comptetenu de la définition de l’évolution que nous avons choisie, nous traitons des évolutions portant sur une partie du code source de l’application, à savoir les processus métiers. Ces évolutions ont une granularité fine : nous souhaitons pouvoir caractériser tout changement dans un processus métier, et un impact pouvant être local comme global. Enfin, nous nous intéressons uniquement à son effet sur le comportement du système, nous ne traitons pas la propagation du changement sur d’autres documents de conception. Table 2.1 – Taxonomie d’une évolution : la dimension "Où". Où Type d’artéfact Granularité Impact Propagation du changement Documentation Paramètre Local Documentation Conception Instruction Système Conception Implémentation Fichier Implémentation Tests Package Tests Le "Quoi" de l’évolution : Cette dimension s’intéresse aux caractéristiques du système sur lequel l’évolution est appliquée. – Disponibilité : la disponibilité du système peut être définie comme la capacité du système à répondre à une requête dans un laps de temps donné. Ici, il est important de 192.3. Évolution des systèmes logiciels savoir quelles contraintes sont définies sur le système pour pouvoir prévoir l’application d’une évolution. On considère qu’il peut être requis d’un système qu’il soit tout le temps disponible, qu’il peut y avoir des périodes d’arrêt du système sur des périodes courtes, ou simplement que le critère de disponibilité n’a pas d’importance. – Dynamisme : ce facteur détermine si les changements à opérer sur le système sont guidés de l’extérieur (système réactif), ou si les changements proviennent d’une observation faites par des contrôleurs propres à l’application (système proactif). Pour ce dernier cas, on parle de système autonome, et le changement est opéré à l’exécution. – Exposition : les auteurs parlent d’ouverture du système pour désigner sa faculté à autoriser son extension. On parle de système ouvert lorsque l’architecture et l’environnement d’exécution sont constitués de mécanismes d’extension. – Sûreté : la sûreté de l’évolution désigne la propriété du système à s’assurer que l’évolution ne met pas le système dans un état erroné. Il peut s’agir de mécanismes à la compilation, ou de contrôles effectués à l’exécution. On parle de sûreté statique lorsque le contrôle de sûreté est effectué hors ligne. À l’inverse, la sûreté dynamique consiste à vérifier l’évolution au cours de l’exécution du système. Nous résumons l’ensemble des facteurs de la dimension "Quoi" dans la Table 2.2. Pour cette dimension, nous nous positionnons dans un cadre où les systèmes doivent être réactifs (le client pouvant potentiellement poser des contraintes fortes de disponibilité d’un service), mais pour lesquels un temps d’arrêt pour effectuer de l’évolution est prévisible. Nous traitons des évolutions réactives, dans le sens où elles sont déclenchées par un changement dans les besoins du client, et ne sont pas le fruit d’une adaptation à l’environnement. De part le contexte technologique des SOA, l’exposition du système est ouverte, donnant de par le couplage lâche et l’aspect modulaire des services la possibilité de l’étendre. Enfin, nous nous positionnons dans un contexte d’évolution dont nous assurons la sûreté à la conception, par le biais d’une analyse. Table 2.2 – Taxonomie d’une évolution : la dimension "Quoi". Quoi Disponibilité Dynamisme Exposition Sûreté Toujours disponible Réactif Ouvert Statique Temps d’arrêt acceptable Proactif Fermé Dynamique Indifférent Le "Quand" de l’évolution : Cette dimension s’intéresse aux caractéristiques temporelles d’une évolution. Plus particulièrement, les auteurs étudient dans cette dimension les propriétés suivantes : – le moment au cours duquel une évolution peut survenir (à la conception, à la compilation, ou à l’exécution) – l’historique des évolutions. Cette caractéristique permet de savoir s’il est possible d’appliquer plusieurs évolutions en concurrence. En effet, avec l’augmentation de la taille des systèmes, la taille des équipes de développement a également augmenté, décentralisant ainsi le développement et de fait les évolutions. On distingue ici trois cas : les évolutions peuvent être prises de manière séquentielle, c’est à dire qu’il n’est pas possible d’appliquer une évolution tant qu’une autre évolution est en cours, de manière parallèle synchrone, où ici, le développement des évolutions peut être effectué 202.3. Évolution des systèmes logiciels indépendamment, mais leur application concrète est réalisée à un point précis dans le temps, ou encore de manière parallèle asynchrone, où le développement et l’application des évolutions sont indépendants. Ce dernier cas est complexe à gérer, dans le sens où l’aboutissement à un système incohérent est possible, sans pouvoir effectuer une analyse lors du point de synchronisation, comme cela est possible dans la deuxième méthode. – la fréquence de l’évolution, à savoir si le système étudié évolue fréquemment de sorte que des périodes de temps d’arrêt du système sont à prévoir, ou non. On distingue ici une évolution continue, où le système est en perpétuel changement, une évolution périodique, où les évolutions sont appliquées de manière régulière, ou encore arbitraire, où les évolutions sont effectuées à un rythme irrégulier et peu soutenu. Nous résumons l’ensemble des facteurs de la dimension "Quand" dans la Table 2.3. Nous traitons dans cette thèse des évolutions subvenant au moment de la conception. De part l’ensemble des problématiques liées à l’historique d’une évolution, nous nous focalisons sur des évolutions entrant dans une logique d’application séquentielle. Enfin, la fréquence n’influençant pas la nécessité du maintien de la qualité de service, nous traitons les évolutions qu’elles soient à fréquence soutenue, ou plus disparates dans le temps. Table 2.3 – Taxonomie d’une évolution : la dimension "Quand". Quand Moment Historique Fréquence Conception Séquentiel Continue Compilation Parallèle synchrone Périodique Exécution Parallèle asynchrone Arbitraire Chargement Le "Comment" de l’évolution : Cette dimension s’intéresse à la manière dont l’évolution est opérée. Pour cela, les auteurs étudient les facteurs suivants : – le degré d’automatisation de la mise en œuvre de l’évolution. Une évolution peut être complètement automatisée, notamment dans le cadre des systèmes auto-adaptatifs, partiellement automatisée, où l’équipe de développement décrit les modifications à apporter dans un langage d’évolution, laissant au moteur d’évolution la tâche d’appliquer ces modifications sur les différents documents formant le système, ou manuelle, entraînant l’équipe de développement à modifier à la main tous les documents, en prenant à bien garde à garder un système cohérent. – le degré de formalité de la mise en œuvre de l’évolution. Ici, il s’agit de caractériser à quel degré de formalisme est exprimée une évolution. Par exemple, une évolution peut être effectuée de manière ad-hoc (i.e., sans aucun support), ou dans un formalisme mathématique tel que la réécriture de graphe, permettant ainsi de pouvoir s’intéresser à des propriétés de propagation de changement ou de re-factoring. – le support du processus d’évolution. Il s’agit de savoir ici si l’évolution s’effectue de manière manuelle, ou bien si un ou plusieurs outils viennent accompagner le développeur de l’évolution pour automatiser certaines tâches. – le type de changement, à savoir s’il s’agit d’un changement structurel ou comportemental. Dans le premier cas, on modifiera les fonctionnalités par un ajout ou une 212.4. Conclusion Table 2.4 – Taxonomie d’une évolution : la dimension "Comment". Comment Degré d’automatisation Formalisme Support du processus Type de changement Automatisé Ad-hoc Aucun Structurel Partiellement automatisé Formalisme mathématique Re-factoring Sémantique Manuel Analyse d’impact suppression de paramètres ou de fonctions. Dans le deuxième, il s’agit de la modifi- cation de la logique fonctionnelle du programme. À noter ici que ces deux critères ne sont pas mutuellement exclusifs : une évolution est le plus souvent à la fois structurelle et comportementale. Nous résumons l’ensemble des facteurs de la dimension "Comment" dans la Table 2.4. Nous traitons dans cette thèse des évolutions partiellement automatisées, dans le sens où elle ne sont pas le fruit d’une auto-adaptation. Nous cherchons à faire évoluer des processus métiers, en nous appuyant sur un langage pour exprimer ces évolutions. Ce langage nous permettra de raisonner dans une logique des graphes. Enfin, nos évolutions, à la fois structurelles et comportementales, seront analysées dans le but de déterminer son impact sur la qualité de service. 2.4 Conclusion Dans ce chapitre, nous avons présenté le contexte de cette thèse, en étudiant successivement les architectures orientées services, la qualité de service et la notion d’évolution. Lors de l’étude de ces domaines, nous avons émis un certain nombres d’hypothèses, que nous récapitulons dans la Table 2.5. Cette thèse s’inscrit dans un contexte de développement d’applications orientées services. Ici, les logiciels développés sont notamment modulaires et autonomes. Afin de pouvoir différencier plusieurs services aux fonctionnalités similaires, la notion de qualité de service peut être utilisée comme indicateur de comparaison. Enfin, ces systèmes répondants à des besoins changeants de la part de l’utilisateur, il est nécessaire de prévoir des évolutions semi-automatisées, subvenant à la conception, dans le but de pouvoir les analyser pour savoir si, après leur application, la qualité de service est maintenue dans le système. 222.4. Conclusion Table 2.5 – Récapitulatif des hypothèses de travail. Architectures Orientées Services Hypothèse 1 Nous étudions l’évolution dans le contexte des services. Les entités étudiées, nommées services, peuvent être distribuées. Nous considérons qu’ils sont modulaires, que leur localisation est transparente vis-à- vis de l’équipe de développement, et que leur couplage est lâche. Qualité de Service Hypothèse 2 Pour toutes les propriétés que nous étudions, il existe au moins une méthode permettant de déterminer la valeur de propriété d’un service. Hypothèse 3 Dans un système, les besoins en terme de qualité de service sont définis à l’aide d’un contrat de qualité de service. Le plus souvent, ils sont représentés sous la forme d’une SLA. Évolution Hypothèse 4 Les évolutions que nous considérons dans cette thèse s’opèrent au niveau de l’implémentation du système. Elles sont définies au niveau de granularité de la réalisation d’un processus métier, c’est-à-dire au niveau des activités qui le constitue. Hypothèse 5 Lorsqu’une évolution est appliquée, nous considérons qu’un temps d’arrêt du système est acceptable. Cette évolution est réalisée en ré- action à un changement dans les besoins de l’utilisateur. L’analyse de la validité de l’évolution est effectuée de manière statique. Hypothèse 6 Le processus d’évolution est effectué au moment de la conception. Nous considérons dans notre cas que les évolutions sont appliquées de manière séquentielle, i.e., qu’à tout moment du cycle de vie, il y a au plus une évolution en train d’être appliquée. La fréquence de ces évolutions, elle, n’importe peu. Hypothèse 7 Une évolution, si elle est appliquée de manière automatique sur le système, est déclenchée par un acteur humain. Il peut s’agir de changements structurels, ou sémantiques. Pour supporter ce processus d’évolution, nous cherchons à effectuer une analyse d’impact de son effet sur le reste du système. 23Chapitre 3 État de l’art Sommaire 3.1 Processus de développement . . . . . . . . . . . . . . . . . . . . . . 25 3.1.1 Les processus de développement généralistes . . . . . . . . . . . . . . 26 3.1.2 Les processus de développement spécialisés SOA . . . . . . . . . . . 27 3.1.3 Prise en compte de la Qualité de Service . . . . . . . . . . . . . . . . 28 3.1.4 Prise en compte de l’évolution . . . . . . . . . . . . . . . . . . . . . 28 3.1.5 Comparatif et limitations . . . . . . . . . . . . . . . . . . . . . . . . 29 3.2 Analyse d’impact . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.2.1 Fondements de la causalité . . . . . . . . . . . . . . . . . . . . . . . 29 3.2.2 Application de la causalité : les analyses d’impact . . . . . . . . . . 30 3.2.3 Analyse d’impact pour la qualité de service . . . . . . . . . . . . . . 32 3.2.4 Comparatif et limitations . . . . . . . . . . . . . . . . . . . . . . . . 32 3.3 Conclusion de l’état de l’art . . . . . . . . . . . . . . . . . . . . . . 33 N ous avons vu dans le chapitre 2 que les applications à base de services avaient pour particularité de devoir être réactives face aux changements des besoins des utilisateurs, tout en ayant une préoccupation particulière pour la QoS. Dans ce contexte, l’équipe en charge du système doit mettre en place une stratégie pour faire évoluer le logiciel, tout en prenant en compte le maintien de la qualité de service. Dans ce chapitre, nous dressons dans un premier temps l’état de l’art des processus de développement logiciel. Puis, nous étudions la notion d’analyse d’impact comme possibilité d’établir l’effet d’une évolution sur le reste du système. 3.1 Processus de développement Nous présentons dans cette section l’état de l’art concernant les processus de développement. Pour étudier les différents travaux, nous nous focalisons sur les critères suivants : – Agilité : le critère d’agilité est le minimum requis pour pouvoir effectuer des évolutions de manière continue. On considèrera ainsi que dans un processus de développement agile, le côté itératif et incrémental peut être vu comme une évolution. – Collaboration : nous étudions ici des systèmes complexes où plusieurs expertises au niveau de l’élaboration de services, de processus métiers, d’évolution ou de qualité de service sont requises. Il est donc important qu’une place soit accordée à ces rôles dans le processus de développement. – Prise en compte de la QoS : le but d’une équipe de développement est de produire un logiciel fonctionnel. La qualité de service n’est pas forcément considérée comme une préoccupation principale ; il s’agira de voir si elle est intégrée au sein du processus de développement.3.1. Processus de développement Dans la suite, nous considérons dans un premier temps les processus de développement généralistes. Puis, nous nous centrons sur les processus orientés SOA, et étudions ceux qui prennent en compte la qualité de service et l’évolution. Enfin, nous effectuons un comparatif des différentes approches. 3.1.1 Les processus de développement généralistes Les processus de développement ont pour rôle de guider l’équipe de développement dans la réalisation de logiciels. Il existe de nombreux processus de développement, chacun ayant ses avantages et ses inconvénients. Pour la plupart, ils sont construits autour des mêmes grandes étapes, comme référencées dans l’ISO 12207 [IEEE 2008] : – Analyse des besoins : au cours de cette étape, les besoins du client sont identifiés (par exemple à l’aide d’un diagramme de cas d’utilisation UML) et consignés dans un cahier des charges. – Conception : l’architecte logiciel conçoit une solution en se basant sur les besoins collectés précédemment. Ici, il s’agit d’une solution à haut niveau d’abstraction. L’architecte décrit ce qui doit être réalisé, sans donner les détails de comment le réaliser. – Implémentation : l’équipe de développement se base sur la conception de l’architecte pour écrire le code du logiciel. – Vérification et validation : une fois la solution logicielle développée, l’étape suivante consiste à vérifier que l’on a bien implémenté le logiciel, i.e., que le logiciel ne présente pas de bogue. Cette phase se nomme "vérification" du logiciel. On s’assure également que l’on a implémenté le bon logiciel, i.e., que le comportement du logiciel correspond aux besoins du client. Dans ce cas, on parle de validation du logiciel. – Déploiement : enfin, l’étape de déploiement consiste à installer le logiciel sur la machine de production, pour pouvoir être utilisé. Parmi les processus de développement les plus utilisés, nous retenons le modèle en cascade [Royce 1970], comme étant le déroulement séquentiel des étapes listées ci-dessus. Un autre processus est le modèle en V [IABG 1997], développé dans les années 80 par la République Fédérale d’Allemagne, qui est une extension du modèle en V. Ici, au lieu de considérer les étapes de manière séquentielle, une association est faite entre les étapes de réalisation, et les étapes de test, afin de pouvoir les mener en parallèle, et de renforcer leur cohérence. Ces approches sont dites en cascade : le client établit en amont du projet un certain nombre de besoins fonctionnels et non fonctionnels. Le porteur du projet déclenche alors le début du cycle de développement choisi. S’en suit le déroulement des différentes étapes, pour aboutir à la production d’un logiciel correspondant aux besoins établis. Toutefois, ce genre d’approche a été vivement critiqué, principalement pour un manque de réactivité vis-à-vis des besoins du client. Pour pallier ce genre de problème, de nouveaux cycles de développement ont été proposés. C’est le début des méthodes dites agiles [Beck 2001] : ici, l’accent est porté sur la livraison fréquente et le retour d’expérience, par le biais de méthodes dites itératives, l’équipe en charge de réaliser le logiciel exécute plusieurs fois le processus de développement, et incrémentales, où chaque itération augmente les fonctionnalités du logiciel réalisé [Larman 2003]. Le client est désormais au centre du processus, là où il n’était consulté auparavant qu’en début et en fin de projet, permettant ainsi d’éviter de réaliser un logiciel trop éloigné des besoins. Parmi les méthodes agiles, nous retiendrons l’Extreme Programming (XP) [Beck 2004], le Rationale Unified Process (RUP) [Kruchten 2004] ainsi que la méthode Scrum [Schwaber 2004], qui font partie des méthodes de développement les plus utilisées à ce jour. 263.1. Processus de développement Pour positionner les processus de développement par rapport à la notion d’évolution, les cycles de développement agiles sont les plus à même à en supporter les différents mécanismes liés. En effet, le caractère itératif et incrémental des méthodes agiles permet une réalisation naturelle de l’évolution, là où les cycles de développement classiques, de par leur long dé- roulement, nécessite soit d’interrompre le déroulement classique du cycle pour prendre en compte l’évolution, soit d’attendre la fin d’une itération pour prendre en compte l’évolution. Dans le premier cas, cela peut engendrer des problèmes de consistance, par exemple en abandonnant momentanément le développement en cours pour s’occuper de l’évolution. Dans le second cas, cette approche ne permet pas d’être réactif face aux besoins de l’évolution. Les approches agiles sont donc les plus à même de supporter l’évolution. 3.1.2 Les processus de développement spécialisés SOA Selon les principes énoncés dans le chapitre 2, la construction de logiciels basés sur des architectures orientées services diffère des systèmes traditionnels, notamment dans le sens où la notion de réutilisabilité est prépondérante. Pour cela, de nombreux travaux ont tenté d’adapter des processus de développement généralistes aux architectures orientées services. Ceux-ci sont comparés dans les études de Ramollari et al., et de Shahrbanoo et al. [Ramollari 2007, Shahrbanoo 2012]. Nous retiendrons ici les travaux de Papazoglou et al., qui ont développé un certain nombre de recommandations pour l’élaboration d’un processus de développement pour les SOA [Papazoglou 2006]. Leur processus de développement agile est constitué de six étapes : – Planification : l’étape initiale consiste à étudier la faisabilité de la mise en œuvre d’une solution à base de services. Il s’agit dans un premier temps d’établir les besoins de l’utilisateur. Également, c’est dans cette phase que l’équipe de développement prendra garde à s’assurer que la solution à développer s’intègrera dans un environnement existant. – Analyse et conception : Il s’agit de la première étape du cycle de développement. Ici, on établit l’existant en énumérant les différents services, et en revenant potentiellement sur les besoins de l’utilisateur pour identifier quels sont les services en place, et quels sont les services à développer ou à faire évoluer. – Construction et test : au cours de cette étape, on reprend les besoins identifiés dans l’étape précédentes pour concevoir, réaliser et tester de nouveaux services et processus métiers. Il s’agira de déterminer parmi l’ensemble des besoins quels services devront être réalisés, réutilisés, ou composés. – Approvisionnement : cette étape cherche à établir l’équilibre entre les services fournis et leur offre en termes de propriétés. Ici, l’équipe s’intéresse à l’établissement de contrats (de type SLA), en déterminant quel niveau de qualité peut être fourni, comment il peut être monnayé à une potentielle entreprise, et quel usage doit être fait du service pour garantir le niveau de qualité spécifié. – Déploiement : une fois que les nouveaux services ont été validés, ils peuvent être déployés et être promus au niveau des autres organisations potentiellement intéressées. – Exécution et Contrôle : enfin, les nouveaux services peuvent être exécutés. S’il est nécessaire, des contrôles (notamment de la qualité de service) peuvent être enclenchés, afin de pouvoir collecter des données sur la qualité du système, et amorcer ainsi la réflexion d’une autre boucle de développement. La méthode de développement nommée "Service-Oriented modeling and Architecture" (SOMA) est une autre approche développée par IBM [Arsanjani 2008]. Cette approche a 273.1. Processus de développement la particularité de mettre en évidence les rôles nécessaires pour la réalisation d’un logiciel à base de services. La méthode est constituée de sept activités assez similaire à l’approche de Papazoglou et al.. La différence principale entre ces approches et les approches généralistes résident dans la notion de réutilisation, mais également la notion de niveau de service fourni. Ainsi, certaines actions, comme par exemple l’implémentation, diffèrent des approches généralistes de par la sélection de services existants. 3.1.3 Prise en compte de la Qualité de Service Si les cycles de développement se focalisent dans un premier temps sur la livraison d’un logiciel fonctionnel correspondant au cahier des charges établi, tous ne considèrent pas la qualité de service dans leurs préoccupations. Toutefois, certains travaux ont consisté à dériver des processus de développement existants pour y inclure la qualité de service. Par exemple, Koziolek et al. [Koziolek 2006] ont dérivé le cycle de développement RUP pour intégrer la QoS dans les différentes étapes du développement de logiciels à base de composants. Ce processus a notamment pour but d’aider l’architecte à choisir parmi des composants sur l’étagère, en utilisant la QoS comme critère de comparaison. Comme RUP, leur nouveau processus est itératif et incrémental, permettant aux développeurs de proposer de nouveaux composants à chaque itération. Toutefois, chaque itération implique une revérification complète de l’architecture. Cette approche identifie quatre rôles de référence : l’expert du domaine, le responsable du déploiement du système, l’architecte du système, et le développeur de composants. Gatti et al. proposent également de prendre compte des propriétés de qualité comme le temps d’exécution pire-cas à travers l’ensemble du cycle de développement [Gatti 2011]. Dans leur approche, chaque étape est guidée par des éléments émanant de l’étape précé- dente, dans le but d’assurer la traçabilité d’une propriété de l’étape des besoins jusqu’à l’exécution. 3.1.4 Prise en compte de l’évolution Tous les processus de développement ne prennent pas en compte explicitement l’évolution comme une de leurs étapes. Il est évidemment possible de considérer dans un processus de développement itératif que l’itération est une évolution. Toutefois, il est également possible de considérer l’évolution comme une étape à part entière, en allouant également un temps pour analyser les effets de l’évolution sur le reste du système [Lewis 2010]. Il existe différents processus prenant en compte l’évolution comme une étape à part entière : Kijas et al. ont développé un processus d’évolution pour les architectures orientées services [Kijas 2013]. Pour cela, ils ont réalisé un modèle d’évolution de manière empirique, en s’appuyant sur les différents scénarios que l’on peut rencontrer dans la modification d’un système à base de services. Par exemple, la création d’un service entraîne d’autres opérations, telles que la publication de l’interface de ce service. De là, ils analysent l’effet de l’évolution sur le reste du code, en se reposant sur ces scénarios. Kim et al. proposent une approche fondée sur le tissage d’aspect pour établir et faire évoluer un système à base de services [Kim 2010]. Pour cela, ils se basent sur des réseaux de Pétri et sur la séparation des préoccupations par aspects pour établir une évolution, sur laquelle leur outil est en mesure d’effectuer des analyses de performance. 283.2. Analyse d’impact Table 3.1 – Comparatif des différents processus de développement. Rôles Support de la QoS Support de l’évolution Agilité [Koziolek 2006] Oui Oui Non Oui [Gatti 2011] Non spécifiés Oui Non Non [Papazoglou 2006] Non spécifiés Oui Non Oui [Kijas 2013] Non spécifiés Non Oui Non indiqué [Kim 2010] Non spécifiés Oui Oui Oui 3.1.5 Comparatif et limitations Le Table 3.1 regroupe les différents processus de développement que nous avons pré- sentés. Nous effectuons la comparaison selon les points suivants : – Rôles : nous pouvons voir ici qu’une minorité de processus intègre la notion de rôles ; mais si un rôle est défini, aucun des travaux ne prévoit dans le processus de développement des points de rencontre explicite où les rôles sont amenés à collaborer. – Support de la QoS : de par l’importance donnée à la qualité de service dans les fondements des architectures orientées services, presque tous les processus s’intéressent à la qualité de service. Toutefois, si la majorité des processus supporte la qualité de service, il est important de s’intéresser à la manière donc la QoS est étudiée. En effet, pour chaque évolution, une complète réévaluation du niveau global de QoS du système est effectuée. Si cette pratique permet d’obtenir le résultat escompté, bon nombre des analyses effectuées sont ré-exécutées de manière arbitraire, sans porter attention au fait que l’élément analysé n’a peut être pas été affecté par l’évolution. – Support de l’évolution et agilité : seuls les travaux les plus récents ont choisi de considérer l’évolution au sein du cycle de développement. Des cinq processus de développement que nous étudions, seul le processus développé par Gatti et al. n’est pas un processus agile, et avec un manque d’information sur le processus de Kijas et al.. En mettant en perspective ce critère avec le support de l’évolution, nous pouvons voir que tous à l’exception du processus de Gatti et al. ont une possibilité plus ou moins évidente de réaliser une évolution du logiciel, que ce soit en considérant une itération du processus, ou en l’exprimant de manière explicite. Nous venons d’effectuer une comparaison des différents processus de développement. De tous ces processus, aucun ne satisfait l’ensemble des critères nécessaires au maintien de la QoS lors de l’évolution. De manière plus spécifique, chacun de ces processus considère une re-vérification complète de la QoS du système pour chaque évolution, sans essayer de cibler les éléments affectés par l’évolution. Pour pallier ce genre de problème, il s’agit de considérer les techniques d’analyse d’impact. 3.2 Analyse d’impact 3.2.1 Fondements de la causalité La notion de causalité est un principe trans-disciplinaire, touchant à la fois la physique, les mathématiques, la philosophie. Nous retrouvons notamment les origines des concepts de cause et de conséquence dès les dialogues de Platon, dans les récits d’Artistote, ou encore dans le Discours de la méthode de Descartes. Les travaux de Judea Pearl ont posé les fondements de la causalité, en les formalisant d’un point de vue logique [Pearl 2000]. En accord avec ses travaux, nous parlons dans ce 293.2. Analyse d’impact document de relation de dépendance causale (ou relation causale en abrégé) entre deux éléments A et B, noté A −→ B, signifiant le fait que A est une cause de B, ou que B est la conséquence de A. De ces fondements, la notion d’analyse causale est apparue, introduisant des valeurs probabilistes pour représenter la potentialité d’une relation causale. Ces travaux reposent notamment sur l’établissement du modèle causal à l’aide d’un réseau Bayésien et de chaines de Markov [Spohn 2001]. Le besoin d’effectuer une analyse d’impact pour comprendre une évolution a déjà été évoqué dans les travaux de Papazoglou [Papazoglou 2011], où l’auteur explique que ce genre d’analyse serait nécessaire pour prédire et réduire le sous-ensemble des éléments impactés, et comprendre concrètement l’effet de l’évolution. 3.2.2 Application de la causalité : les analyses d’impact Les théories établies dans la section précédente ont une applicabilité directe dans l’étude de systèmes logiciels. En 2002, Moe et al. ont motivé le besoin d’étudier la causalité au sein de systèmes distribués, dans le but de résoudre certains problèmes liés à la compréhension de l’effet du système, d’un sous-système, ou même d’un message [Moe 2002]. Parmi ces problèmes, on retiendra notamment la découverte de goulots d’étranglement. Dans la suite de ce paragraphe, nous nous focalisons sur la causalité lié à un changement opéré dans un système, en présentant différentes techniques permettant de déterminer son impact. Nous les classons en deux catégories, à savoir les méthodes d’analyse de causes racines, et les méthodes d’analyse de l’impact du changement. Analyse des causes racines La détermination de la ou les causes à l’origine d’un phénomène est une discipline connue sous le nom d’analyse des causes racines (root cause analysis en anglais). Elle a été formalisée dans les années 80 [Busch 1986] dans le contexte du département de l’énergie. L’objectif des analyses de causes racine est, partant d’une situation établie (le plus souvent un problème rencontré), d’obtenir les causes de cette situation. Il s’agit d’une approche réactive, dans le sens où on cherche à remonter à l’origine d’un problème. On opposera ainsi les approches réactives aux approches proactives, où la cause est connue, et où on cherche à en prédire les conséquences. Les analyses de causes racines fonctionnent en quatre temps [Rooney 2004] : – Collecte de données : afin de pouvoir établir les causes du changement, il est nécessaire de comprendre concrètement ce qu’il se passe dans le système. Pour cela, il s’agit d’établir son état courant, c’est à dire l’état dans lequel se trouve chacun des éléments qui le constituent, mais également l’ensemble des événements l’ayant mené à cet état. – Tracé des facteurs de causalité : en partant des informations collectées, il s’agit de dresser une cartographie des différentes influences entre les éléments. Il s’agit le plus souvent d’un diagramme de séquence, où les différents événements jouent le rôle de garde et où la séquence représente la chaîne de causalité. Ainsi, une fois que le diagramme est tracé, un ensemble de branches apparaît, menant au nœud final correspondant à l’état courant. – Identification des causes racines : une fois que tous les facteurs causaux ont été intégrés au diagramme, un diagramme de décision, appelé carte des causes racine, est établi pour identifier la ou les causes ayant mené à l’état courant. Cette carte permet 303.2. Analyse d’impact d’établir comment, à partir d’une cause éloignée, par un effet de cascade, le système a pu aboutir à son état courant. – Recommandations : enfin, une fois que les causes racines sont établies, l’analyse préconise une ou plusieurs actions à effectuer pour éviter à l’avenir de se retrouver dans cet état. Une manière de représenter les résultats de l’analyse s’effectue à l’aide des diagrammes de Pareto. Dans ces diagrammes, l’ensemble des causes dont le problème émane est représenté en colonnes, classées par ordre décroissant de probabilité d’implication sur la conséquence. Les diagrammes de Pareto font partie, avec le diagramme en arêtes de poisson, des sept outils à utiliser pour contrôler la qualité [Tague 2004]. Si cette catégorie de méthode permet d’établir un diagnostic face à un problème, tel que la dégradation de propriété de qualité de service par exemple [Ben Halima 2008], elle ne s’inscrit cependant pas complètement dans le cadre de cette thèse. En effet, nous avons pour objectif de maintenir la qualité de service tout au long du cycle de vie du logiciel. Or, ce genre de méthode se positionne davantage dans la situation où la qualité de service n’est plus maintenue. Analyse de l’impact du changement L’analyse de l’impact du changement (change impact analysis en anglais) s’intéresse à l’identification des conséquences d’un changement effectué sur un système. Ces méthodes ont été définis à l’origine par Bohner et Arnold [Bohner 1996] comme étant "The determination of potential effects to a subject system resulting from a proposed software change". Cette description générale peut s’appliquer à l’ingénierie logicielle en particulier. On retrouve dans la littérature de nombreuses applications de ce principe, agissant sur différentes parties du cycle de vie : l’analyse de l’effet sur les phases de collecte des besoins, sur la conception de la solution, sur son implémentation, et sur la vérification. Les techniques d’analyse de l’impact du changement n’ont pas pour but unique de se centrer sur l’effet d’une évolution. Dans leurs travaux, Xiao et al. utilisent ces techniques pour calculer le coût d’une évolution [Xiao 2007]. En effet, modifier un processus métier s’accompagne souvent d’une modification des interfaces, voir même de la logique d’implé- mentation de certains services. Les auteurs effectuent une analyse d’impact sur le processus métier dans le but de quantifier le coût de l’évolution sur le reste du système. Nous pensons que cette technique serait une bonne approche si elle pouvait être étendue pour prendre en compte non pas le coût d’une évolution mais son effet sur la qualité de service. Cette approche contemplative de l’étude de l’évolution est appliquée de manière active dans l’outil nommé Morpheus [Ravichandar 2008]. Ici, les auteurs proposent de s’appuyer sur les relations de dépendance établies pour automatiser l’évolution, en propageant les changements sur les autres éléments constituant le système. Analyse des effets d’une évolution Plusieurs travaux se sont intéressés à l’analyse d’impact de l’évolution d’un logiciel. Par exemple, Elbaum et al. ont présenté une étude empirique sur l’effet de l’évolution du logiciel sur les tests de couverture de code [Elbaum 2001]. Ils ont montré que même une modification minime dans le logiciel peut modifier les instructions au niveau du code, impliquant de le re-tester. Fondamentalement, nous visons à réaliser le même genre d’approche au niveau des orchestrations de service, et en se préoccupant principalement de la qualité de service. 313.2. Analyse d’impact Analyse de l’évolution dans les SOA L’analyse d’impact, ou la détermination des éléments affectés par un changement, a été étudiée dans le cadre des processus métiers. Soffer a défini dans ses travaux la notion de portée du changement, dont l’identification permet de "faciliter l’ajustement du système face aux changements des processus métiers" [Soffer 2005]. Pour cela, l’auteur dresse une taxonomie des différentes modifications pouvant être effectuées sur un processus métier : modification d’un état, modification d’une transition d’état (que ce soit au niveau de la structure du flot de contrôle, ou d’une potentielle condition de garde), modification des variables, ou modification totale, en remplaçant le processus métier par un autre. Partant de cette taxonomie, l’auteur définit quel est le scope de changement pour chacune des catégories, à savoir le changement contenu (où il n’y a pas de changement indirect), le changement local, ou encore le changement global. Le canevas proposé par Ravichandar et al. vise à contrôler l’évolution de processus mé- tiers [Ravichandar 2008]. Ils établissent les relations entre les différents éléments du système, et opèrent à la fois sur le code source et sur les descriptions de haut niveau d’abstraction pour conserver la cohérence du système. Enfin, l’élaboration d’une évolution entraîne grâce à leur outil une propagation du changement dans l’ensemble de l’architecture. Ces travaux sont similaires à ceux de Dam et al. [Dam 2010] . 3.2.3 Analyse d’impact pour la qualité de service Enfin, un certain nombre de travaux ont porté sur l’étude de l’effet d’un changement sur la qualité de service. Dans le langage CQML+ [Rottger 2003], il existe la possibilité de représenter les relations de causalité pouvant exister entre les différentes propriétés. Toutefois, aucun outil, ou aucune application, n’est proposée pour pouvoir déterminer pour un système donné la chaine de conséquences entre une évolution et son effet sur la qualité de service. Becker et al. proposent une approche nommée Q-Impress visant à prédire les conséquences des évolutions, au moment de la conception du logiciel, sur les différents attributs de qualité. Pour cela, les auteurs se basent sur des modèles de prédiction tels que les chaînes de Markov ou les réseaux de file d’attente [Becker 2008]. Cicchetti et al. ont développé une approche pour analyser les effets de l’évolution sur la qualité de service d’applications à base de composants [Cicchetti 2011]. Leur approche considère une évolution effectuée de manière ad-hoc : l’équipe de développement réalise une nouvelle version du système, et l’incrément est calculé en effectuant la différence des modèles architecturaux. En fonction de cette différence, leur outil calcule l’impact de cette différence selon un ensemble de règles. Toutefois, l’inconvénient de leur approche réside dans la nécessité de mesurer a priori l’ensemble des valeurs pour pouvoir ensuite déterminer quel en a été l’impact. Il en résulte une re-vérification complète du système. 3.2.4 Comparatif et limitations La Table 3.2 regroupe les différents types d’analyse d’impact que nous avons présentés. Nous effectuons la comparaison selon les points suivants : – Adaptabilité au contexte : notre contexte circonscrit les domaines des processus métiers, de la QoS et de l’évolution. Sur l’ensemble des analyses que nous avons étudié, aucune de ces méthodes ne s’inscrit complètement dans notre contexte, prenant en compte au mieux deux des trois critères, comme le font Becker et al. ou Cicchetti et al.. 323.3. Conclusion de l’état de l’art – Identification du sous-ensemble impacté : de par notre analyse précédente, nous pouvons opposer les méthodes d’analyse des causes racines aux méthodes d’analyse de l’impact du changement. En considérant que pour garantir le maintien de la QoS lors de l’évolution, nous avons besoin de déterminer en premier lieu quel est l’impact de l’évolution, l’analyse des causes racines n’est pas adapté à notre problématique. – Quantification de l’impact : une fois que l’impact a été déterminé, c’est-à-dire que l’analyse a identifié quels sont les éléments du système affecté par une évolution, il est nécessaire de savoir si cet impact est bénéfique ou néfaste du point de vue de la QoS. Toutes les méthodes d’analyse n’effectuent pas cette vérification cependant, essentielle pour pouvoir dire si la QoS est maintenue. C’est le cas notamment de Ravichandar et al., Elbaum et al. ou Rottger et al.. – Coût de l’analyse : enfin, le dernier critère de comparaison consiste à étudier le coût pour l’utilisateur de l’analyse. Nous cherchons en effet ici à avoir une analyse la plus automatisée possible, et pour laquelle l’utilisateur sera le moins impliqué. Si la plupart des méthodes ont un coût important, en terme d’effort de modélisation ou de temps d’exécution de l’analyse en elle-même, Ben Halima et al. ainsi que Ravichandar et al. ont un faible coût. En résumé, aucune approche ne propose une analyse d’impact qui soit à la fois adapté à notre contexte, faible en coût, et fournissant l’ensemble des informations nécessaires à garantir le maintien de la QoS lors de l’évolution d’un logiciel. 3.3 Conclusion de l’état de l’art Nous venons de dresser l’état de l’art en matière de processus de développement et d’analyses d’impact pour l’évolution. Beaucoup de travaux gravitent autour de ces domaines depuis de nombreuses années. Il existe de nombreux processus de développement spécialisés dans la détermination de la qualité de service, dans l’élaboration de systèmes à base de services, ou incluant l’évolution comme étape du processus. Nous avons également étudié les travaux portants sur la détermination des effets de l’évolution en termes d’impact. Là encore, de nombreux travaux existent, s’intéressant à la cause d’un changement ou à son effet. Ces techniques ont été appliquées à différents domaines et dans différents contextes. Dans cette thèse, nous souhaitons maintenir la qualité de service d’un logiciel au cours de ses différentes évolutions, tout en minimisant la phase de re-vérification. Dans cette optique, les défis sont : – faire collaborer les acteurs de l’équipe de développement, en identifiant les connaissances requises pour le maintien de la QoS lors de l’évolution, et en caractérisant les moments au cours desquels les acteurs devront collaborer. – déterminer les interactions au sein d’un logiciel, afin de pouvoir établir le lien existant entre la modification d’un élément du système et la modification d’une propriété de qualité de service. – minimiser la vérification de la QoS, en déterminant les éléments du système impactés par l’évolution de manière à ne vérifier la QoS que sur ces derniers. – identifier la cause de la violation d’un contrat de QoS, en appliquant les techniques d’analyse des causes racines sur le contrat déterminé comme violé. Dans la suite de ce document, nous présentons nos différentes contributions permettant d’assurer le maintien de la qualité de service lors de l’application à base de processus métiers. 333.3. Conclusion de l’état de l’art Nous présentons dans le chapitre 5 un processus de développement, nommé Blink, mettant en évidence les différentes collaborations entre acteurs. Il s’agit dans un premier temps d’identifier ces acteurs, et de déterminer à quel moment du processus de développement une coopération entre acteurs est nécessaire. Puis, nous nous focalisons dans le chapitre 6 sur le rôle de l’architecte du système. Nous présentons dans un premier temps comment modéliser un système selon les principes des architectures orientées services. Nous cherchons pour cela à définir ce qu’est un système, et quelles sont les informations que l’équipe de développement doit fournir pour établir son bon fonctionnement. Puis, nous définissons le concept de causalité, à savoir l’influence que peut avoir un élément d’un système sur un autre élément. À travers la notion de modèle causal, nous identifions l’ensemble des interactions dans un système, dans le but de pouvoir déterminer l’effet d’une évolution sur les éléments du système. Dans le chapitre 7, nous considérons le rôle de l’expert en qualité de service. Après avoir fourni une définition de la qualité de service, nous présentons un langage de modélisation d’une propriété de QoS. À partir de la description d’une propriété, nous cherchons alors à enrichir le modèle causal établi dans le chapitre 6 pour déterminer les interactions entre les éléments du système et ses propriétés de QoS, et cibler les propriétés de QoS à re-vérifier lors d’une évolution. Enfin, dans le chapitre 8, nous nous intéressons au rôle de l’architecte de l’évolution. Après avoir donné une définition de ce qu’est une évolution, nous présentons un langage permettant à l’architecte de décrire des évolutions. Puis, nous présentons un outil d’analyse permettant de déterminer si oui ou non la qualité de service est maintenue une fois l’évolution appliquée. Le résultat de cette analyse est une chaine de conséquence, rendant explicite la cause possible du non-maintien de la qualité de service. L’ensemble des contributions de cette thèse est regroupé au sein de Smile, un canevas de développement pour le maintien de la qualité de service. Notre canevas regroupe la réalisation des contributions, en s’inscrivant de pair avec Blink, notre processus de développement identifiant les interactions entre les expertises de l’équipe de développement, et en implémentant les différentes contributions propres aux expertises de la modélisation du système, de la qualité de service et de l’évolution. Ces contributions sont illustrés à l’aide de PicWeb, notre exemple fil rouge dont la description est réalisée dans le chapitre suivant. 343.3. Conclusion de l’état de l’art Critères Adapté aux processus métiers Adapté à la QoS Adapté à l’évolution Identification du sous-ensemble impacté Quantification de l’impact Coût de l’analyse Analyses des causes racines [Ben Halima 2008] Non Oui Non Non Oui Bas (analyse de trace) Analyse de l’impact du changement [Ravichandar 2008] Non Non Oui Oui Non Bas (analyse de dépendance) Analyse de l’évolution [Elbaum 2001] Non Non Oui Oui Non Élevé (étude empirique) Analyse de Processus Métiers [Soffer 2005] Oui Non Oui Oui Oui Élevé (taxonomie) Analyse de Processus Métiers [Dam 2010] Oui Non Non Oui Oui Moyen (modélisation du système nécessaire) Analyse de la QoS [Rottger 2003] Non Oui Non Non Non élevé (pas d’outil disponible) Analyse de la QoS [Becker 2008] Non Oui Oui Oui Oui Élevé (besoin de modèles de performance supplémentaires) Analyse de la QoS [Cicchetti 2011] Non Oui Oui Oui Oui Moyen (besoin de re-vérifier l’intégralité du système) Table 3.2 – Comparatif des différentes analyses d’impact. 35Chapitre 4 Présentation du cas d’étude Sommaire 4.1 Séduite, un système de diffusion d’informations à base de processus métiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 4.2 PicWeb, un processus métier de recherche d’images . . . . . . . 39 4.2.1 Description de PicWeb . . . . . . . . . . . . . . . . . . . . . . . . . 39 4.2.2 Évolution de PicWeb . . . . . . . . . . . . . . . . . . . . . . . . . . 40 C e chapitre présente PicWeb, un service de recherche d’images provenant de différentes sources qui correspondent à un mot-clé passé en paramètre. PicWeb est représenté par un processus métier dont le développement s’est déroulé de manière agile. Au fil du temps, ce processus métier a évolué pour continuer de correspondre aux besoins des utilisateurs. Il constitue à ce titre un cas d’étude idéal de par sa taille raisonnable et sa compréhension aisée pour illustrer les problèmes rencontrés lors de l’évolution d’application à base de processus métiers. Tout particulièrement, nous montrons ici qu’il est difficile de garantir le maintien de la qualité de service lors de l’évolution. Nous utilisons PicWeb tout au long du document pour illustrer l’apport des différentes contributions de cette thèse. Dans ce chapitre, nous présentons le scénario d’utilisation de PicWeb : nous montrons comment il s’inscrit dans un système plus large nommé Séduite [Delerce-Mauris 2009] et en quoi les différentes évolutions de PicWeb ont été source de problèmes pour maintenir la qualité de service du système. 4.1 Séduite, un système de diffusion d’informations à base de processus métiers Séduite est un système de diffusion d’informations à destination du personnel et des étudiants d’une université. Son origine provient d’un besoin de diffuser sur un campus universitaire des informations diverses, provenant de sources différentes telles que la scolarité, le restaurant universitaire, ou encore les différentes associations étudiantes souhaitant communiquer sur leurs activités. De par l’hétérogénéité du public ciblé, ces informations doivent être affichables sur des périphériques variés tels que des écrans de contrôle positionnés au sein de l’institution, des smartphones, ou encore via un site web. La Figure 4.1 illustre l’interface graphique de Séduite. Le développement de Séduite a débuté en 2005. Originellement utilisé comme prototype de recherche à des fins d’expérimentation (il a servi notamment de validation au projet FAROS 1 ), le système prit de l’ampleur suite à l’implication d’une équipe de huit développeurs. Le système est aujourd’hui constitué de vingt-six services implémentés en Java et de sept processus métiers implémentés dans le Business Process Execution Language 1. Projet RNTL FAROS, 2005.4.1. Séduite, un système de diffusion d’informations à base de processus métiers Figure 4.1 – Utilisation de Séduite au cours de la nuit de l’info. BPEL [OASIS 2007]. Ces services ont pour tâches de collecter les différentes informations provenant des différents services administratifs de l’université, mais également de services web externes. La Figure 4.2 représente l’architecture globale de Séduite. En huit ans, Séduite a été déployé dans plusieurs institutions. Son développement s’est effectué de manière agile : en s’appuyant fortement sur les nombreux retours de la part des utilisateurs, l’implémentation de Séduite a subi de nombreuses évolutions. Nous nous focalisons dans le cadre de cette thèse sur l’évolution de l’un de ces processus métiers, nommé PicWeb. Figure 4.2 – Architecture de Séduite. 384.2. PicWeb, un processus métier de recherche d’images Activité Activité du processus métier Activité Activité modifiée au cours de l'évolution Légende: (a) PicWeb V0 (b) PicWeb V1 Evolution a1 Keyword:= receive() Pics[] := Picasa:getPics(Keyword) a2 a3 PicsF[] = shuffle(Pics[]) a4 reply(PicsF[]) a1 Keyword:= receive() PicsPicasa[] := Picasa:getPics(Keyword) a2 PicsFlickr[] := Flickr:getPics(Keyword) a21 a30 Pics[] := Helper:join(PicsPicasa[], PicsFlickr[]) a3 PicsF[] = shuffle(Pics[]) a4 reply(PicsF[]) a4 a4 Figure 4.3 – Évolutions de PicWeb. 4.2 PicWeb, un processus métier de recherche d’images De l’ensemble des évolutions de Séduite, le cas des évolutions de PicWeb se dégage particulièrement. En effet, à l’issue de l’une de ces évolutions, le déploiement de la nouvelle version entraîna le ralentissement de l’ensemble du système. Nous nous focalisons dans cette section sur cette évolution, qui nous servira d’exemple tout au long du document. 4.2.1 Description de PicWeb PicWeb est un processus métier faisant partie de Séduite. Il a pour but d’afficher sur les écrans de diffusion différentes photos de la vie du campus. Pour cela, le processus métier interroge des services web de stockage de photos tels que Flickr de Yahoo! ou encore Picasa de Google, en récupérant les photos correspondant à un mot-clé donné. Le processus métier récupère ces ensembles de photos et effectue un mélange afin de rendre l’affichage des photos aléatoire. Par exemple, sur le campus de Lille, PicWeb est utilisé pour diffuser les photos des différents événements de la vie étudiante. La Figure 4.3(a) est une représentation de la version initiale de PicWeb selon le formalisme des diagrammes d’activités d’UML, permettant la description du processus métier. Au départ, le processus métier récupère les photos correspondant à un mot-clé donné (activité a1 ). Le processus reçoit le mot-clé, effectue une invocation au service Picasa (activité a2 ) pour récupérer les correspondances, les mélange pour obtenir un ordre aléatoire (activité a3 ), et les retourne en tant que résultat (activité a4 ). 394.2. PicWeb, un processus métier de recherche d’images Dans le cadre du développement de PicWeb, l’équipe de développement s’est intéressé particulièrement à étudier le temps de réponse du service. Concrètement, il s’agissait de caractériser un appel à un service ou à un processus métier, en mesurant le temps passé entre la réception du message d’entrée, et l’envoi du résultat en sortie. Ce temps comprend le temps passé pour l’envoi des messages d’entrée et de sortie (appelé temps de transmission), et le temps passé pour calculer la réponse (appelé temps de calcul). Pour s’assurer que le temps de réponse de PicWeb se situait dans un intervalle de temps acceptable, des mesures ont été effectuées sur l’ensemble du processus. Puis, lors de chaque évolution, l’équipe de développement considérait uniquement les activités modifiées par l’évolution pour s’assurer du maintien de la qualité de service pour le temps de réponse. 4.2.2 Évolution de PicWeb Au cours de son cycle de vie, PicWeb évolua à plusieurs reprises pour répondre aux changements des besoins des utilisateurs. Nous nous focaliserons dans ce document sur l’évolution décrite dans la Figure 4.3, car elle montre comment le simple ajout d’un appel de service peut avoir un impact sur la qualité de service de l’ensemble du processus métier, voire même du système tout entier. PicWeb évolue pour prendre en considération un nouveau fournisseur d’images (Flickr), comme montré dans la figure Figure 4.3 (b). Ce fournisseur est désormais appelé en parallèle de Picasa, avant que le résultat soit concaténé dans la réponse. Lors de cette évolution, si les temps de réponse des activités a20, a21 et a30 de la Figure 4.3(b) présentaient individuellement des valeurs d’un ordre de grandeur attendu, le déploiement de la nouvelle version de PicWeb révéla une toute autre réalité. En effet, les temps de réponse de PicWeb, mais également de Séduite dans son ensemble, augmentèrent de façon significative. Cette augmentation provoqua le ralentissement du système, obligeant l’équipe de développement à déployer dans l’urgence une version précédente du système. Il est intéressant de noter ici que la cause du problème ne vient pas directement de l’évolution mais d’un autre service. Ici, l’appel à Flickr ou au service de concaténation n’était pas la cause du ralentissement du système. Toutefois, l’augmentation de la taille des données traitées par l’activité de formatage des images ralentit considérablement son exécution, causant le ralentissement de l’ensemble du système. En effet, l’implémentation de l’opération shuffle consiste, pour un ensemble de n éléments donnés en entrée, à effectuer n 2 permutations afin de mélanger l’ensemble. L’évolution appliquée à PicWeb n’a pas modifié l’implémentation de shuffle ; toutefois, le contenu de la variable Pics, donnée en entrée de shuffle, est passé de n éléments à 2n. Au niveau de shuffle, l’évolution a entrainé les n 2 permutations à devenir 4n 2 permutations, causant ainsi un ralentissement de l’exécution de l’opération, de PicWeb et du système dans son ensemble. De ce fait, il n’est pas raisonnable de limiter l’analyse de l’évolution aux seuls éléments modifiés dans l’évolution, car cette modification peut avoir des effets indirects sur le reste du système. Il est donc nécessaire de pouvoir déterminer la relation entre l’évolution et son effet sur le reste du système, afin de pouvoir qualifier l’effet concret de l’évolution sur l’ensemble du système. Ce chapitre vient de présenter le cas d’étude de ce document. Dans le chapitre suivant, nous présentons les différents problèmes rencontrés au cours de l’évolution de PicWeb. Nous en extrayons les différents défis liés à l’évolution, avant de donner un aperçu des contributions de la thèse pour apporter une solution à cette problématique. 40Deuxième partie ContributionsChapitre 5 Un processus de développement pour le maintien de la qualité de service Sommaire 5.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 5.2 Définition des acteurs . . . . . . . . . . . . . . . . . . . . . . . . . . 44 5.3 Description du processus de développement . . . . . . . . . . . . 44 5.4 Coopération entre acteurs . . . . . . . . . . . . . . . . . . . . . . . 45 5.5 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . 46 C e chapitre présente notre approche pour guider l’équipe de développement dans la réalisation d’un système suivant les principes des architectures orientées services, avec un point de vue particulier pour la qualité de service. Nous identifions tout d’abord les différents acteurs opérant sur le logiciel, en décrivant leur rôle, et en quoi leurs expertises propres interviennent dans le maintien de la QoS lors de l’évolution d’un logiciel. Nous présentons ensuite le cycle de développement en lui-même. Enfin, nous mettons l’accent sur le besoin d’interactions entre les différents acteurs pour parvenir à maintenir la QoS tout au long du cycle de vie. 5.1 Motivations La conception et la réalisation d’un système informatique nécessitent la mobilisation d’un ensemble de compétences propres à un domaine particulier [IEEE 2008, Tarr 1999]. Nous nous intéressons dans le cadre de cette thèse à la réalisation d’une évolution et au maintien de la qualité de service d’un système. Si ces deux compétences peuvent être traitées indépendamment, leur implication dans la réalisation du système entraine des conflits à prendre en compte. Typiquement, l’évolution de PicWeb et les mesures de son temps de réponse peuvent être gérées de manière isolée ; toutefois, en agissant de la sorte, l’application de l’évolution a eu de fait une influence sur la propriété étudiée, ayant ainsi des conséquences inattendues. Pour pouvoir contrôler ces conséquences, il est nécessaire d’identifier les influences entre les différentes expertises, c’est-à-dire les moments dans le cycle de vie d’un logiciel où les choix techniques et architecturaux réalisés par une expertise donnée auront un impact sur une ou plusieurs autres expertises. Il s’agit donc dans un premier temps d’expliciter les compétences existantes, pour ensuite définir les moments dans le cycle de vie où les choix d’une expertise ont un impact sur une autre expertise, et où une concertation est nécessaire. Nous avons décidé dans un premier temps d’identifier les compétences requises et de les5.2. Définition des acteurs affecter à des entités nommées acteurs [Taskforce 2011]. Un acteur est une, ou plusieurs personnes, responsable d’un ensemble de tâches propres à une préoccupation. Ainsi, une tâche commune à deux acteurs implique un échange de connaissances entre les deux acteurs, que ce soit par le biais d’une rencontre, ou encore par un échange de documents et de données ; c’est ce que l’on appelle un point d’interaction. Le défi ici est de définir quelles sont les interactions nécessaires entre les différents membres de l’équipe de développement. Pour cela, nous proposons Blink, un processus de développement permettant d’ordonner les tâches en étapes, et de définir le but de chaque tâche. En identifiant les compétences fournies par les acteurs et les compétences requises pour chaque étape, nous mettons en évidence les interactions nécessaires. Dans la suite de ce chapitre, nous présentons quelles sont les acteurs gravitant autour de la réalisation d’un système. Puis, nous introduisons Blink, et détaillons l’ensemble des étapes nécessaires pour le développement d’un système avec une préoccupation pour la qualité de service. Enfin, nous explicitons les différentes interactions au sein de l’équipe de développement. Pour illustrer nos propos, nous nous appuyons sur le cas de l’évolution de PicWeb. 5.2 Définition des acteurs Au cours du développement et de l’évolution de l’application, différents acteurs interviennent pour apporter leur expertise propre. Ces acteurs ont un rôle spécifique, et sont amenés à prendre des décisions modifiant la structure et le comportement du système réalisé. Dans le contexte de la réalisation de systèmes orientés services se préoccupant de la Qualité de Service, nous listons dans la Table 5.1 les différents acteurs identifiés, et décrivons leur rôle. Ces acteurs ont été identifiés en nous inspirant des travaux de Bejaoui et al. [Bejaoui 2008], de Kajko-Mattson et al. [Kajko-Mattsson 2007], ou encore de Zimmermann et al. [Zimmermann 2006]. Nous comptons cinq rôles. Parmi eux, un est extérieur à l’équipe de développement (l’utilisateur). Le dernier rôle est un acteur non humain : il s’agit de notre canevas de développement, Smile, dont nous présentons les différentes parties tout au long du document, et dont l’implémentation est décrite dans le chapitre 9. Nous cherchons maintenant à déterminer la manière dont les acteurs œuvrent pour réaliser un système. Pour cela, nous répertorions chacune des étapes de Blink, notre processus de développement. Nous présentons chacune des étapes en décrivant leur rôle dans le processus global, et les acteurs amenés à y participer. 5.3 Description du processus de développement Afin d’éviter les problèmes d’influence entre les expertises et de pouvoir définir un système dont la qualité de service est maintenue au fil du temps, nous identifions dans cette section les étapes clés du processus de développement, au cours desquelles une mise en commun des informations et des choix effectués par les acteurs concernés est nécessaire. Pour définir notre processus de développement, Blink, nous nous sommes inspirés de processus de développement existants, tels qu’ils sont présentés dans [Papazoglou 2006] ou encore dans [Kijas 2013]. De ces processus, nous avons conçu Blink, un processus de développement pour le maintien de la qualité de service à l’évolution. La Figure 5.1 représente le diagramme d’activités de ce processus de développement. Chacune des étapes est décrite dans les Tables 5.2, 5.3 et 5.4, accompagnée d’un diagramme selon la spécification SPEM 1 . Ce processus a été conçu pour réaliser un système de façon itérative et incrémentale, où chaque 1. http://www.omg.org/spec/SPEM/2.0/ 445.4. Coopération entre acteurs Table 5.1 – Rôles intervenants dans la réalisation d’un système. Utilisateur du système Représente la communauté utilisant le logiciel. Il est responsable de faire part auprès de l’équipe de développement des nouveaux besoins, nécessitant de faire évoluer le logiciel. Architecte du processus métier Réalise la logique métier du système au moyen de processus mé- tiers et de services. Il a une connaissance approfondie du comportement du système et de la panoplie de services déjà implémentés qu’il peut utiliser. Expert en Qualité de Service Définit les propriétés de qualité de service. Il a une connaissance approfondie des propriétés et des outils pour les observer au sein de n’importe quel système. Il est en mesure de déterminer en cas de dégradation des valeurs de propriétés les facteurs d’influence pouvant en être la cause. Architecte de l’évolution Décrit les évolutions à produire pour modifier le comportement de système, en accord avec les nouveaux besoins de l’utilisateur. Il a une connaissance partielle du comportement du système. Smile Joue le rôle d’interlocuteur avec les autres acteurs de l’équipe de développement, en leur communiquant par exemple les informations nécessaires à leurs prises de décisions. Il contient des informations sur le système, son implémentation, et les différentes analyses effectuées. Dans le cadre de Blink, Smile automatise certaines tâches comme l’application de l’évolution au système, ou encore son analyse. incrément est une évolution à considérer. Il implique l’ensemble des acteurs du système et permet, à partir de l’expression de nouveaux besoins de la part de l’utilisateur, de définir une évolution qui sera analysée afin de s’assurer du maintien de la qualité de service dans le système post-évolution. Au cours des différentes étapes, certains acteurs sont amenés à interagir. Nous définissons dans la section suivante les points d’interaction du processus, où plusieurs expertises sont nécessaires pour accomplir des tâches communes. 5.4 Coopération entre acteurs Le but de cette section est de mettre en évidence les coopérations entre les différents acteurs. Il s’agit de définir pour un point d’interaction à quel moment celui-ci intervient dans le processus de développement, quels acteurs sont nécessaires, et quelles informations ils vont échanger. Nous distinguons trois points d’interaction, indiqué sur la Figure 5.1 par un titre d’étape souligné : – Évolution des besoins : au cours de cette étape, l’utilisateur et l’architecte du système collaborent ensemble pour établir le plus précisément possible les nouveaux besoins. Il en résulte une spécification des besoins. – Définition de l’évolution : pour pouvoir définir une évolution, l’architecte de cette évolution a pour tâche de proposer une modification qui satisfera les besoins spécifiés. Pour cela, la collaboration de l’architecte du système et de l’architecte de l’évolution consiste à la mise en commun des besoins, une spécification des besoins, guidée par la 455.5. Conclusion du chapitre 0 - Import initial du système 1 - Évolution des besoins 2 - Définition de l'évolution 3 - Analyse de l'évolution 4 - Vérification des éléments affectés 6 (b) - Annulation de l'évolution 6 (a) - Application de l'évolution 5 - Diagnostic et prise de décision décision='ok' décision='¬ ok' Figure 5.1 – Schéma du processus de développement Blink. connaissance pointue du système que l’architecte du système a acquis depuis le début du projet. – Diagnostic et prise de décision : une fois que l’architecte de l’évolution a conçu une modification, et que l’expert en qualité de service l’a analysée, il s’agit de mettre en commun ces deux expertises dans le but de dresser un diagnostic. Pour cela, l’expert en qualité de service apporte les différentes mesures effectuées : l’architecte de l’évolution est en mesure de les interpréter, afin de comprendre pourquoi une évolution a violé un contrat de qualité de service, le cas échéant. Cette coopération a pour but de faciliter le diagnostic, dans l’optique de l’écriture d’une nouvelle évolution qui ne violera pas de contrat de qualité de service. En se basant sur ces différentes coopérations, nous mettons en évidence à quel moment du cycle de vie il est important d’unir plusieurs expertises, évitant ainsi un cloisonnement des acteurs de l’équipe de développement. 5.5 Conclusion du chapitre Nous venons de présenter Blink, un processus de développement pour gérer le maintien de la qualité de service à l’évolution. Pour atteindre cet objectif, nous avons établi un ensemble d’acteurs, et défini leur rôle dans la réalisation d’un système logiciel. Notre processus est constitué d’un ensemble d’étapes, pour lesquelles le ou les acteurs impliqués sont désignés. De plus, cette répartition des rôles tout au long du processus de développe- 465.5. Conclusion du chapitre 0 - Import initial du système 0 - Import initial du système Description Système Description Système SMILE Architecte Système <> <> <> <> SMILE Entrée : Description architecturale d’un système Sortie : représentation du système dans Smile Acteur(s) : Architecte du système, Smile Description : afin de pouvoir unifier l’utilisation du processus de développement Blink pour des nouveaux systèmes comme pour des systèmes existants, l’import initial du système est une étape optionnelle permettant d’importer un système existant, constitué de un ou de plusieurs processus métiers, dans notre canevas de développement. Application à PicWeb : l’architecte du système initie le cycle de développement en important le processus métier dans sa première version (voir Figure 4.3). En sortie de l’étape, Smile produit une structure de données représentant le système, lui permettant par la suite de raisonner dessus. Plus d’informations dans le chapitre 6. 1 - Évolution des besoins 1 - Évolution des besoins Description Système SMILE Description Besoins Utilisateur Architecte Évolution <> <> <> <> Utilisateur Entrée : Représentation du système Sortie : Description des besoins de l’utilisateur Acteur(s) : Utilisateur, Architecte de l’évolution Description : cette étape est déclenchée à l’initiative de l’utilisateur, qui souhaite voir le système évoluer. Pour cela, l’utilisateur et l’architecte de l’évolution se réunissent pour capturer les nouveaux besoins conduisant à faire évoluer le système. Application à PicWeb : l’utilisateur a émis le souhait de voir davantage de photos différentes sur les écrans du campus. L’architecte de l’évolution a proposé alors d’inclure une nouvelle source de données, Flickr. 2 - Définition de l’évolution 2 - Définition de l'évolution Description Besoins Utilisateur Description Évolution Architecte Évolution <> <> <> Entrée : Description des besoins de l’utilisateur Sortie : Description de l’évolution Acteur(s) : Architecte de l’évolution Description : l’étape consiste à définir une évolution du système répondant aux nouveaux besoins. L’architecte de l’évolution exprime l’évolution sous formes d’opérations applicables aux processus métiers. Il décrit la séquence des opérations d’évolution (telles que l’ajout d’une variable, la modi- fication d’une activité) permettant de rendre le système satisfaisant vis-à-vis des nouveaux besoins de l’utilisateur. Application à PicWeb : l’architecte de l’évolution décrit les opérations nécessaires pour ajouter un appel à Flickr en parallèle à Picasa, et pour concaténer les résultats des deux services. Table 5.2 – Description des étapes 0 à 2 du processus de développement (Blink). ment nous a permis de rendre explicite les interactions nécessaires entre acteurs. De cette manière, chaque choix effectué au cours du processus est fondé sur l’ensemble des données nécessaires, permettant de s’assurer à tout moment qu’une décision prise n’altèrerait pas le maintien de la QoS. Il s’agit donc maintenant de savoir, pour chacun de ces acteurs, quels sont les outils à mettre en place pour leur permettre d’apporter les informations nécessaires lors des points d’interaction. Dans la suite du document, nous prenons tour à tour la place de chaque acteur, en déterminant leur problématique propre pour aider au maintien de la qualité de service, et en proposant une contribution permettant de résoudre ces problématiques. 475.5. Conclusion du chapitre 3 - Analyse de l’évolution SMILE 3 - Analyse de l'évolution Description Système Sous-Ensemble Système Architecte Évolution <> <> <> <> Description Évolution <> Entrée : Évolution, Système Sortie : Sous-ensemble du système post-évolution Acteur(s) : Architecte de l’évolution, Smile Description : l’étape d’analyse a pour objectif de déterminer quelles valeurs de propriétés du système sont affectées par l’évolution. Pour cela, Smile identifie les influences entre les éléments manipulés dans l’évolution et le reste du système, pour déterminer quels éléments ont leur comportement affecté par l’évolution. Nous verrons comment ces influences sont déterminées dans les chapitres 6 et 7, et comment l’analyse est réalisée dans le chapitre 8. Application à PicWeb : l’étape d’analyse de l’évolution a pour objectif de déterminer quelles activités sont influencées par l’ajout de Flickr. Ici, il s’agit de lever la limitation présentée dans le chapitre 4, où l’équipe de développement a vérifié uniquement le temps de réponse des activités manipulées par l’évolution. En dressant la chaine de conséquences de l’évolution, l’analyse désigne un sous-ensemble du système à re-vérifier. 4 - Vérification des éléments affectés 4 - Vérification des éléments affectés Sous-Ensemble Système Valeurs de Propriété Expert en QoS <> <> <> <> SMILE Entrée : Sous-ensemble du système post-évolution Sortie : Valeurs de propriétés collectées Acteur(s) : Expert en QoS, Smile Description : Une fois que l’analyse de l’évolution a déterminé les éléments affectés par l’évolution, il s’agit maintenant de savoir si leur modification améliore ou dégrade la qualité de service. Pour cela, l’expert en qualité de service est en charge de contrôler la qualité de service des éléments affectés, pour déterminer les nouvelles valeurs de propriété à l’aide d’outils de détermination de la qualité de service tels que des outils d’analyse statique du système, ou des contrôleurs présents à l’exécution. Application à PicWeb : une version de test est déployée, dans le but de mesurer à l’exécution le temps de réponse des activités désignées lors de l’étape précédente. Ainsi, il est possible de quantifier la différence causée par l’évolution en terme de temps de réponse en la comparant avec les valeurs mesurées sur la version précédente de PicWeb. 5 - Diagnostic et prise de décision 5 - Diagnostic et prise de décision Valeurs de Propriété Décision Architecte Évolution <> <> <> Entrée : Valeurs de propriétés collectées Sortie : Décision Acteur(s) : Architecte de l’évolution Description : le but de cette étape est de décider de l’application d’une évolution. Pour cela, l’architecte compare les nouvelles valeurs de propriétés du système post-évolution avec les contrats de QoS définis. À partir de cette comparaison, l’architecte de l’évolution peut déterminer si un contrat de QoS a été violé, et décider d’appliquer ou non l’évolution. Application à PicWeb : les données collectées révèlent une augmentation importante du temps de réponse, allant au delà du niveau maximum autorisé par le contrat de qualité de service. En observant les valeurs du temps de réponse mesurées à l’exécution, l’architecte de l’évolution est en mesure de détecter que le temps de réponse de l’activité shuffle (a3) a augmenté (voir Figure 4.3). En conséquence, il prend la décision de ne pas appliquer l’évolution. Table 5.3 – Description des étapes 3 à 5 du processus de développement (Blink). 485.5. Conclusion du chapitre 6 - Mise en application de l’évolution SMILE 6 - Mise en application de Décision l'évolution Système cohérent Architecte Évolution <> <> <> <> Description Évolution <> Entrée : Décision, Évolution Sortie : Système dans un état cohérent Acteur(s) : Architecte de l’évolution, Smile Description : la dernière étape consiste à mettre en œuvre la décision prise précédemment. Pour cela, deux choix sont possibles : 1. 6 (a) - Application de l’évolution : Dans cette alternative, il s’agit d’appliquer de manière effective l’évolution sur le système en cours d’exécution. Dans le cas où l’évolution apportée au système satisfait l’architecte de l’évolution, les processus modifiés sont mis à jour et déployés sur le serveur de production de façon atomique. 2. 6 (b) - Annulation de l’évolution : Cette alternative annule les modifications faites dans la représentation du système. Dans le cas où l’évolution apportée au système viole les contrats de qualité de service ou ne satisfont pas l’architecte de l’évolution, il est nécessaire d’annuler l’application de l’évolution. Cela se traduit par une réinitialisation des modèles de raisonnement du système à la version pré-évolution et par un effacement des mesures effectuées au cours de l’étape de vérification, afin de conserver la cohérence entre l’état du système exécutée et sa représentation. Le système retrouve un état cohérent ; l’architecte de l’évolution peut reprendre le cycle de développement en écrivant une nouvelle évolution. Application à PicWeb : Ici, le modèle du système est rétabli tel qu’il était avant d’appliquer l’évolution, et les valeurs de propriétés mesurées sur la version de test sont effacées. Partant de la cause identifiée lors de l’étape 5, l’équipe de développement modifie l’opération shuffle en réduisant le nombre d’échanges effectués et en parallélisant les traitements, permettant ainsi d’obtenir un comportement similaire tout en respectant les contrats de QoS de Séduite. Table 5.4 – Description de l’étape 6 du processus de développement (Blink). 49Chapitre 6 Modélisation d’un système à base de processus métiers Sommaire 6.1 Défis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 6.2 Modélisation du système . . . . . . . . . . . . . . . . . . . . . . . . 52 6.2.1 Univers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 6.2.2 Variables et types . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 6.2.3 Messages et Opérations . . . . . . . . . . . . . . . . . . . . . . . . . 53 6.2.4 Services . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 6.2.5 Activités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 6.2.6 Relations d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 6.2.7 Processus métier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 6.2.8 Système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 6.3 Causalité de l’exécution d’un système . . . . . . . . . . . . . . . . 58 6.3.1 Mise en œuvre de la causalité . . . . . . . . . . . . . . . . . . . . . . 59 6.3.2 Relations causales fonctionnelles . . . . . . . . . . . . . . . . . . . . 59 6.3.3 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 6.4 Déduction des relations causales d’un système . . . . . . . . . . . 61 6.4.1 Méthodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 6.4.2 Expression des règles causales . . . . . . . . . . . . . . . . . . . . . . 62 6.5 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . 63 C e chapitre se centre sur le rôle de l’architecte du système. Celui-ci a pour tâche de décrire la structure et le comportement du système ; il doit être en mesure de comprendre les interactions entre ses différentes parties. Pour l’aider dans sa tâche, nous présentons dans un premier temps un méta-modèle permettant de décrire un système. Puis, nous définissons la notion de causalité dans le cadre d’un système à base de processus métier, et motivons l’intérêt de connaitre les relations de causalité dans un système pour comprendre les interactions existantes. Ces relations causales ont pour but de rendre explicite les interactions présentes au sein d’un système. Après avoir illlustré les différents types de relations causales que l’on peut trouver dans un système, nous montrons comment il est possible de les déterminer de manière automatique. Ces causalités, matérialisées sous la forme de relations causales, serviront de base dans le chapitre 8 pour analyser les effets d’une évolution sur la qualité de service d’un système.6.1. Défis 6.1 Défis Dans ce chapitre, nous répondons aux défis suivants : – Modélisation du système : afin de pouvoir répondre aux besoins des utilisateurs, l’architecte a besoin de pouvoir décrire la structure et le comportement du système. Pour cela, nous devons déterminer quels sont les concepts nécessaires à sa modélisation. – Comportement du système à l’exécution : lors de l’exécution du système, processus métiers, variables et appels à des opérations de services interagissent dans le but de pouvoir produire un résultat en sortie. Si l’architecte décrit l’ensemble du comportement du système, la complexité et la taille de ce dernier rendent malgré tout la compréhension des interactions difficile. Comment peut-on rendre explicite les interactions liées à l’exécution d’un système et extraire celles qui nous intéressent ? Nous proposons dans la suite de ce chapitre de présenter dans un premier temps comment l’architecte modélise un système en introduisant notre méta-modèle. Nous avons fait le choix ici de définir notre propre méta-modèle, reprenant les concepts nécessaires à la modélisation de processus métiers. Ainsi, nous offrons la possibilité d’être inter-opérable avec les différents langages de description de processus métiers, en effectuant une correspondance entre les concepts du langage utilisé et notre méta-modèle. Puis, nous définissons la notion de causalité dans un système. Cette notion nous servira à représenter les interactions entre les éléments du système (comme par exemple l’influence d’un paramètre d’un appel à un service sur le comportement de ce dernier). Après avoir présenté différentes relations causales que l’on peut retrouver dans un processus métier tel que PicWeb, nous définissons des groupes de relations, représentant le même type de causalité. Nous introduisons alors la notion de règle causale, qui sont des patrons de relation causale qu’il est possible d’appliquer à un système pour obtenir de manière automatique ses relations causales. 6.2 Modélisation du système Cette section présente notre méta-modèle permettant à l’architecte du système de modéliser un système. Nous définissons chacun des concepts, avant d’illustrer comment ils sont mis en œuvre pour modéliser PicWeb. 6.2.1 Univers L’ensemble des concepts présentés dans la thèse, qui servent à définir un système ou sa qualité de service, sont regroupés autour d’un concept appelé Univers. Un univers est composé d’un ensemble d’éléments (UniverseElement), dont tous les concepts que nous allons présenter héritent. 6.2.2 Variables et types On appelle type de données la caractérisation du sens et de la taille d’une donnée. Nous considérons deux sortes de types : – Types primitifs (SimpleType) : on appelle type primitif la structuration des données à un niveau indivisible. Par exemple, les types Integer, String ou Float sont des types primitifs, définis sur la base de normes existantes [Singh 2006]. 526.2. Modélisation du système – Types complexes (ComplexType) : il est également possible de définir des types de données comme étant une composition de types simples. Par exemple, une séquence est un type complexe constitué d’une suite d’éléments dont la taille n’a pas été définie à l’avance. L’architecte déclarera alors par exemple utiliser un type Sequence, comme étant une suite d’éléments de type Integer. – Types structurés (StructuredType) : en s’appuyant sur les types complexes et les types primitifs, l’architecte a la possibilité de définir ses propres structures de données. Pour cela, un type structuré est constitué d’un ensemble de types, que l’on différencie au sein de la structure de données à l’aide d’un nom (name en anglais). C’est ce que l’on appelle un champ (Field en anglais). À titre d’exemple, l’architecte pourrait définir un type structuré Étudiant, constitué de trois champs nom (de type String), prénom (de type String), et notes (de type Sequence). Une variable est une donnée dont la valeur peut évoluer au cours de l’exécution. Elle est caractérisée par un nom et un type de donnée. À titre d’exemple, la variable keyword est une variable de PicWeb, de type simple String. Une autre variable de PicWeb, PicsPicasa, est une variable de type complexe Sequence. La Figure 6.1 est un extrait de notre méta-modèle permettant de représenter des types et des variables : une variable a un et un seul type ; Type est un méta-élément abstrait, dont héritent SimpleType, ComplexType et StructuredType. Variable size: Natural Type name: String UniverseElement StructuredType SimpleType ComplexType Field of 1..1 fieldType innerFields 0..* 1..1 variableType 1..1 Universe 0..* elmts Figure 6.1 – Extrait du méta-modèle de Smile : variables et types. 6.2.3 Messages et Opérations Nous appelons Opération dans le contexte des architectures orientées services la dé- claration d’une tâche effectuant un traitement. Une opération est déclarée à l’aide d’une signature. Celle-ci définit le nom de l’opération, ainsi que le type de donnée en entrée de l’opération et le type de données produites en sortie. Ainsi, on définit une opération par le tuple : Opération(nom : String, entrée : Type, sortie : Type). Pour interagir avec une opération, il est souvent nécessaire de lui communiquer un ensemble de données à traiter. Cela est réalisé par le biais d’un message. On appelle message une structure de données encapsulant dans une même unité logique l’ensemble des variables nécessitant d’être transmis. Un message est déclaré en lui donnant un nom et en indiquant son type de données. L’invocation d’une opération s’effectue la plupart du temps en envoyant un message, dont le type correspond au type d’entrée de la signature de l’opération. La définition du comportement de l’opération est, dans le contexte des architectures orientées services, réalisée à l’aide d’un processus métier, ou par une implémentation dans un langage de programmation donné. 536.2. Modélisation du système À titre d’illustration, PicWeb est un processus métier implémentant l’opération du même nom. Sa signature est : Opération(nom="PicWeb",entrée="String",sortie=Sequence<"String">). Lorsqu’il est invoqué, PicWeb reçoit en entrée un message constitué d’une seule variable, keyword, de type String. Le processus décrit l’ensemble des traitements à effectuer, pour retourner au final un autre message, constitué d’une seule variable PicsF ; cette variable est de type <"String">, un type complexe constitué d’une séquence d’URLs, de type String. 6.2.4 Services Le concept principal du paradigme des architectures orientées services est le service. Le consortium OASIS définit un service comme étant "un mécanisme pour permettre l’accès à une à plusieurs fonctionnalités, où l’accès est fourni par une interface prescrite et respectant les contraintes et les polices spécifiées dans la description du service"[OASIS 2006]. Un service est une entité logique regroupant un ensemble d’opérations. Nous distinguons deux sortes de services : – Service intra-domaine : il s’agit ici d’un service interne à l’organisation, l’entité en charge du système modélisé par l’architecte du système. Ce service peut être vu comme une boîte blanche, sur lequel des ajustements sont possibles. L’implémentation est disponible, modifiable, maintenable et évolutive. Dans le cadre de PicWeb, Helper est un service dont l’implémentation dépend de l’équipe de développement du système : il s’agit là d’un service intra-domaine. Ce service comprend plusieurs opérations, dont l’opération Format. – Service extra-domaine : en plus des services intra-domaines, il est parfois nécessaire de faire appel à des services proposés par des organisations tierces. Ces services sont vus comme des boîtes noires : l’équipe de développement n’a aucune emprise sur leur implémentation ou leur déploiement. Par exemple, le service Picasa est un service extra-domaine fourni par Google. L’équipe de développement n’a aucune possibilité de changer l’implémentation des opérations de ce service. name = "Helper" localisation="10.24.108.66/Helper" :Service name = "shuffle" :Operation name = "inShuffle" :Message name = "outShuffle" :Message Figure 6.2 – modélisation du service Helper. Un service est défini comme le tuple : Service(nom:String, localisation:String, ops:Ensemble). À titre d’illustration, la Figure 6.2 est un extrait du modèle de PicWeb, représentant le service Helper et son unique opération. Ce modèle est conforme à l’extrait de notre métamodèle illustré dans la Figure 6.3, représentant les différents concepts introduits dans ce paragraphe. Un service a pour attribut sa localisation. Il est constitué de une à plusieurs opérations, possédant au plus un message en entrée et au plus un message en sortie. 546.2. Modélisation du système size: Natural Type name: String UniverseElement location: String Service 1..* Operation 0..1 0..1 input output ops Figure 6.3 – Extrait du méta-modèle de Smile : services, opérations et messages. 6.2.5 Activités Le point de vue choisi pour modéliser un système est celui d’un ensemble de tâches ordonnées dans le temps. Nous appelons activité, en lien avec la définition d’une activité dans le langage BPEL, l’instanciation d’une tâche dans le contexte d’un processus métier. Cette tâche a pour but d’effectuer un traitement sur des données. Par exemple, a2 dans la Figure 4.3 est une activité de PicWeb instanciant une invocation au service Picasa. L’activité prend en entrée un mot-clé, et produit en sortie un ensemble de photos. BasicActivity Receive Invoke Reply Sequence Flow gard: String If StructuredActivity Activity then else content name: String UniverseElement Message input input output output 0..1 0..1 0..1 0..1 1..1 0..1 1..1 0..* Variable content Figure 6.4 – Extrait du méta-modèle de Smile : activités. Nous modélisons l’ensemble des activités par la Figure 6.4. Nous distinguons différents types d’activités : – Réception : l’activité de réception consiste en l’attente bloquante d’une information de la part des partenaires. Le plus souvent, nous retrouvons une activité de réception en début du processus métier, pour récupérer les données en entrée. Le partenaire est alors l’invoquant de l’opération. Une activité de réception est définie comme un tuple Rcp(nom:String, output:Message). La Figure 6.5 est une partie du modèle de PicWeb représentant l’activité de réception d’un message, constitué d’une seule variable keyword. name = "rcv" :Receive name = "inPicWebMsg" :Message name = "keyword" :Variable output content type = "String" varType :Type Figure 6.5 – Extrait du modèle de PicWeb : activité receive. 556.2. Modélisation du système – Envoi : l’envoi est l’équivalent de l’activité de réception, mais pour transmettre des informations aux partenaires. Il sert le plus souvent à retourner le résultat d’un processus métier. Une activité d’envoi est définie comme un tuple Env(nom:String, input:Message). – Invocation : lorsqu’il est nécessaire de faire appel à d’autres services pour effectuer le traitement du processus métier, nous utilisons le type d’activité invocation. Les informations nécessaires pour qualifier une invocation sont le nom du service et l’opération à invoquer. Pour une invocation, il est également nécessaire de définir le message en entrée de l’opération invoquée, et de définir le message destiné à recevoir le résultat de l’opération. Une activité d’invocation est définie comme un tuple Inv(nom:String, op:Operation, input:Message, output:Message). En plus des activités présentés ci-dessus, nous introduisons d’autres activités, dites structurantes. Elles ont pour rôle de regrouper, sous une même entité, différentes activités, en ajoutant une sémantique supplémentaire. Ces activités sont les suivantes : – Condition : Afin de pouvoir effectuer différents traitements selon une condition donnée, l’activité condition permet de décrire les différentes alternatives. Une activité de type condition est constituée d’une condition de garde, expression pour laquelle l’évaluation retournera Vrai ou Faux, et de deux activités nommées Alors et Sinon. Si l’évaluation de la garde retourne Vrai, l’exécution du processus métier se poursuivra par l’activité Alors. Si l’évaluation de la garde retourne Faux, l’activité exécutée sera l’activité Sinon, si elle est spécifiée. Dans le cas contraire, l’activité de condition se termine. – Séquence : une activité de type séquence contient un ensemble ordonné d’activités, pour laquelle la sémantique d’exécution donnée consiste à exécuter les différentes activités dans l’ordre donné. Par exemple, les activités de la première version de PicWeb (Figure 4.3) sont toutes regroupées dans une même séquence. – Flot : une activité de type flot est associée à une sémantique d’exécution différente de celle de séquence. En effet, aucun ordre n’est défini pour l’exécution des activités contenues : elles peuvent être exécutées les unes à la suite des autres et dans un ordre aléatoire, ou bien de manière parallèle. Le flot se termine lorsque l’ensemble des activités contenues a terminé son exécution. Un exemple d’activités de type flot consiste à considérer les deux activités a2 et a3 dans la Figure 4.3 (b). Ces deux activités sont contenues dans une activité de type flot : elles s’exécutent sans aucune garantie de leur ordre relatif. 6.2.6 Relations d’ordre Afin de pouvoir définir l’ordre d’exécution des activités, il est nécessaire d’introduire un concept permettant de prioriser l’exécution des activités. Nous utilisons pour cela la notion de relation d’ordre partiel. Une relation d’ordre Ord(a1, a2 ), (a1,a2 ) ∈ (Activity×Activity) est un couple d’activités tel que a1 s’exécute avant a2. Grâce à cette notion, il est possible de définir un ensemble de relations d’ordre déterminant l’ordre dans lequel les activités vont s’exécuter. Par exemple, la Figure 6.6 représente la modélisation de l’ordre pour les activités a1, a2 et a3 de la Figure 4.3 (a). Toutefois, nous parlons d’ordre partiel puisque s’il est possible de définir l’ordre d’exécution entre deux activités, l’ordre d’exécution de trois activités n’est pas défini. En effet, si nous prenons les activités a1 a2 et a21 de la Figure 4.3 (b), les activités a2 et a21 peuvent s’exécuter en parallèle, ou l’une avant l’autre, sans avoir nécessairement besoin de connaitre cet ordre. 566.2. Modélisation du système :Order from to name = "a1" :Receive name = "a2" :Invoke name = "a3" :Invoke :Order from to Figure 6.6 – Extrait du modèle de PicWeb : relations d’ordre. Il est important de noter ici que la modélisation de l’ordre d’exécution est redondante avec la présence d’activités structurantes. En effet, puisque les activités structurantes sont associées à une sémantique d’exécution précise, dire que deux activités appartiennent à une séquence et dire qu’il existe une relation d’ordre entre ces deux activités est équivalent. Cette dualité permet à la fois d’être souple dans l’expression d’un flot de contrôle, par le biais des relations d’ordre partielle, tout en donnant un cadre hiérarchique aux différentes activités par le biais des activités structurantes. Ce dernier point permet notamment de pouvoir qualifier directement une activité structurante du point de vue de la QoS. La Figure 6.7 représente la partie de notre méta-modèle responsable de modéliser les relations d’ordre. Activity Order from to 1 1 * * Figure 6.7 – Extrait du méta-modèle : relations d’ordre. 6.2.7 Processus métier Nous avons vu dans la définition d’une opération qu’il était possible d’en définir l’implémentation par le biais d’un processus métier. Nous appelons processus métier la réalisation d’une opération par un ensemble d’activités ordonnées. Pour cela, nous réutilisons les concepts introduits précédemment : un processus métier a besoin de variables pour stocker le résultat des différents traitements, d’activités pour instancier les différentes tâches à effectuer, de messages pour communiquer avec les activités, et de relations d’ordre pour prioriser les activités. Enfin, un processus métier a besoin d’un point d’entrée, indiquant par quelle(s) activité(s) démarrer. La Figure 6.8 représente la partie de notre méta-modèle correspondant à un processus métier : formellement, nous définissons un processus métier comme un tuple Proc(vars:Ensemble, msgs:Ensemble, acts:Ensemble, ord:Ensemble, init:EntryPoint). 6.2.8 Système Il existe dans la littérature de nombreuses définitions des systèmes logiciels. Par exemple, le consortium OASIS définit un système comme étant "une collection de composants organisés pour accomplir une fonction ou un ensemble de fonctions spécifiques" [OASIS 2006]. Nous appelons système logiciel l’ensemble des ressources et infrastructures logicielles qu’une équipe de développement est amenée à gérer dans le cadre d’un projet. Un système peut ainsi être vu comme un agglomérat de services, pouvant être implémentés à l’aide de pro- 576.3. Causalité de l’exécution d’un système Business Process Order 0..* rels 1..* acts Activity Variable left right 0..* 0..* ins outs 0..* vars Message 0..* msgs location: String Service 1..* Operation ops implementation 0..1 EntryPoint 1..* start init 0..1 System processes 0..* Figure 6.8 – Extrait du méta-modèle : processus métier. cessus métiers, agissant dans un but commun. Formellement, on considère un système Sys(process:Ensemble, serv:Ensemble). Nous venons de voir dans cette section l’ensemble des concepts nécessaires à l’architecte du système pour modéliser un système. Notre méta-modèle, représenté dans son intégralité en annexe, reprend les concepts communs aux langages de description d’architecture et aux langages de description de processus métier pour fournir un méta-modèle à la fois centré sur le processus métier, mais permettant de décrire la logique d’un système dans son ensemble, comme assemblage de plusieurs processus métiers permettant à l’architecte du système d’en définir son comportement. Dans la section suivante, nous nous intéressons à la causalité présente au cours de l’exécution du système. 6.3 Causalité de l’exécution d’un système L’exécution d’un système peut être vue comme les modifications successives de son état [Turing 1936]. Dans le contexte de la thèse, ceci peut être vu comme une série d’interactions entre les différents éléments constituants le système. Par exemple, la fin d’une activité d’un processus métier peut engendrer le début d’une autre activité. Ce sont ces interactions qui modifient l’état du système, tout au long de son exécution. Lorsque l’architecte fait évoluer un système, il ajoute, modifie ou supprime des éléments. Cela a pour conséquence de changer la manière dont les éléments du système vont interagir, et par la même occasion influe sur leur qualité de service. Afin de pouvoir suivre ces interactions et par la suite calculer l’effet d’une évolution sur la qualité de service du système, il est nécessaire d’établir ces interactions de manière explicite. Ainsi, lorsqu’un élément du système évolue, savoir les conséquences de cette évolution consistera à déterminer l’ensemble des interactions que cet élément a avec le reste du système, pour pouvoir identifier quels sont les éléments pouvant être affectés. Notre objectif est de définir les causalités de notre application, afin de les utiliser lors de l’analyse d’une évolution pour prédire quelles seront les conséquences de l’évolution sur l’état du système. C’est grâce à ces causalités que nous parvenons à identifier concrètement l’effet d’une évolution sur le reste du système et sur sa qualité de service. Dans cette section, nous nous intéressons à la notion de causalité, et définissons dans le contexte de l’exécution d’un système les relations de cause à effet qui sont présentes. Après avoir défini le concept de causalité et de relation causale, nous présentons un moyen d’établir la causalité, en vue de s’en servir pour analyser l’impact d’une évolution. 586.3. Causalité de l’exécution d’un système 6.3.1 Mise en œuvre de la causalité La notion de causalité a des origines provenant de plusieurs disciplines, passant des sciences physiques à la philosophie. En informatique, la causalité a été introduite à de nombreuses reprises également. Nous retiendrons tout particulièrement la définition de la causalité introduite par Judea Pearl [Pearl 2000]. Dans ces travaux, la notion de causalité est définie de manière informelle comme étant "notre conscience de ce qui cause quoi dans le Monde, et en quoi cela est important". Dans notre contexte de système à base de services, nous nous centrons sur cette relation de "ce qui cause quoi". Nous appelons relation causale le couple (X, Y ) ∈ UniverseElement×UniverseElement, représentant l’influence de X sur Y, ou encore le fait que X cause Y. Ici, cette influence veut dire que le comportement de X régit celui de Y. De ce fait, dire que "X est une cause de Y" signifie que si l’état de X change, alors l’état de Y change également. Partant de cette notion, Rooney et al. introduisirent l’analyse de cause racine [Rooney 2004]. Il s’agit ici d’un "processus conçu pour être utilisé dans l’investigation et la catégorisation des causes racines des événements liés à la sûreté, la santé, l’environnement, la qualité, la fiabilité et la production d’impacts". En d’autres termes, ce processus permet, en se basant sur la notion de causalité, de remonter la chaîne de conséquences afin de trouver le facteur-clé à l’origine de la réaction en cascade ayant causé le changement de comportement d’un élément. Nous verrons dans le chapitre 8 que le principe d’analyse de cause racine est à la base de notre analyse des évolutions. Pour établir la chaîne de conséquences constituée lors de l’application d’une évolution, nous avons besoin dans un premier temps de déterminer les changements d’états dans notre système, i.e., les changements opérés par l’évolution, et de déterminer en quoi ces changements vont avoir une influence sur d’autres éléments. Cela nécessite au préalable d’établir les causalités au sein même de notre système. Cette section se concentre sur l’établissement des causalités. Notre objectif ici est de dresser une représentation de notre système d’un point de vue causal. Il s’agit donc d’un modèle, dont la préoccupation principale est de représenter en quoi un élément du système va avoir une influence sur d’autres éléments du système. Nous appelons ce modèle un modèle causal. Définition 6.3.1 (Modèle causal ) Un modèle causal est un couple C, où A est l’ensemble des artéfacts du système et R l’ensemble des relations causales régissant les artéfacts étudiés. Nous verrons dans la suite du document qu’il existe différents types de relations causales au sein d’un système, et relatives aux propriétés de qualité de service étudiées. La question est donc maintenant de savoir quels types de relations causales peuvent opérer dans un système. Dans ce chapitre, nous nous concentrons dans un premier temps sur les relations causales régissant l’exécution d’une système, avant de voir dans le chapitre 7 les relations propres à la qualité de service. 6.3.2 Relations causales fonctionnelles Le système décrit par l’architecte est interprété par une plate-forme d’exécution. Cette plate-forme est définie selon une sémantique précise, régissant les interactions entre les différents éléments du système. Il est donc important de voir que les éléments du système, par le biais de la plate forme d’exécution, interviennent dans l’état d’autres éléments. Cette forme d’interaction entre les éléments du système est ce que l’on cherche à représenter par des relations causales. Le but ici est de permettre à l’architecte du système de comprendre dans un premier temps quels éléments agissent sur d’autres éléments, pour pouvoir ensuite déterminer, partant du changement d’un élément, comment le reste du système va être 596.3. Causalité de l’exécution d’un système affecté. Nous cherchons dans un premier temps à représenter les relations causales propres au comportement de la plate-forme d’exécution pour orchestrer les processus métier. Il est intéressant de noter ici que ces relations causales sont une représentation de la sémantique de la plate-forme d’exécution. Cette sémantique conditionne les relations existantes entre les éléments du système. Par exemple, prenons la notion d’appel à un service. Un service prend des données en entrée, qui régissent l’exécution du service, pour au final produire d’autres données en sortie. Nous pouvons dire ici que l’entrée du service influence le calcul du service, qui lui-même influence la donnée en sortie. Il s’agit bien ici de relations de causalité. Nous introduisons par la suite deux types de relations que l’on peut trouver dans un système. Définition 6.3.2 (Relation Causale de paramètre d’entrée) Soit O une opération du système. Selon la sémantique du moteur d’exécution, le message en entrée de l’opération conditionne l’exécution de l’opération. La relation causale de paramètre d’entrée représente l’influence du paramètre en entrée sur le comportement de l’exécution d’une opération. On note ainsi que entrée in −→ S . De manière similaire, le principe de relation causale de paramètre d’entrée établit cidessus s’applique sur le message produit par le service : Définition 6.3.3 (Relation Causale de paramètre de sortie) Soit O une opération du système. Selon la sémantique du moteur d’exécution, le message en sortie de l’opération est calculé à partir de l’exécution de l’opération. La relation causale de paramètre de sortie représente l’influence du comportement de l’exécution d’une opération sur le paramètre de sortie. On note ainsi que S out −→ sortie . 6.3.3 Exemple Pour illustrer les différents types de relations causales fonctionnelles présentés précédemment, nous nous plaçons dans le contexte du développement de PicWeb. La Figure 6.9 est le modèle causal obtenu en appliquant les définitions de relations causales de paramètre d’entrée et de sortie à PicWeb. Variable Keyword Variable PicsPicasa Variable PicsFlickr Variable Pics Variable PicsF Receive Invoke Picasa Invoke Flickr Invoke Helper Invoke Format Reply Légende: Relation Causale de paramètre d'entrée in out Relation Causale de paramètre de sortie in in in in in in out out out out out Figure 6.9 – Modèle causal fonctionnel de PicWeb. 606.4. Déduction des relations causales d’un système L’observation de ce modèle permet de déterminer par exemple l’effet que pourrait avoir une modification de la variable Pics : en suivant les relations causales sortants de cette variable sur le modèle causal, l’architecte peut identifier l’activité Format comme directement affectée, mais également la variable PicsF et l’activité Reply par transitivité. Dans cette section, nous avons présenté les concepts de causalité, de relation causale fonctionnelle et de modèle causal. En faisant le focus sur le moteur d’exécution du système, nous avons exhibé deux types de relations opérant dans un système. À l’aide de ces deux types, nous avons montré à quoi pouvait ressembler un modèle causal. Si la description faite ici ne représente qu’une infime partie de la sémantique du moteur, elle n’a pour but que de poser les bases nécessaires à la compréhension des modèles causaux et à montrer comment faire le lien entre la sémantique de la description du système et celle du moteur d’exécution, ainsi qu’avec la notion de causalité. Toutefois, s’il est possible de construire le modèle causal de PicWeb à la main, la prise en compte d’autres types de relations causales, ainsi que la taille plus conséquentes des systèmes sont des critères qui nous limitent dans cette méthode. Il est nécessaire pour l’architecte du système de pouvoir automatiser la constitution du modèle causal. Dans la suite de ce chapitre, nous introduisons une méthode permettant d’extraire les relations causales d’un système donné, en caractérisant les types de relations sous la forme de règles causales. Cette méthode est implémentée dans Smile, afin de déduire automatiquement le modèle causal d’un système. 6.4 Déduction des relations causales d’un système Nous venons de définir la notion de modèle causal d’un système, permettant d’identifier les interactions entre ses éléments. Si son utilité n’est plus à montrer, une limitation réside dans son établissement. En effet, la construction manuelle d’un modèle causal est fastidieuse et sujette à erreur, compte tenu du nombre de relations causales présentes dans un système. Dans cette section, nous présentons une méthode permettant de déduire de manière automatisée le modèle causal fonctionnel d’un système. Après avoir présenté les principes de notre méthode, nous définissons la notion de règle causale qui nous sert à décrire, indé- pendamment de tout système, les types de relations causales que l’on peut déduire d’un système. Nous montrons enfin comment, en appliquant les règles causales sur un système donné, il est possible d’en déduire automatiquement ses relations causales. 6.4.1 Méthodologie Le but de la méthodologie est de décrire une transformation permettant, en partant de la description d’un système, d’obtenir son modèle causal. Nous avons présenté précédemment différents types de relations causales fonctionnelles. Il est important de noter que ces types de relations sont décrits indépendamment du système étudié, mais en fonction de la plateforme d’exécution. Il convient donc de souhaiter "instancier" par la suite ces types de relations causales, pour un système donné. Pour cela, notre méthode est un procédé de déduction : il s’agit d’appliquer au système étudié des règles correspondant aux types de relations causales, pour en déduire ses relations causales. Afin de pouvoir mettre en œuvre un tel procédé, nous introduisons la notion de règle causale. Définition 6.4.1 (Définition d’une règle causale) Une règle causale est une requête permettant de sélectionner dans un système donné des couples (a, b) ∈ (SystemElement × SystemElement) tels qu’il existe une relation causale entre a et b. 616.4. Déduction des relations causales d’un système Table 6.1 – Règle causale pour les relations causales de paramètre d’entrée. Situation Action A : Activity, M : Message, v : Variable and (A.type = Invoke or A.type = Receive) and M = A.input and v ∈ M.content v in −→ A Notre méthode consiste à définir en une seule fois les règles causales d’un moteur d’exé- cution, dans le but de les appliquer sur n’importe quel système pour en extraire ses relations causales. Pour cela, nous proposons le procédé représenté dans la Figure 6.10. Système Règles Causales Relations Causales Génération de Relations Causales SMILE expert du moteur d'exécution user Action d'un acteur Légende : Génération de Règles Causales Règles Causales step élément élément step Étape du processus Donnée L'étape step produit la donnée élément La donnée élément est en entrée de l'étape step Figure 6.10 – Procédé de déduction des relations causales. 6.4.2 Expression des règles causales Concrètement, nous avons choisi de représenter les règles causales comme un système de règles de production. Selon le spécification de l’OMG [OMG 2009a], une règle de production est "une instruction de logique de programmation qui spécifie l’exécution de une ou plusieurs actions dans le cas où ses conditions sont satisfaites. Les règles de production ont donc une sémantique opérationnelle (formalisant les changements d’état, e.g., sur la base d’un formalisme d’un système de transition d’état)". Une règle de production est représentée comme une instruction Si [condition] alors [liste d’actions]. À titre d’exemple, la Table 6.1 et la Table 6.2 sont l’expression des règles causales correspondant respectivement aux relations causales d’entrée et de sortie. On parle de Situation pour décrire la condition, et d’Action pour l’ensemble des actions à effectuer. Dans le contexte de la règle causale de paramètre d’entrée, la situation décrite consiste à raisonner sur une activité A, un message M et une variable v. Nous posons comme condition que A soit une activité de type Invoke ou Receive, que M soit le message d’entrée de A, et que v soit contenue dans M. Dans ces conditions, la situation, i.e., la relation causale à déduire, est v in −→ A. Le principe est similaire pour la règle causale de paramètre de sortie, en considérant ici les activités de type Invoke et Reply. En utilisant ces deux règles causales sur PicWeb, notre méthodologie produit le modèle causal de la Figure 6.9. 626.5. Conclusion du chapitre Table 6.2 – Règle causale pour les relations causales de paramètre de sortie. Situation Action A : Activity, M : Message, v : Variable and (A.type = Invoke or A.type = Reply) and M = A.output and v ∈ M.content A out −→ v 6.5 Conclusion du chapitre Dans ce chapitre, nous nous sommes centrés sur les besoins de l’architecte du système. Nous avons introduit les différents concepts nécessaires pour modéliser un système. Partant de cette modélisation, nous nous sommes intéressés à la notion de causalité pour retranscrire les interactions existantes au cours de l’exécution d’un système. À travers la notion de modèle causal, nous avons établi un ensemble de relations causales telles que les relations causales de paramètres d’entrée et de sortie, représentant l’effet d’un élément du système sur un autre. Nous avons enfin présenté une méthode permettant, en exprimant une fois pour toute des types de causalité par le biais de règles causales, de déduire de manière automatique le modèle causal d’un système. Notre approche reste cependant limitée par l’intervention d’un expert du moteur d’exécution qui doit transcrire la sémantique du moteur en règles causales. De plus, si le modèle causal obtenu permet de représenter la causalité d’un point de vue fonctionnel, nous pouvons toutefois nous demander ce qu’il en est de la causalité en vue de l’étude de la variation de la qualité de service dans un système. Nous traitons ce point dans le chapitre suivant. 63Chapitre 7 Modélisation de la qualité de service pour l’évolution Sommaire 7.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 7.2 Modélisation de la qualité de service d’un système . . . . . . . . 66 7.2.1 Propriété, unité et critère de comparaison . . . . . . . . . . . . . . . 67 7.2.2 Domaine d’application . . . . . . . . . . . . . . . . . . . . . . . . . . 67 7.2.3 Valeur de propriété . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 7.2.4 Influence et ressource . . . . . . . . . . . . . . . . . . . . . . . . . . 68 7.2.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 7.3 Définition des relations causales de propriété . . . . . . . . . . . . 69 7.3.1 Relations d’environnement . . . . . . . . . . . . . . . . . . . . . . . . 71 7.3.2 Relations de dérivation de propriétés . . . . . . . . . . . . . . . . . . 71 7.3.3 Relations d’agrégation de valeurs . . . . . . . . . . . . . . . . . . . . 73 7.3.4 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 7.4 QoS4Evol, un langage de description de la qualité de service . . 74 7.4.1 Présentation de QoS4Evol . . . . . . . . . . . . . . . . . . . . . . . . 75 7.4.2 Définition du langage . . . . . . . . . . . . . . . . . . . . . . . . . . 75 7.4.3 Caractéristiques du langage . . . . . . . . . . . . . . . . . . . . . . . 76 7.5 Déduction des règles causales d’une propriété . . . . . . . . . . . 77 7.5.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 7.5.2 Obtention des relations causales d’environnement . . . . . . . . . . . 78 7.5.3 Obtention des relations causales de dérivation . . . . . . . . . . . . . 79 7.5.4 Obtention des relations causales d’agrégation . . . . . . . . . . . . . 79 7.5.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 7.6 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . 81 D ans l’étude d’un système, l’expert en qualité de service a pour rôle de s’assurer du maintien de la QoS du système, à tout moment de son cycle de vie. Il apporte son expertise du domaine pour vérifier le respect des contrats de QoS, et pour identifier les causes d’une potentielle violation. Nous présentons dans ce chapitre un ensemble d’outils nécessaire à l’expert en QoS pour étudier l’effet d’une évolution sur la QoS. 7.1 Motivations Pour rappel, nous considérons qu’une évolution est une modification des fonctionnalités du système dans le but de satisfaire de nouveaux besoins des différentes parties prenantes. Si une évolution cherche en premier lieu à satisfaire de nouveaux besoins fonctionnels, il7.2. Modélisation de la qualité de service d’un système convient de s’interroger si celle-ci a également un effet sur les besoins non fonctionnels, et notamment sur la qualité de service. Selon les principes de notre cycle de développement BLINK, cette préoccupation est à la charge de l’expert en QoS. Celui-ci a pour tâche d’établir les contrats de qualité de service, de mettre en œuvre les outils de contrôle de la QoS, de s’assurer à chaque évolution qu’aucun contrat de QoS n’a été violé et, le cas échéant, il doit être en mesure de définir les causes de la violation. Concernant ce dernier point, nous avons défini dans le chapitre 6 le concept de relation causale d’un point de vue fonctionnel. Nous avons établi un modèle causal destiné à représenter ce qu’il se passe dans un système lors de l’exécution, permettant de comprendre quels éléments du système affectent d’autres éléments. Toutefois, la simple considération de ces relations ne permet pas de décrire la causalité de l’exécution du point de vue de la qualité de service. En guise d’illustration, faisons le parallèle à une machinerie mécanique. Dans ce contexte, la détermination du modèle causal fonctionnel établirait que le moteur a une influence sur les pièces mécaniques de la machine, qui ont elles une influence sur des rouages. En supposant un changement du moteur, le modèle causal indiquerait la chaîne de conséquences jusqu’aux rouages. En revanche, cette chaîne de conséquences n’indique pas de quelle manière la modification influence les rouages, c’est-à-dire si le changement de moteur a entraîné une modification de la vitesse de rotation du rouage, de son usure, de son sens de rotation, etc.. Dans une telle situation, il est donc prudent de vérifier l’ensemble des propriétés du rouage, ce qui est certes plus sûr, mais qui entraîne bien souvent un ensemble de vérifications inutiles. Pour lever ces limitations, nous cherchons à représenter quels sont les facteurs d’influence d’une propriété, dans le but de cibler de manière plus précise quelles valeurs de propriété vont être affectées par une évolution. Ces facteurs d’influence ont pour vocation d’enrichir le modèle causal établi en introduisant des relations causales propres aux propriétés de qualité de service, afin de cibler l’identification des propriétés influencées et minimiser le nombre de vérifications à effectuer. La construction de ce nouveau modèle causal nécessite dans un premier temps d’être en mesure de pouvoir représenter les valeurs de propriété d’un système, afin de pouvoir les inclure en tant qu’élément conceptuel. L’expert en QoS a pour cela besoin de modéliser la qualité de service d’un système à l’exécution, comme présenté dans la section 7.2. Dans un deuxième temps, nous nous intéressons à ce qui peut influencer une valeur de propriété. Nous présentons dans la section 7.3 les différents facteurs d’influence, traduits par le biais de relations causales de QoS. Enfin, nous introduisons dans la section 7.4 un langage permettant de décrire des propriétés de qualité de service. C’est à partir de cette description que nous présentons dans la section 7.5 un procédé permettant de déduire de manière automatique les relations causales d’un système pour une propriété donnée. 7.2 Modélisation de la qualité de service d’un système Nous avons vu dans le chapitre 2 que l’expert en qualité de service a à sa disposition un ensemble d’outils permettant de déterminer la qualité de service d’un élément du système : l’analyse statique de l’élément, le contrôle à l’exécution, ou le calcul à partir d’autres valeurs. Ces outils produisent différents ensembles de données sur lesquels l’expert devra raisonner dans le but de déterminer si oui ou non le système respecte les besoins de l’utilisateur final. Toutefois, la diversité des méthodes de détermination pose un problème d’hétérogénéité pour l’expert. En effet, la diversité des outils de détermination de la qualité de service entraîne une répartition des informations sur différents supports, rendant compliqué tout raisonnement. L’expert a besoin d’un support commun pour représenter ces informations, qui seront ensuite reprises dans le modèle causal. 667.2. Modélisation de la qualité de service d’un système Universe name: String UniverseElement PropertyElement comparator:ComparatorCriteria Property name: String type: TypeKind Unit 1 unit LowerIsBetter HigherIsBetter <> ComparatorCriteria Time DataSize DataSpeed <> TypeKind (a) Extrait du méta-modèle de propriété. name="ResponseTime" comparator=LowerIsBetter :Property name="millisecond" type=Time :Unit unit (b) Extrait du modèle du temps de réponse Figure 7.1 – Modèle et méta-modèle d’une propriété. Nous proposons dans cette section de résoudre ce problème en définissant un métamodèle pour la qualité de service permettant de centraliser les informations collectées. Nous présentons les différents concepts et les illustrons sur PicWeb en étudiant le temps de réponse. 7.2.1 Propriété, unité et critère de comparaison Une propriété est un élément mesurable qui donne une information qualifiant la manière dont le système fonctionne. Il s’agit là du concept central que l’expert en QoS manipule, pour lequel il/elle doit définir un ensemble de caractéristiques. La Figure 7.1a est la partie du méta-modèle représentant les concepts présentés dans cette partie. Une propriété a un nom et une unité, représenté dans notre méta-modèle par les méta-éléments Property et Unit. Par exemple, l’expert en QoS créé une propriété "Temps de réponse", dont l’unité est "millisecondes", comme représenté dans la Figure 7.1b. Associée à la propriété, le critère de comparaison définit pour deux valeurs de cette propriété laquelle sera considérée comme la meilleure. Par exemple, cela permet de savoir lors d’une évolution si une valeur de propriété s’est améliorée ou s’est dégradée. Dans le cas du temps de réponse, l’expert déclare que plus petite la valeur est, le mieux c’est. 7.2.2 Domaine d’application Les systèmes étudiés sont constitués de plusieurs éléments, de types différents. Par exemple, il existe dans PicWeb des activités de type Invoke, Receive, Reply. Nous voulons donner la possibilité à l’expert en QoS de définir une manière de calculer une valeur de propriété en fonction de chaque type d’élément. Par exemple, l’expert veut mesurer le temps de réponse pour les activités de type Invoke, mais calculer les temps de réponse d’une séquence en fonction des temps de réponse des activités qu’il contient. Nous appelons type d’élément du système (SystemElementKind) un type d’élément. Pour pouvoir définir comment dé- terminer la qualité de service pour un type d’élément donné, nous introduisons le concept de domaine d’application. Un domaine d’application (ApplicationDomain) associe une mé- thode de détermination (analyse, contrôle ou calcul) à un type d’élément. Nous représentons cela dans notre méta-modèle par la partie décrite dans la Figure 7.2a : un méta-élément ApplicationDomain, possède une relation avec une méthode de détermination (DeterminationTool) et un type d’élément du système (SystemElementKind). En guise d’illustration, la Figure 7.2b est la partie du modèle du temps de réponse représentant comment déterminer une valeur de propriété pour une activité simple (via le moniteur RTBasicActivityMonitor ), et pour une séquence en décrivant le domaine d’application SequenceActivity. 677.2. Modélisation de la qualité de service d’un système SystemElement name: String UniverseElement PropertyElement Application Domain SystemElementKind 1..* Application Point 1..* comparator:ComparatorCriteria Property Domains 1..1 Type Monitor Aggregation Formula Static Analyser Composition Formula Resource name: String1 DeterminationTool 1..1 Determination (a) Extrait du méta-modèle de propriété. name="ResponseTime" comparator=LowerIsBetter :Property name: "BasicActivity" :Application Domain name = "Invoke" Application Point :SystemElementKind name= "RTBasicActivityMonitor" :Monitor name = "Receive" :SystemElementKind name = "Reply" :SystemElementKind Application Point Application Point name: "SequenceActivity" :Application Domain name = "Sequence" :SystemElementKind Application Point name= "RTSequenceAggrFormula" :Aggregation Formula Determination Determination (b) Extrait du modèle du temps de réponse. Figure 7.2 – Modèle et méta-modèle du domaine d’application. 7.2.3 Valeur de propriété Une valeur de propriété (PropertyValue) est une valeur logique caractérisant un élément du système donné. La Figure 7.3 représente la partie du méta-modèle responsable de définir les valeurs de propriétés. Pour chaque élément du système pour lequel l’expert en QoS a défini un domaine d’application, une valeur de propriété sera créée. Si le méta- élément a pour but de représenter l’ensemble des mesures effectuées, il ne contient lui-même aucune valeur. En effet, les valeurs numériques concrètes sont représentées par le méta- élément Measurement. Ce choix de modélisation a été effectué pour simplifier la recherche de toutes les mesures effectuées pour un élément du système donné, et pour une propriété donnée. Enfin, afin de pouvoir regrouper les mesures effectuées au cours du même contexte d’exécution, nous introduisons le concept de trace d’exécution (ExecutionTrace). Ce concept a pour but de regrouper les valeurs de propriétés qui ont été capturées lors de la même instance d’exécution [Comes 2009]. Il est caractérisé par une estampille ("timestamp" en anglais), et par un numéro de version ("versionNumber" en anglais). Tandis que le premier a pour rôle de capturer l’heure précise à laquelle la trace a été enregistrée, le dernier sert à caractériser sur quelle version du système la trace a été capturé. Lors de chaque évolution, ce numéro est incrémenté. La Figure 7.4 est un exemple de modèle représentant les données mesurées. Ici, l’expert s’intéresse à deux propriétés, le temps de transmission et le temps de calcul. Par souci de lisibilité, le lien entre une propriété et ses valeurs de propriété est représenté par un code couleur. Chaque activité est associée à deux valeurs de propriété, une pour chaque propriété. À chaque valeur est associée un ensemble de mesures. Ici, quatre traces sont présentes, représentant quatre appels à PicWeb. 7.2.4 Influence et ressource Une valeur de propriété de qualité de service dépend de nombreux facteurs. Comme énoncé précédemment, il est courant que le contrôle à l’exécution d’une propriété fournisse des données très différentes pour les mêmes paramètres d’exécution. Cela est dû à l’in- fluence des facteurs extérieurs, tels que l’utilisation de certaines ressources physiques, mais 687.3. Définition des relations causales de propriété Universe SystemElement value: String PropertyValue name: String UniverseElement PropertyElement name: String comparator:ComparatorCriteria Property 0..* values 1 owner timeStamp: Date versionNumber: Natural ExecutionTrace value: Natural Measurement 0..* measures 0..* capturedBy measurements 1 0..* Figure 7.3 – Méta-Modèle de propriété : Valeurs de propriété. également des facteurs internes tels que des éléments du système. Afin de donner la possibilité de représenter quel type de ressource peut influencer une valeur de propriété, nous introduisons le concept de Resource dans notre méta-modèle. Par exemple, la propriété de temps de réponse d’une activité dont l’implémentation est située sur une autre machine que celle de l’appelant sera influencée par le réseau. Également, l’expert souhaite représenter l’effet d’un message en paramètre d’entrée d’une activité sur son temps de transmission. La Figure 7.5a représente la partie du méta-modèle responsable de définir les facteurs d’influence. Ces concepts sont illustrés dans la Figure 7.5b, représentant l’influence du réseau et l’influence d’un message en entrée sur une valeur de propriété. 7.2.5 Discussion Le méta-modèle que nous venons de présenter sert de base de représentation des différentes données nécessaires par l’expert en qualité de service. Nous avons fait le choix de regrouper l’ensemble des mesures effectuées pour une propriété et pour une élément du système donnée autour de l’élément PropertyValue. Selon les méthodes de détermination des valeurs de propriété, le résultat de tout calcul, toute analyse ou toute mesure effectuée sur un élément du système est représenté dans le modèle de données et associé à l’élément analysé. Par cette méthode, nous gardons trace de la provenance des données. Nous avons ici le moyen de tracer pour une mesure le moment de sa capture (permettant de savoir si la donnée a été déterminée sur la version courante du système, ou sur une version antérieure), ainsi que le type d’outil l’ayant déterminé. Ainsi, nous fournissons un support unifié pour les différents outils de détermination de la qualité de service d’un système. De plus, les éléments modélisés servent également de base pour enrichir le modèle causal du système : ce sont les nouveaux nœuds à introduire. Il s’agit donc maintenant de déterminer les nouvelles relations du modèle causal à introduire. Pour cela, nous nous intéressons aux différents éléments pouvant influencer une valeur de propriété. 7.3 Définition des relations causales de propriété Dans cette section, nous nous intéressons à ce qui peut influencer une valeur de propriété. Cette influence peut provenir du comportement du système à l’exécution, de son environnement, ou encore des valeurs de propriétés entre elles. De ces facteurs d’influence, nous en réifions 3 types de relations causales de propriété : i) les relations causales d’environnement, lorsqu’un élément de l’éco-système autour de l’application (tel que le réseau) influence une valeur de propriété, ii) les relations causales de composition, lorsqu’une valeur de propriété rentre dans le calcul d’une autre propriété, et iii) les relations causales d’agrégation, lorsqu’une valeur de propriété d’une activité composite est influencée par une 697.3. Définition des relations causales de propriété :ExecutionTrace timeStamp=1019 versionNumber=1 name="ComputationTime" comparator=LowerIsBetter :Property name="TransmissionTime" comparator=LowerIsBetter :Property name= "receive" :Activity value = 5 :PropertyValue value = 67,5 :PropertyValue value=53 :Measurement value=4 :Measurement value=2409 :Measurement value=607 :Measurement name= "getPics" :Activity :PropertyValue value = 787,25 value = 2344 :PropertyValue value=8 :Measurement value=342 :Measurement name= "shuffle" :Activity value = 543,5 :PropertyValue value = 7 :PropertyValue value=51 :Measurement value=9 :Measurement name= "reply" :Activity value = 14,5 :PropertyValue value = 53,75 :PropertyValue :ExecutionTrace timeStamp=1232 versionNumber=1 value=65 :Measurement value=6 :Measurement value=3034 :Measurement value=719 :Measurement value=4 :Measurement value=604 :Measurement value=56 :Measurement value=17 :Measurement :ExecutionTrace timeStamp=1681 versionNumber=1 value=88 :Measurement value=3 :Measurement value=1757 :Measurement value=802 :Measurement value=9 :Measurement value=285 :Measurement value=48 :Measurement value=14 :Measurement :ExecutionTrace timeStamp=3280 versionNumber=1 value=64 :Measurement value=7 :Measurement value=2176 :Measurement value=1021 :Measurement value=7 :Measurement value=943 :Measurement value=60 :Measurement value=18 :Measurement Figure 7.4 – Modèle du temps de réponse : Valeurs de propriété. valeur de propriété d’une de ses activités contenues. Nous détaillons dans la suite chacun de ces types de relation causale en les illustrant sur PicWeb. 707.3. Définition des relations causales de propriété value: String PropertyValue 0..* influencedBy PropertyElement Resource UniverseElement (a) Extrait du méta-modèle de propriété. value=19 :PropertyValue influencedBy name="Network" :Resource name="TransmissionTime" comparator=LowerIsBetter :Property values name= "getPics" :Invoke name= "inPicasaMsg" input :Message capturedBy (b) Extrait du modèle du temps de réponse. Figure 7.5 – Modèle et méta-modèle des facteurs d’influence. 7.3.1 Relations d’environnement On appelle environnement toutes les ressources physiques et logiques extérieures (tels que les liens réseaux ou la mémoire) à la définition de la logique du système. De fait, les caractéristiques des ressources de l’environnement influent sur la qualité de service du système. Pour cela, nous introduisons une relation causale liée à l’environnement : Définition 7.3.1 (Relation d’environnement) Soient A un élément du système, R une ressource de l’environnement du système, P une propriété dont R est déclarée comme influence, et P VP (A) la valeur de propriété de A pour la propriété P. Une relation causale d’environnement représente la causalité établie entre une valeur de propriété et une ressource de l’environnement : on peut dire que R env −→ P VP (A). À titre d’exemple, nous voulons représenter que la rupture d’un lien réseau peut affecter le temps de réponse d’un service S. Ici, il est important de pouvoir indiquer qu’un lien rompu affectera le temps de réponse, mais n’affectera pas la logique métier propre au service. En revanche, nous pouvons dire que toute propriété de QoS, de type temporel, dont l’élément caractérisé utilise ce lien, sera affecté. Nous établissons donc que NetworkLink env −→ P VResponseT ime(S), comme décrit pour PicWeb dans la Figure 7.6. Pour pouvoir utiliser ce type de relation causale, nous faisons ici l’hypothèse que l’information concernant l’état d’un lien réseau est établie à l’aide d’un moniteur, chargé d’observer le comportement des ressources de l’environnement. Ainsi, lorsque le moniteur détecte qu’un lien est rompu, il suffit de parcourir les relations causales d’environnement propre à la ressource NetworkLink pour déterminer en quoi cela impacte la QoS du système. 7.3.2 Relations de dérivation de propriétés Nous avons vu qu’une propriété de QoS peut être définie comme étant dérivée d’autres propriétés, i.e., qu’il est possible de déterminer une valeur de propriété en fonction des valeurs d’autres propriétés. Ces dernières ont une influence sur la valeur dérivée. Par le concept de relation de dérivation, nous voulons matérialiser cette influence. Définition 7.3.2 (Relation de dérivation) Soit un service S, caractérisé par trois propriétés, P1, P2 et P3, telles que P3 est dérivée de P1 et de P2. La valeur de S pour la propriété P3 est définie en fonction des valeurs de S pour P1 et P2. Par exemple, P VP 3(S) = P VP 1(S) + P VP 2(S). P1 et P2 717.3. Définition des relations causales de propriété Variable Keyword Variable Pics Variable PicsF Receive Invoke Picasa Invoke Shuffle Reply in in out out :PropertyValue name="ResponseTime" comparator=LowerIsBetter :Property values :PropertyValue :PropertyValue :PropertyValue name="NetworkLink" :Resource env env env env out in Légende: Relation Causale de paramètre d'entrée in Relation Causale de paramètre de sortie out env Relation Causale d'environnement Figure 7.6 – Modèle causal enrichi avec les relations d’environnement. ont une influence sur P3. Nous pouvons donc dire qu’il existe les relations causales de dérivation : – P VP 1(S) der −→ P VP 3(S) – P VP 2(S) der −→ P VP 3(S) À titre d’exemple, nous considérons la définition du temps de réponse (RT) d’un service S comme étant la somme du temps de transmission (TT) et du temps de calcul (CT). Nous avons donc la définition PVRT (S) = PVT T (S) + PVCT (S). Cette définition se traduit par deux relations causales de dérivation, PVT T (S) der −→ PVRT (S) et PVCT (S) der −→ PVRT (S). Appliquée à PicWeb, nous obtenons le modèle causal de la Figure 7.7. Ce genre de relation se déduit directement de la formule définissant le temps de réponse. Variable Keyword Variable Pics Variable PicsF Receive Invoke Picasa Invoke Shuffle Reply in in in out out out :PropertyValue name="ResponseTime" comparator=LowerIsBetter :Property values :PropertyValue :PropertyValue :PropertyValue name="NetworkLink" :Resource env env env env :Property Value name="ComputationTime" comparator=LowerIsBetter :Property values :Property Value :Property Value :Property Value :Property Value name="TransmissionTime" comparator=LowerIsBetter :Property values :Property Value :Property Value :Property Value der der der der der der der der Légende: Relation Causale de paramètre d'entrée in Relation Causale de paramètre de sortie out env Relation Causale d'environnement der Relation Causale de dérivation env env env Figure 7.7 – Modèle causal enrichi avec les relations de dérivation. 727.3. Définition des relations causales de propriété 7.3.3 Relations d’agrégation de valeurs Un processus métier est un ensemble d’activités dont l’exécution est définie par des relations d’ordre partiel. Comme présenté dans le chapitre 6, il est possible de représenter cet ordre partiel par le biais d’activités structurées, constituant ainsi une hiérarchie en forme d’arbre, où chaque activité est imbriquée dans une autre activité. Sous cette forme, il est possible de déterminer la valeur de propriété d’une activité structurée en se basant sur les valeurs de propriété des activités qu’elle contient. Par extension, la valeur de propriété d’une activité structurante pour une propriété donnée, décrit par une formule d’agrégation, est influencé par les valeurs de propriété des activités la constituant. À ce titre, nous introduisons la notion de relation causale d’agrégation. Définition 7.3.3 (Relation d’agrégation) Soit C une activité structurante d’un processus métier, constituée de 3 activités, A1, A2 et A3. La propriété P pour une activité structurante est définie comme étant fonction des valeurs de propriétés des activités la constituant. Ici, les valeurs de propriété des constituants (A1, A2 et A3) ont une influence sur la valeur de propriété de l’activité structurante (C). Nous avons donc les relations causales d’agrégation PVP (A1) agr −→ PVP (C), PVP (A2) agr −→ PVP (C) et PVP (A3) agr −→ PVP (C) À titre d’exemple, nous considérons le temps de réponse (RT) d’une activité structurante de type Séquence comme étant la somme des activités la composant. Si nous considérons la séquence présente dans PicWeb, son temps de réponse est la somme des temps de réponse des activités Receive, Picasa, Shuffle et Reply. Nous avons ici plusieurs relations causales d’agrégation, comme décrit dans la Figure 7.8. Dans cette figure, nous avons voulu représenter le modèle causal complet de PicWeb, c’est-à-dire constitué de la somme de toutes les relations causales, qu’elles soient fonctionnelles, d’environnement, de dérivation ou d’agrégation. Variable Keyword Variable Pics Variable PicsF Receive Invoke Picasa Invoke Shuffle Reply in in in out out out :PropertyValue name="ResponseTime" comparator=LowerIsBetter :Property values :PropertyValue :PropertyValue :PropertyValue name="NetworkLink" :Resource env env env env :Property Value name="ComputationTime" comparator=LowerIsBetter :Property values :Property Value :Property Value :Property Value :Property Value name="TransmissionTime" comparator=LowerIsBetter :Property values :Property Value :Property Value :Property Value der der der der der der der der env env env Sequence :Property Value agr agr agr agr Légende: Relation Causale de paramètre d'entrée in Relation Causale de paramètre de sortie out env Relation Causale d'environnement der Relation Causale de dérivation agr Relation Causale d'agrégation Figure 7.8 – Modèle causal enrichi avec les relations d’agrégation. 737.4. QoS4Evol, un langage de description de la qualité de service 7.3.4 Discussion Nous venons de voir les trois types de relations causales que nous pouvons définir sur une propriété de qualité de service. L’application de l’ensemble de ces relations causales permet de décrire de manière plus précise ce qui influence une valeur de propriété. En effet, là où le modèle causal fonctionnel indique les relations de causalités entre éléments du système, les relations causales introduites montrent directement comment les valeurs de propriétés ont une influence entre elles, et comment elles sont influencées par des éléments extérieurs. Nous pouvons cependant nous poser la question de l’exhaustivité de ces types de relations. Nous avons ici émis l’hypothèse que les propriétés étudiées étaient influencées par l’environnement, par d’autres valeurs de propriétés, ou pas le comportement du système. À partir de ces relations, nous donnons une indication sur l’interaction entre les éléments du système afin de définir le périmètre des éléments affectés. Nous pourrions aller plus loin dans l’élaboration du modèle causal, comme par exemple en caractérisant plus finement l’influence d’une ressource à l’aide d’une fonction d’utilisation [Crnkovic 2005]). Dans un tout autre domaine, nous pourrions également aller plus loin en caractérisant si l’influence représentée par une relation causale est positive ou négative pour une propriété donnée, par le biais par exemple de règles helps/hurts [Chung 2009, Bass 2003, Perez-Palacin 2014]. Ces points seront abordés dans des travaux futurs. Les différents types de relations causales que nous venons de voir forment avec les relations causales du chapitre 6 un modèle causal dont la construction manuelle serait source d’erreurs et trop couteux en temps. Nous cherchons à présent à définir une méthode pour obtenir le modèle causal de façon automatique. Pour cela, nous avons besoin dans un premier temps d’un support commun regroupant l’ensemble des informations sur une propriété de QoS. Dans la section suivante, nous présentons QoS4Evol, un langage permettant la description de propriétés. À partir de ces descriptions, nous verrons ensuite que notre canevas, Smile, est en mesure de les analyser pour en extraire des règles de transformations permettant de déduire le modèle causal enrichi de n’importe quel système. 7.4 QoS4Evol, un langage de description de la qualité de service Nous avons vu dans les sections précédentes que la détermination des propriétés de qualité de service pour un processus métier nécessitait un ensemble d’informations en provenance de l’expert en Qualité de Service. Ces informations, qualifiant si une valeur de propriété est déterminée par analyse, par mesure ou par calcul, sont représentables dans le modèle causal. La formulation de toutes ces informations est réalisée à différents moments du cycle de vie, et ne disposent pas à l’heure actuelle d’un support d’expression centralisé. En effet, l’expert doit manuellement déclencher les analyses et déployer les moniteurs d’observation. De plus, nous cherchons à permettre l’expression des relations causales. Pour cela, il nous faut cette centralisation, mais il nous faut également pouvoir définir l’influence que certains éléments du système peuvent avoir sur les autres éléments. Nous proposons dans cette section un langage pour unifier l’expression de ces informations, nommé QoS4Evol. Ce langage a pour but d’apporter une manière simple à l’expert, pour décrire une propriété dans sa manière de la déterminer, de la calculer, ainsi que ses facteurs d’influence. Nous présentons ici la grammaire du langage, avant de montrer par la suite comment il est possible d’en déduire des règles causales à appliquer sur le système étudié pour obtenir automatiquement un modèle causal enrichi. 747.4. QoS4Evol, un langage de description de la qualité de service 1 Property RT{ 2 Unit : ms ; 3 Range : p o s i t i v e ; 4 BasicComputation : CT + TT; 5 ApplicationPoint : 6 Sequence i s Sum( c h i l d r e n ) ; 7 Flow i s Max( c h i l d r e n ) ; 8 Loop i s k × c h i l d r e n ; 9 } 10 11 Property CT{ 12 Unit : ms ; 13 Range : p o s i t i v e ; 14 BasicComputation : monitor named CTMonitor ; 15 IsInfluencedBy : Inpu t ( a ) ; 16 } 17 18 Property TT{ 19 Unit : ms ; 20 Range : p o s i t i v e ; 21 BasicComputation : monitor named TTMonitor ; 22 IsInfluencedBy : Network ; 23 } Figure 7.9 – Définition du Temps de Réponse. 7.4.1 Présentation de QoS4Evol Afin de pouvoir exprimer une propriété de QoS, nous définissons un langage spécifique au domaine (DSL) décrivant l’ensemble des informations nécessaires à la détermination de valeurs de propriété pour le système [Mernik 2005]. QoS4Evol est un DSL textuel, inspiré du langage CQML+ [Rottger 2003] et supporté par notre canevas Smile. Dans la suite, nous détaillons chaque instruction du langage en utilisant ce dernier pour modéliser une propriété, à savoir le Temps de Réponse. Cette propriété est un propriété dérivée, définie comme étant la somme du temps pour transmettre un message (Temps de Transmission) et le temps pour exécuter le dit service (Temps de Calcul). La Figure 7.9 est la description du Temps de réponse écrite par l’expert en qualité de service et conforme à notre langage. Il est important de noter que la description d’une propriété est indépendante du système à étudier. Ces informations ont besoin seulement d’être décrites une fois, pour être ensuite appliquées par Smile sur n’importe quel système pour calculer les valeurs de propriétés. La description proposée fournit les informations usuelles pour gérer une propriété de QoS d’un système. 7.4.2 Définition du langage Une propriété est définie par : Déclaration de l’unité et du domaine de valeur : Considérant l’hypothèse que les valeurs de propriété sont des valeurs numériques, il est nécessaire de définir une unité, et un domaine de valeurs autorisées. Par exemple, le temps de réponse est défini comme une quantité en millisecondes, qui est toujours positif. Dans notre langage, l’unité de la valeur est décrite à l’aide du mot-clé Unit, et le domaine de valeur à l’aide du mot-clé Range. Ces instructions sont utilisées par exemple aux lignes 2 757.4. QoS4Evol, un langage de description de la qualité de service Table 7.1 – Formules d’agrégation du temps de réponse. Temps de réponse Séquence PRT(Sequence.children) Flot max(RT(F low.children)) Boucle k × RT(Loop.activity) et 3 de la Figure 7.9 Détermination des valeurs pour les éléments basiques du système : La technique de détermination de la QoS est fondée sur la composition, c’est-à-dire que les valeurs de propriétés sont déterminées au niveau le plus bas (ici pour des activités simples), pour être ensuite composées pour des éléments de plus haut niveau (les activités structurantes, les processus métiers, et le système). Par exemple, la taille d’un message est calculée par composition de la taille des variables le composant. Dans ce cas précis, les éléments de base sont les variables. Nous considérons ici trois moyens pour calculer une valeur de propriété pour les éléments basiques : par analyse statique, par contrôle, ou par calcul. (voir section 2.2.2). Dans notre exemple, l’expert a introduit trois propriétés : le temps de réponse (RT), le temps de calcul (CT) et le temps de transmission (TT). Tandis que le temps de calcul et le temps de transmission sont décrits aux lignes 14 et 21 comme étant déterminés par des moniteurs (respectivement nommés CTMonitor et TTMonitor), le temps de réponse est déterminé comme étant la somme du temps de calcul et du temps de transmission (voir ligne 4). La déclaration des analyseurs statiques et des contrôleurs permet à Smile d’effectuer de manière automatique les analyses, et de positionner les contrôleurs dans le système. Dans notre cas, le Temps de Réponse est défini comme une propriété dérivée. Le Temps de Calcul (CT) et le Temps de Transmission (TT) sont mesurés en utilisant les contrôleurs fournis. Détermination des valeurs de propriétés pour les éléments composites : Pour calculer la valeur de propriétés d’éléments composite comme les activités structurantes, l’expert en qualité de service décrit une formule d’agrégation, comme on peut en trouver dans la littérature ([Mukherjee 2008]) et rappelée ici dans le tableau 7.1 : il s’agit ici de définir la valeur de propriété d’une activité structurante en fonction de la qualité de service des éléments qu’elle contient. Par exemple, le temps de réponse d’une séquence est la somme des temps de réponse de ses activités filles. De telles formules permettent de calculer une valeur de propriété pour une activité structurante, basée sur les valeurs de propriétés des activités la constituant. Dans notre langage, l’expert en QoS définit dans la section ApplicationPoint la formule d’agrégation pour les activités Sequence, Flow et Loop (voir lignes 5 à 8). Influence de l’environnement : Les formules définies précédemment donnent une manière de calculer une valeur de propriété pour chaque élément du système. Cependant, cette formule n’explicite pas le fait qu’une valeur de propriété peut être influencée par des facteurs extérieurs. Modéliser le fait qu’une ressource spécifique influence une valeur de propriété permet d’inclure cette influence dans notre analyse de l’évolution. Ici, l’expert en QoS écrit la dépendance de la valeur de propriété à d’autres facteurs. Par exemple, l’expert définit que le temps de transmission d’une activité est influencé par le délai du réseau. 7.4.3 Caractéristiques du langage Le langage que nous venons de définir fournit les caractéristiques suivantes : 767.5. Déduction des règles causales d’une propriété Indépendance au système : nous proposons ici d’abstraire complètement la description d’une propriété du système sur lequel elle sera appliquée. Nous obtenons ainsi des propriétés réutilisables, indépendantes du système considéré. Modularité de l’expression : la définition des Points d’Applications permet de diviser les analyses en fonction du type d’élément étudié. Cela permet à l’expert en QoS de se focaliser sur un type d’élément à la fois. Expressivité de la causalité : chacune des sections définies dans la description permet d’établir une règle de causalité du système donné. Nous donnons également la possibilité de décrire comment l’environnement va pouvoir influencer le comportement du système, et donc la valeur de la propriété. En nous basant sur cette description, nous cherchons maintenant à appliquer la définition d’une propriété sur un système donné pour en déduire les relations causales propres à cette propriété. Pour cela, nous présentons dans la section suivante une méthode de déduction des règles causales d’un système propre à une propriété de qualité de service. Cette méthode repose sur le même principe que la méthode de déduction du modèle causal fonctionnel présenté dans le chapitre 6, en se basant sur des règles causales appliquées au système étudié. Toutefois, l’approche appliquée dans ce chapitre diffère dans la méthode d’obtention des règles causales : alors qu’un expert de la plate-forme était obligé d’écrire manuellement les règles causales régissant la plate-forme d’exécution, nous allons ici déduire les règles causales de la description de la propriété. 7.5 Déduction des règles causales d’une propriété L’ensemble des relations causales présentées dans la section 7.3 permet de classifier les différentes dépendances d’un point de vue qualité de service. Si ces dépendances permettent de représenter la causalité d’une propriété, la question de savoir comment obtenir ce genre de modèle reste entière. En effet, la construction manuelle d’un modèle causal, avec un ensemble non négligeable de relations, ne peut pour des raisons évidentes s’envisager : la taille du système, l’aspect fastidieux de la collecte des relations, et le haut risque d’erreur dans la construction nous amène à rejeter l’hypothèse d’une construction à la main. Nous proposons dans la suite une méthode pour enrichir automatiquement le modèle causal d’un système avec les relations causales de propriété. Dans un premier temps, nous présentons comment les informations contenues dans la description d’une propriété de QoS peuvent être transformées en règles de déduction des relations. Puis, nous montrons comment les règles causales sont appliquées à un système donné pour obtenir les différentes relations. Enfin, nous montrons sur notre exemple comment cette méthode peut être appliquée. 7.5.1 Principe La méthode que nous mettons ici en œuvre se déroule en deux temps : il s’agit d’abord de déduire de la description de la propriété un ensemble de règles causales. Ces règles causales sont, de la même manière que dans le chapitre 6, indépendantes de tout système. Dans un deuxième temps, les règles déduites sont appliquées au système étudié pour obtenir ses relations causales propres à la propriété étudiée. La Figure 7.10 est une vue schématisée de notre approche : le procédé est initié en entrée par la description de propriété. La première étape consiste à appliquer sur la description de la propriété des règles de production que nous détaillons dans la suite de ce paragraphe. Ces règles de production génèrent en sortie d’autres règles de production, que nous appelons règle causale. Dans un deuxième temps, nous appliquons les règles de productions générées 777.5. Déduction des règles causales d’une propriété Règles de production (implémentées dans SMILE) Description de propriété Système Règles Causales Relations Causales Génération de Règles Causales Génération de Relations Causales Légende : Génération de Règles Causales Règles Causales step élément élément step Étape du processus Donnée l'étape step produit la donnée élément la donnée élément est en entrée de l'étape step Figure 7.10 – Chaîne de déduction des relations causales de propriété. Table 7.2 – Règle de production des relations causales d’environnement. Situation Action P.influencedBy = R Situation Action PV.getProperty = P R env −→ P V Table 7.3 – Règle causale d’environnement générée. Situation Action PV.getProperty = TT Network env −→ P V sur le système à étudier, pour en déduire les relations causales de propriété. Nous présentons dans la suite l’application de notre méthode pour chacun des trois types de relations causales que nous avons présenté dans la section 7.3. 7.5.2 Obtention des relations causales d’environnement Pour rappel, une relation causale d’environnement établie la causalité entre une ressource de l’environnement et une valeur de propriété. Dans le langage de description des propriétés que nous avons défini, ce genre de dépendance peut-être déduit de la section influencedBy. Par exemple, l’expert a déclaré dans la Figure 7.9 que le temps de transmission est influencé par le réseau. Ainsi, pour toute valeur de propriété P VT T du temps de transmission, il existe une relation causale Network env −→ P VT T . Ce comportement est identique à toute ressource déclarée comme source d’influence. De ce fait, nous pouvons écrire une règle de production qui est applicable à n’importe quelle section influencedBy. Cette règle est consignée dans le Table 7.2. Une fois ce patron appliqué à la description de propriété (lors de l’étape de génération de règles), nous obtenons un ensemble de règles causales d’environnement. Par exemple, la génération de règles a produit plusieurs règles, dont celle consignée dans le Table 7.3. Il est important de noter que chacun des patrons écrits dans cette section est universel : il est valide pour toute règle causale de dérivation, d’agrégation ou d’environnement. 787.5. Déduction des règles causales d’une propriété Table 7.4 – Règle de production des relations causales de dérivation. Situation Action P.basicComputation=f (Props) Situation Action ∀Px ∈ Props, P V1.prop=Px and P V2.prop=P and P V1.owner=P V2.owner P V1 der −→ P V2 Table 7.5 – Règle causale de dérivation générée. Situation Action ∀Px ∈ {TT,CT}, P V1.prop=Px and P V2.prop=RT and P V1.owner=P V2.owner P V1 der −→ P V2 7.5.3 Obtention des relations causales de dérivation Une relation causale de dérivation intervient lorsque une propriété est définie à l’aide d’une formule de dérivation. Cette information est également présente dans la description de la propriété : dans la section BasicComputation, une valeur possible pour cette section est d’indiquer une formule de dérivation. Le cas échéant, chacune des opérandes de la formule est une source d’une relation causale de dérivation. Pour construire les relations causales de dérivation, il s’agit donc de trouver toutes les valeurs de propriétés dérivées, et créer une relation entre chaque opérande de la formule de dérivation et la propriété dérivée. Pour obtenir ces règles causales de dérivation, nous avons écrit une autre règle de production spécifique aux relations causales de dérivation. Celui ci est consigné dans le Table 7.4. Une fois la règle de production appliquée sur la description de propriété, nous obtenons une règle causale de dérivation similaire à celle consignée dans la Table 7.5. Celleci sélectionne toute propriété dont la méthode de calcul basique est une fonction dont les paramètres sont l’ensemble Props. Partant de l’ensemble des paramètres, la règle de production générée recherche les valeurs de propriété correspondant à la propriété donnée (P V1.prop=Px), ainsi que les valeurs de propriété de P (P V2.prop=P), et sélectionne l’unique couple P V1 et P V2 tel qu’ils caractérisent le même élément du système (P V1.owner=P V2.owner). Cette situation résulte en l’action de la création de la relation causale de dérivation P V1 der −→ P V2. 7.5.4 Obtention des relations causales d’agrégation Les relations causales d’agrégation interviennent pour calculer la valeur de propriété d’une activité structurante à partir des valeurs de propriété de ses activités contenues. Pour cela, il suffit de collecter l’information à partir de la section ApplicationPoint de la description de propriété. Nous décrivons dans le Table 7.6 la règle de production correspondant aux règles causales d’agrégation. Une fois appliquée à la description du temps de réponse, notre méthode génère la règle de production décrite dans le Table 7.7, correspondant au point d’application des activités de type Séquence. La situation de cette règle est constituée d’un ensemble de conditions, le but étant de sélectionner les valeurs du temps de réponse d’une séquence et de ses activités filles. Pour cela, nous raisonnons sur deux acti- 797.5. Déduction des règles causales d’une propriété Table 7.6 – Règle de production des relations causales d’agrégation. Situation P.ApplicationPoint.isStructuredType=True and P.ApplicationPoint=f (Children) Action Situation Action A1, A2 : Activity and A1.type=P.applicationDomain. applicationPoint and A2 ∈ A1.content and PV1.prop = P and PV2.prop = P and PV1.owner = A1 and PV2.owner = A2 PVP (A1) agr −→ PVP (A2) Table 7.7 – Règle causale d’agrégation générée. Situation Action A1, A2 : Activity and A1.type=Sequence and A2 ∈ A1.content and PV1.prop = RT and PV2.prop = RT and PV1.owner = A1 and PV2.owner = A2 PVRT (A1) agr −→ PVRT (A2) vités A1, A2 telles que A1 correspond aux activités de type Séquence (A1.type=Sequence ), et A2 les activités qu’elle contient (A2 ∈ A1.content). Nous raisonnons ensuite sur l’ensemble des valeurs de propriété, en sélectionnant les valeurs correspondant au temps de réponse (PV1.prop = RT and PV2.prop = RT), pour enfin sélectionner les deux valeurs de propriétés attachées à A1 et A2. Nous ne montrons ici que l’application de la règle de production pour le point d’activité séquence, l’équivalent pour le flot ("flow" en anglais) et la boucle ("loop" en anglais) étant similaire. Une fois que les règles causales ont été déduites, il est possible de les appliquer à n’importe quel système pour en extraire ses relations causales de propriété. Comme décrit dans le chapitre 6, Smile applique les règles causales de propriété sur le système pour produire un modèle causal correspondant à celui que nous avons décrit dans la section 7.3 (voir Figure 7.8). 7.5.5 Discussion Le procédé que nous venons de décrire permet de déduire de manière automatique le modèle causal de propriété d’un système, en se basant sur la description d’une propriété. Nous avons identifié un ensemble de trois types de relations causales propres aux propriétés de qualité de service. Toutefois, notre approche dépend fortement de la description de la propriété réalisée par l’expert en QoS. Elle est ainsi limitée dans le sens où des informations supplémentaires doivent y être inscrites, nécessitant un effort supplémentaire de la part de l’expert en QoS. Malgré cette limitation, notre approche améliore le modèle causal du système décrit dans le chapitre 6, en apportant une granularité plus fine dans la détermination des causes et des conséquences au sein d’un système. De plus, les règles de production décrites pour générer les règles causales sont génériques pour toutes les propriétés : il suffit pour l’expert en qualité de service de décrire sa propriété pour obtenir les règles causales correspondantes, 807.6. Conclusion du chapitre pour pouvoir les appliquer à n’importe quel système. Cette contribution permet d’apporter une réponse au défi "interactions entre les différentes parties d’un logiciel", en enrichissant le modèle causal par des relations causales propres à la qualité de service. En augmentant notre modèle causal de relations propres à la QoS, nous apportons également des éléments de réponses au "minimisation de la vérification" : grâce à un niveau de précision supérieur, nous permettons ici de cibler au plus près les valeurs de propriété à re-vérifier. 7.6 Conclusion du chapitre Dans ce chapitre, nous avons proposé un modèle de données permettant de modéliser la définition d’une propriété de QoS, ainsi que la représentation unifiée des données de détermination. Pour faciliter la tâche de l’expert, nous avons défini un langage spécifique au domaine permettant de décrire des propriétés de qualité de service. L’intérêt de la définition d’un nouveau langage ici provient du besoin d’exprimer les influences entre les différents éléments du système. En effet, la plupart des langages existants se focalisent sur la manière d’observer la propriété. Il est important de noter toutefois que ce prototype de langage est à fin expérimentale. Dans un futur proche, il serait utile d’étendre un langage existant avec les concepts de ce langage, afin de bénéficier de toute la puissance du langage étendu. À partir de la description de propriété, nous avons présenté une méthode permettant d’extraire automatiquement des règles causales spécifiques à la propriété, dans le but de les appliquer de manière automatique à n’importe quel système afin d’en extraire un modèle causal enrichi. Cette méthode permet de s’affranchir d’une construction manuelle qui aurait été coûteuse en temps et sujette à erreur. De manière générale, si notre solution pour l’expert en qualité de service diminue et simplifie la gestion de la qualité de service en unifiant l’ensemble des outils dans une seule description, un effort reste à faire pour automatiser complètement la gestion de la qualité de service. En effet, pour chaque outil envisagé, il sera nécessaire de définir une transformation des données produites par l’outil pour les intégrer dans le modèle unifié. De plus, si notre canevas permet de s’assurer de la cohérence du modèle de données tout au long du cycle de vie du système, le principe de pérennité des données capturées au cours de la détermination reste à la charge de l’expert. Il s’agira à l’avenir de réfléchir à une méthode automatique visant à supprimée les données obsolètes, après un certain nombre d’évolutions par exemple. Dans le chapitre suivant, nous nous intéressons au rôle de l’architecte de l’évolution. Nous présentons son rôle et expliquons comment ce modèle causal enrichi peut l’aider dans l’analyse d’une évolution. 81Chapitre 8 Analyse de l’évolution du logiciel orientée QoS Sommaire 8.1 Présentation générale du processus d’évolution . . . . . . . . . . 84 8.1.1 Enjeux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 8.1.2 Spécification du processus d’évolution . . . . . . . . . . . . . . . . . 84 8.1.3 Hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 8.2 Un langage pour l’évolution des processus métier . . . . . . . . . 86 8.3 Spécification de l’analyse de l’évolution . . . . . . . . . . . . . . . 87 8.3.1 Aperçu des différentes étapes . . . . . . . . . . . . . . . . . . . . . . 88 8.3.2 Étape 1 : mise à jour du modèle causal . . . . . . . . . . . . . . . . . 89 8.3.3 Étape 2 : analyse causale . . . . . . . . . . . . . . . . . . . . . . . . 92 8.3.4 Étape 3 : re-vérification . . . . . . . . . . . . . . . . . . . . . . . . . 93 8.3.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 8.4 Résultat de l’analyse et prise de décision . . . . . . . . . . . . . . 96 8.4.1 Enjeux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 8.4.2 Vérification des contrats . . . . . . . . . . . . . . . . . . . . . . . . . 97 8.4.3 Détermination des causes racines . . . . . . . . . . . . . . . . . . . . 98 8.4.4 Déploiement et retour en arrière (roll-back) . . . . . . . . . . . . . . 99 8.4.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 8.5 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . 101 D ans ce chapitre, nous présentons notre approche pour effectuer et analyser une évolution. Cette approche se centre sur l’architecte de l’évolution, pour lequel il est nécessaire de savoir si l’évolution qu’il/elle a décrit ne cause pas le viol d’un contrat de qualité de service à l’échelle du système lorsqu’elle est appliquée. Ce chapitre présente la contribution finale de ce document, où nous expliquons comment le modèle causal déduit dans le chapitre précédent est utilisé pour effectuer une analyse des conséquences de l’évolution sur la qualité de service du système. L’objectif de l’analyse est d’identifier le sous-ensemble du système affecté, directement ou indirectement, par l’évolution, afin de déterminer son effet sur la qualité de service. Le résultat de l’analyse permet de renseigner l’architecte de l’évolution sur une potentielle amélioration ou dégradation de la qualité de service. Au final, l’analyse de l’évolution détermine si l’application de l’évolution sur le système maintient les différentes propriétés de qualité de service considérées. Ce chapitre est constitué comme suit : dans un premier temps, nous présentons la spé- cification des différentes étapes constituant une évolution, de la définition des nouveaux besoins, à l’expression des modifications à appliquer au système. Puis, nous détaillons chacune des étapes de l’analyse en expliquant leurs spécificités et les choix conceptuels que8.1. Présentation générale du processus d’évolution nous avons pris. Enfin, la dernière section détaille comment le résultat de l’analyse de l’évolution, à savoir l’ensemble des éléments affectés du système, est utilisé pour re-vérifier le système dans le but de quantifier l’effet de l’évolution et de dire si la qualité de service est maintenue. 8.1 Présentation générale du processus d’évolution 8.1.1 Enjeux L’objectif de ce chapitre est de présenter une méthode permettant de garantir le maintien de la qualité de service au cours de l’évolution. Pour cela, nos objectifs sont les suivants : – Maintien de la qualité de service : nous cherchons par le biais de notre analyse à savoir si une évolution a un effet sur la qualité de service. Pour cela, nous introduisons le concept de caractérisation d’une évolution : Définition 8.1.1 (Caractérisation d’une évolution) Une évolution peut être caractérisée comme étant neutre, bénéfique ou néfaste, si elle n’a respectivement aucun effet, un effet d’amélioration ou un effet de dégradation sur la valeur de la propriété de QoS considérée. On considère également qu’une évolution sera jugée satisfaisante en terme d’une propriété de QoS si l’évolution ne cause pas de violation de contrat. Concrètement, la caractérisation d’une évolution s’effectue en comparant la valeur de qualité de service pour le système avant l’évolution à la valeur après l’évolution. Si la valeur s’améliore (voir chapitre 7), alors l’évolution sera bénéfique. – Diagnostic en cas de non-maintien de la qualité de service : lorsqu’une évolution dégrade une valeur de QoS et qu’elle cause la violation d’un contrat de QoS, l’architecte de l’évolution doit être en mesure de modifier la description de l’évolution pour corriger l’erreur. Dans ce cas, il est nécessaire de savoir quel est l’élément du système responsable de la violation. Pour répondre à ces défis, nous proposons un processus d’évolution s’assurant du maintien de la qualité de service et de l’identification de la cause d’une violation de contrat. Afin de montrer le fonctionnement du processus, nous utilisons PicWeb comme illustration. 8.1.2 Spécification du processus d’évolution Le processus d’évolution peut être vu comme une transformation du système d’un état S à un état S’. À titre de guide, la Figure 8.1 en représente les différentes étapes : l’architecte de l’évolution décrit en (1) une évolution à appliquer sur le système. En s’appuyant sur cette description, ainsi que sur les descriptions de propriétés à contrôler, l’évolution est alors analysée en (2), afin de déterminer si elle est satisfaisante du point de vue de la QoS. Le cas échéant, l’évolution est en (3) appliquée de manière effective, ou bien l’architecte de l’évolution observe les causes déterminées par l’analyse pour pouvoir corriger son évolution et en proposer une nouvelle. Nous détaillons chacune des étapes dans la suite de cette section. 848.1. Présentation générale du processus d’évolution 2 - Analyse de l'évolution 1 - Description de l'évolution Architecte de l'évolution 3 - Prise de S décision S' Figure 8.1 – Processus d’évolution. 8.1.2.1 Étape 1 : description de l’évolution WriteEvolution : ∅ −→ Évolution La première étape consiste à décrire les modifications que l’on veut apporter au processus métier. L’architecte du système décrit dans un premier temps la séquence de modifications à opérer sur le système, telles que les ajouts, suppressions ou mises à jour des différents éléments du système. L’objectif de cette étape est de construire une modification de la structure et du comportement du système, dans le but de satisfaire les changements des besoins de l’utilisateur. Nous montrons dans la section 8.2 comment cette description peut être établie avec notre langage pour l’évolution. 8.1.2.2 Étape 2 : analyse de l’évolution Analyse : Évolution −→ Set, Set La deuxième étape consiste à déterminer les effets de l’évolution sur la qualité de service du système. Pour cela, l’analyse repose sur l’établissement du modèle causal futur, i.e., tel qu’il serait si l’évolution était établie. Partant de ce modèle, l’analyse identifie le sousensemble des valeurs de propriétés affectées par l’évolution. Enfin, l’analyse se termine par une re-vérification de ces valeurs, afin de pouvoir déterminer si les contrats de QoS sont toujours respectés, ou si au contraire ils ont été violés. 8.1.2.3 Étape 3 : prise de décision Decision : Set, Set −→ Boolean La dernière étape de l’analyse a pour rôle d’apporter les informations nécessaires à l’architecte de l’évolution afin de savoir si l’évolution proposée respecte bien les contrats de qualité de service définis. Au cours de cette étape, l’architecte choisit d’appliquer l’évolution de manière effective sur le système en production. En cas de problème sur un contrat, il s’agira de rentrer dans une phase de diagnostic afin de comprendre pourquoi le contrat a été violé. Les modifications faites sur le modèle causal sont alors annulées avant de revenir au début du processus, afin de définir une nouvelle évolution. 8.1.3 Hypothèses Afin de pouvoir garantir la cohésion du système, nous devons poser un certain nombre d’hypothèses : – Nous considérons ici que pour garantir la cohérence du système, deux évolutions ne peuvent être appliquées en parallèle. Notre processus d’évolution devra être conçu 858.2. Un langage pour l’évolution des processus métier Table 8.1 – Liste des opérations d’évolution. Opération Description addVariable(var) var est ajoutée au modèle delVariable(var) var est retirée du modèle addActivity(id, nom) act est ajoutée au modèle delActivity(id) act est retirée du modèle addInParameter(act,var,pos) var est dans les paramètres de act, en position pos delInParameter(act,var) var est retirée des paramètres de act addOutParameter(act,var,pos) var est dans le résultat de act, en position pos delOutParameter(act,var) var est retirée du résultat de act addRelation(idFrom, itTo) une relation d’ordre est créée entre les activités idFrom et idTo delRelation(idFrom,itTo) la relation d’ordre entre les activités idFrom et idTo est supprimée pour effectuer les évolutions de manière séquentielle et atomique, ce dernier point permettant ainsi de revenir à la version précédente en cas de problème. – Pour pouvoir déterminer si la QoS est maintenue, nous supposons que la description des propriétés de QoS est disponible, et que des contrats sont définis au préalable. Dans la suite de ce chapitre, nous détaillons chacune des étapes du processus d’évolution. Après avoir introduit notre langage pour décrire une évolution, nous nous focalisons sur les spécificités de chacune des étapes du processus d’analyse. Nous détaillons chacune des étapes, avant de les illustrer à l’aide du cas d’étude. Nous désignons dans le reste du chapitre les parties du système telles que les variables, les services, les activités, ou les paramètres en entrée/sortie d’un service comme étant des éléments du système (voir chapitre 6). 8.2 Un langage pour l’évolution des processus métier L’étape initiale du processus d’évolution consiste à exprimer les changements à effectuer sur le système décrit par l’architecte du système pour satisfaire les nouveaux besoins de l’utilisateur. Pour cela, de nombreux langages de description de l’évolution d’un système existent. Par exemple, Praxis est un outil d’analyse de l’évolution de modèles [Blanc 2009]. Plus proche de notre domaine d’application, Adore est un langage d’évolution de processus métier basé sur les techniques de tissage de modèle [Mosser 2013]. Ces langages expriment une évolution en proposant principalement des modifications structurelles du système. Il s’agira de pouvoir déclarer l’ajout, la suppression ou la mise à jour de concepts du système étudié. Nous proposons ici de reprendre les concepts communs aux langages d’évolution pour définir notre propre langage d’évolution. Nous avons défini des opérateurs permettant de manipuler des variables, des activités et des relations d’ordre. Notre langage d’évolution permet l’ajout, la suppression et la mise à jour des différents éléments du système. Il est constitué d’un jeu de dix opérations destiné à ajouter, supprimer des éléments propres aux processus métiers. La Table 8.1 dresse la liste des différentes opérations disponibles. 868.3. Spécification de l’analyse de l’évolution Dans le cadre de notre exemple fil rouge, nous rappelons que suite à la première version de PicWeb, les utilisateurs ont émis le souhait de bénéficier d’une source de données supplémentaire, Flickr, pour les photos retournées par le processus métier. L’architecte de l’évolution conçoit alors une évolution répondant à ce besoin. Elle se découpe en trois étapes : – Ajout de l’appel à Flickr : afin de faire évoluer le processus métier, l’architecte de l’évolution propose d’ajouter en parallèle de l’appel à Picasa un appel au service de Flickr. Il s’agit donc ici d’ajouter une nouvelle activité au processus métier, ayant en entrée le mot-clé recherché. Afin de pouvoir récupérer des données en sortie, une nouvelle variable, PicsFlickr, a besoin d’être créée et ajoutée en temps que valeur de sortie de l’activité Flickr. – Ajout de l’appel à Concat : désormais, le processus métier doit manipuler deux ensembles de données, que nous souhaitons concaténer. De manière similaire à l’ajout de l’activité Flickr, l’architecte ajoute une activité, concat, prenant en entrée les deux ensembles, pour produire en sortie un nouvel ensemble concaténant le deuxième ensemble à la suite du premier. – Mise à jour de l’ordre d’exécution : la création de deux nouvelles activités dans notre processus métier implique de rendre de nouveau cohérent l’ordre partiel d’exé- cution. Pour que Flickr s’exécute en parallèle de Picasa, l’architecte introduit une relation temporelle entre l’activité receive et l’appel à Flickr. Les deux services de récupération de données sont suivis désormais par concat qui termine la modification en reprenant la suite du processus métier. Pour effectuer cette évolution, l’architecte de l’évolution décrit en Figure 8.2 l’ensemble des opérations à effectuer. L’évolution est composée de quatre parties : les lignes 2 à 4 mettent à jour l’activité Picasa en changeant le nom de sa valeur de retour par une nouvelle variable, PicsPicasa. Les lignes 6 à 9 ajoutent l’appel à l’activité Flickr. Les lignes 11 à 14 sont responsables de l’appel à l’activité Helper, qui va concaténer PicsPicasa et PicsFlickr dans Pics. Enfin, les lignes 16 à 20 rétablissent l’ordre partiel entre les activités. Une fois que l’évolution est décrite, l’architecte de l’évolution peut déclencher l’analyse de l’évolution.