• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 7
  • 3
  • Tagged with
  • 38
  • 38
  • 38
  • 22
  • 20
  • 16
  • 10
  • 10
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Théorie des valeurs extrêmes et applications en environnement

Rietsch, Théo 14 November 2013 (has links) (PDF)
Dans cette thèse nous apportons plusieurs contributions, à la fois théoriques et appliquées, à la théorie des valeurs extrêmes. Les deux premiers chapitres de cette thèse s'attachent à répondre à des questions cruciales en climatologie. La première question est de savoir si un changement dans le comportement des extrêmes de température peut être détecté entre le début du siècle et aujourd'hui. Pour cela nous proposons d'utiliser la divergence de Kullback Leibler, que nous adaptons au contexte des extrêmes. Des résultats théoriques et des simulations permettent de valider l'approche proposée, dont les performances sont ensuite illustrées sur un jeu de données réelles. La deuxième question quant à elle combine les réseaux de neurones à la théorie des valeurs extrêmes afin de savoir où ajouter (resp. retirer) des stations dans un réseau pour gagner (resp. perdre) le plus (resp. le moins) d'information sur le comportement des extrêmes. Un algorithme, le Query By Committee, issu de la théorie du machine learning est développé puis appliqué à un jeu de données réelles. Les avantages, inconvénients et limites de cette approche sont ainsi mis en exergue. La dernier chapitre de la thèse traite d'un sujet plus théorique, à savoir l'estimation robuste du paramètre de queue d'une distribution de type Weibull en présence de covariables aléatoires. Nous proposons un estimateur robuste en utilisant un critère de minimisation de la divergence entre deux densités et étudions ses propriétés asymptotiques. Des simulations illustrent les performances de l'estimateur à distance finie. Cette thèse offre de nombreuses perspectives dont une liste non exhaustive est dressée en conclusion.
2

Méthode SCHADEX de prédétermination des crues extrêmes

Garavaglia, Federico 23 February 2011 (has links) (PDF)
La méthode SCHADEX (Simulation Climato-Hydrologique pour l'Appréciation des Débits EXtrêmes) est, depuis 2007, la méthode de référence pour le calcul de la crue de projet servant au dimensionnement des évacuateurs des barrages d'EDF (Électricité De France). Cette méthode vise à estimer les quantiles extrêmes de débits par un procédé de simulation stochastique qui combine un modèle probabiliste de pluie et un modèle hydrologique pluie-débit. L'objectif principal de cette thèse est la " validation " de la méthode SCHADEX, la compréhension de ses possibilités et de ses limites, notamment par des études de sensibilité aux hypothèses sous-jacentes et par sa confrontation à la plus large gamme possible d'observations (régions et climats contrastés, taille variable de bassins versants). La première étape de ce travail a porté sur la description probabiliste des événements pluvieux générateurs de crues, avec notamment l'introduction d'une distribution des pluies observées conditionnée par type de temps (distribution MEWP, Multi-Exponential Weather Patterns). Pour valider ce modèle probabiliste, nous avons comparé ses résultats à ceux de modèles classiques de la théorie des valeurs extrêmes. En nous appuyant sur une large base de données de stations pluviométriques (478 postes localisés en France, Suisse et Espagne) et sur une technique de comparaison orientée vers les valeurs extrêmes, nous avons évalué les performances du modèle MEWP en soulignant la justesse et la robustesse de ses estimations. Le procédé de simulation hydrologique des volumes écoulés suite à des événements pluvieux intenses (processus de simulation semi-continue) a été décrit en soulignant son caractère original et parcimonieux du point de vue des hypothèses d'extrapolation nécessaires, et sa capacité à extraire le maximum d'information des séries chronologiques traitées. En nous appuyant sur une base de données de 32 bassins versants, nous avons analysé la sensibilité de cette méthode (i) à ses paramètres de simulation (i.e. nombre de tirages, etc.), (ii) au modèle probabiliste de pluie et (iii) au modèle hydrologique pluie-débit. Cette étude nous a permis de figer certains paramètres de simulation et surtout de hiérarchiser les étapes et les options de simulation du point de vue de leurs impacts sur le résultat final. Le passage des quantiles extrêmes de volumes à ceux des débits de pointe est réalisé par un facteur multiplicatif (coefficient de forme), identifié sur une collection d'hydrogrammes. Une sélection de ces hydrogrammes par une approche semi-automatique, basée sur une technique d'échantillonnage sup-seuil, a été développée. Globalement, ce travail a permis de reformuler, justifier et vérifier les hypothèses de base de la méthode, notamment celles liées à l'aléa pluviométrique ainsi qu'à l'aléa " état hydrique " du bassin versant, et celles liées au procédé de simulation hydrologique semi-continue des écoulements. Des améliorations et des simplifications de certains points de la méthode ont aussi été proposées pour des estimations de débit extrêmes plus fiables et robustes. Une adaptation de la classification des journées par type de temps a été proposée pour étendre le calendrier de référence, de 1953-2005 à 1850-2003, en exploitant des informations simplifiées sur les champs de pression. La procédure de simulation hydrologique a été améliorée, notamment en conditionnant le tirage des épisodes pluvieux au type de temps, ce qui permet de mieux prendre en compte la dépendance pluie- température. Ces travaux ne mettent certainement pas un point final au développement de la méthode SCHADEX mais la fondent sur des bases méthodologiques saines et documentées. Ils proposent des perspectives de recherche sur des thématiques variées (e.g. prise en compte de variabilité de la forme des hydrogrammes de crue pour le passage au débit de pointe, modélisation hydrologique, estimation de crues extrêmes en bassins non jaugés ou en contexte non-stationnaire).
3

Contributions à la théorie des valeurs extrêmes et à la réduction de dimension pour la régression

Gardes, Laurent 17 November 2010 (has links) (PDF)
Ce mémoire résume mes travaux de recherche portant sur les trois thèmes suivants : inférence pour les lois à queue de type Weibull, estimation de quantiles extrêmes conditionnels et réduction de dimension pour la régression. Dans le cadre du premier thème, nous avons proposé de nombreux estimateurs du paramètre de forme et de quantiles extrêmes pour des lois à queue de type Weibull. Leurs propriétés théoriques ont aussi été étudiées. Les deuxième et troisième thèmatiques ont pour point de départ une application concrête respectivement l'estimation de niveaux de retour de pluies et l'étude d'images hyperspectrales Martienne. D'un point de vue théorique, nous avons proposé et étudié, dans le cadre du deuxième thème, des estimateurs de quantiles extrêmes conditionnels. Au sein du troisième thème, nous avons proposé une méthode de régularisation pour la régression inverse par tranches (SIR).
4

Consolidation de l'information hydrologique disponible localement et régionalement pour l'estimation probabiliste du régime des crues

Ribatet, Mathieu 10 December 2007 (has links) (PDF)
Le praticien, lors de l'étape de prédétermination des débits de crue, est souvent confronté à un jeu de données restreint. Dans notre travail de recherche, nous avons proposé trois nouveaux modèles probabilistes spécialement conçus pour l'estimation des caractéristiques du régime des crues en contexte partiellement jaugé. Parmi ces modèles, deux d'entre eux sont des modèles dits régionaux, i.e. intégrant de l'information en provenance de stations ayant un comportement réputé similaire à celui du site étudié. Ces modèles, basés sur la théorie Bayésienne, ont montré une grande robustesse au degré d'hétérogénéité des sites appartenant à la région. De même, il est apparu que pour l'estimation des forts quantiles (T > 50 ans), l'idée d'un paramètre régional contrôlant l'extrapolation est pertinente mais doit d'être intégrée de manière souple et non imposée au sein de la vraisemblance. L'information la plus précieuse dont le praticien dispose étant celle en provenance du site d'étude, le troisième modèle proposé revient sur l'estimation à partir des seules données contemporaines au site d'étude. Ce nouveau modèle utilise une information plus riche que celle issue d'un échantillonnage classique de v.a.i.id. maximales puisque toute la chronique est exploitée. Dès lors, même avec seulement cinq années d'enregistrement et grâce à une modélisation de la dépendance entres les observations successives, la taille des échantillons exploités est alors bien plus importante. Nous avons montré que pour l'estimation des quantiles de crues, ce modèle surpasse très nettement les approches locales classiquement utilisées en hydrologie. Ce résultat est d'autant plus vrai lorsque les périodes de retour deviennent importantes. Enfin, part construction, cette approche permet également d'obtenir une estimation probabiliste de la dynamique des crues.
5

Comportement asymptotique de la distribution des pluies extrêmes en France

Muller, Aurélie 24 November 2006 (has links) (PDF)
Le comportement des valeurs extrêmes de pluie en France a été analysé au travers de variables locales telles que les maxima annuels ou saisonniers de pluies mesurées sur différents pas de temps entre l'heure et la journée, les valeurs supérieures à un seuil élevé, ou la série temporelle de succession d'averses. Différents modèles, issus de la théorie des valeurs extrêmes uni-variée et bi-variée ou de générateurs stochastiques de pluie, ont été présentés pour étudier le comportement asymptotique de ces variables aléatoires. Dans le cas des séries temporelles d'averses, la persistance dans le temps des valeurs fortes a été modélisée à l'aide d'un processus Markovien. Les incertitudes associées aux différents modèles ont également été analysées, avec des méthodes bayésiennes ou fréquentielles. Nous avons pu valider nos modèles avec de longues séries de mesures pluviométriques, avec des chroniques de pluies horaires et avec des chroniques d'événements pluvieux décrits par des averses fournis par Météo-France et le Cemagref. Dans de nombreux cas, nous avons en particulier noté que la distribution des extrêmes est non bornée, et de queue plus lourde qu'une loi Gumbel ou exponentielle.
6

Méthode SCHADEX de prédétermination des crues extrêmes : Méthodologie, applications, études de sensibilité / SCHADEX method of determination of extreme floods

Garavaglia, Federico 23 February 2011 (has links)
La méthode SCHADEX (Simulation Climato-Hydrologique pour l'Appréciation des Débits EXtrêmes) est, depuis 2007, la méthode de référence pour le calcul de la crue de projet servant au dimensionnement des évacuateurs des barrages d'EDF (Électricité De France). Cette méthode vise à estimer les quantiles extrêmes de débits par un procédé de simulation stochastique qui combine un modèle probabiliste de pluie et un modèle hydrologique pluie-débit. L'objectif principal de cette thèse est la « validation » de la méthode SCHADEX, la compréhension de ses possibilités et de ses limites, notamment par des études de sensibilité aux hypothèses sous-jacentes et par sa confrontation à la plus large gamme possible d'observations (régions et climats contrastés, taille variable de bassins versants). La première étape de ce travail a porté sur la description probabiliste des événements pluvieux générateurs de crues, avec notamment l'introduction d'une distribution des pluies observées conditionnée par type de temps (distribution MEWP, Multi-Exponential Weather Patterns). Pour valider ce modèle probabiliste, nous avons comparé ses résultats à ceux de modèles classiques de la théorie des valeurs extrêmes. En nous appuyant sur une large base de données de stations pluviométriques (478 postes localisés en France, Suisse et Espagne) et sur une technique de comparaison orientée vers les valeurs extrêmes, nous avons évalué les performances du modèle MEWP en soulignant la justesse et la robustesse de ses estimations. Le procédé de simulation hydrologique des volumes écoulés suite à des événements pluvieux intenses (processus de simulation semi-continue) a été décrit en soulignant son caractère original et parcimonieux du point de vue des hypothèses d'extrapolation nécessaires, et sa capacité à extraire le maximum d'information des séries chronologiques traitées. En nous appuyant sur une base de données de 32 bassins versants, nous avons analysé la sensibilité de cette méthode (i) à ses paramètres de simulation (i.e. nombre de tirages, etc.), (ii) au modèle probabiliste de pluie et (iii) au modèle hydrologique pluie-débit. Cette étude nous a permis de figer certains paramètres de simulation et surtout de hiérarchiser les étapes et les options de simulation du point de vue de leurs impacts sur le résultat final. Le passage des quantiles extrêmes de volumes à ceux des débits de pointe est réalisé par un facteur multiplicatif (coefficient de forme), identifié sur une collection d'hydrogrammes. Une sélection de ces hydrogrammes par une approche semi-automatique, basée sur une technique d'échantillonnage sup-seuil, a été développée. Globalement, ce travail a permis de reformuler, justifier et vérifier les hypothèses de base de la méthode, notamment celles liées à l'aléa pluviométrique ainsi qu'à l'aléa « état hydrique » du bassin versant, et celles liées au procédé de simulation hydrologique semi-continue des écoulements. Des améliorations et des simplifications de certains points de la méthode ont aussi été proposées pour des estimations de débit extrêmes plus fiables et robustes. Une adaptation de la classification des journées par type de temps a été proposée pour étendre le calendrier de référence, de 1953-2005 à 1850-2003, en exploitant des informations simplifiées sur les champs de pression. La procédure de simulation hydrologique a été améliorée, notamment en conditionnant le tirage des épisodes pluvieux au type de temps, ce qui permet de mieux prendre en compte la dépendance pluie- température. Ces travaux ne mettent certainement pas un point final au développement de la méthode SCHADEX mais la fondent sur des bases méthodologiques saines et documentées. Ils proposent des perspectives de recherche sur des thématiques variées (e.g. prise en compte de variabilité de la forme des hydrogrammes de crue pour le passage au débit de pointe, modélisation hydrologique, estimation de crues extrêmes en bassins non jaugés ou en contexte non-stationnaire). / Since 2007, EDF (Électricité de France) design floods of dam spillways are computed using a probabilistic method named SCHADEX (Climatic-hydrological simulation of extreme foods). This method aims at estimating extreme flood quantiles by the combination of a weather patterns based rainfall probabilistic model and a conceptual rainfall-runoff model. The aim of this PhD thesis is to “validate” SCHADEX method by assessing its potential and its limits with a sensitivity analysis of its hypothesis and with a comparison to the widest possible range of data (various regions and climates, different watershed sizes). In the first part of this thesis we describe the stochastic generation process of rainfall events. We introduce a rainfall probabilistic model based on weather pattern classification, called MEWP (Multi-Exponential Weather Pattern) distribution. To validate the MEWP model, we compare it to the standard probabilistic models of extreme values theory. Basing on a wide rainfall dataset (478 raingauges located in France, Switzerland and Spain) and on new specific criteria, we evaluate the suitability of MEWP model in terms of reliability and robustness. In the second part of this work, the hydrological simulation process of volumes, called semi-continuous simulation process, is introduced. We highlight the efficiency and the originality of this process link to its ability to mix various hydrological data for extreme flood estimation while keeping parsimonious extrapolation hypothesis. Basing on a dataset of 32 watersheds, we realize a sensitivity analysis of this process to (i) simulation parameters (i.e. number of simulation, etc.), (ii) to rainfall probabilistic model and (iii) to rainfall-runoff model. This study allows us to fix some simulation parameters and especially to prioritize the simulation steps and options by their impact on final results. The third part is about the passage from extreme volumes quantiles to extreme peak flows quantiles that is done by a peak flows ratio. This ratio is computed on a hydrograms sample that is extract from flood time series by a specific peak over threshold sub-sampling developed in this thesis. Globally, we reformulate, justify and verify the basic assumptions of the method, with a special focus on rainfall risk, hydrological risk and semi-continuous simulation process. In order to make extreme flood estimations more reliable and robust same improvements and simplifications of the method are proposed. To widen the available period of the weather pattern classification from 1953-2005 to 1850-2003, we computed another weather pattern classification based on shade geopotential information. To take into account precipitation-temperature dependency, the simulation process is improved conditioning the generation of rainfall events by weather pattern sub-sampling. Certainly this thesis does not put the end to SCHADEX method developments but ground it on sound and documented basis. Such future investigations about variability of shape flood hydrograms, comparison of hydrological model in extrapolation domain, extreme flood risk estimation on ungauged watershed and in non-stationary context, are planned.
7

Analyse régionale des aléas maritimes extrêmes / Regional frequency analysis of extreme marine hazards

Weiss, Jérôme 07 November 2014 (has links)
Connaître la probabilité d'occurrence des aléas océano-météorologiques extrêmes est fondamental pour prévenir les risques de submersion marine en zone côtière ou concevoir des aménagements côtiers, portuaires ou des plate-formes offshore. Notamment, le concept de niveau de retour est fréquemment utilisé en ingénierie côtière pour dimensionner des ouvrages de protection. Ces niveaux, dont les périodes de retour d'intérêt se situent généralement entre 100 et 1000 ans, sont habituellement estimés par une analyse statistique locale, à partir de données observées en un site unique. Cependant, la période d'observation est généralement limitée, de sorte que les incertitudes associées aux niveaux de retour élevés sont importantes. L'analyse régionale représente une solution possible pour réduire les incertitudes inhérentes aux analyses locales. Le principe est d'exploiter l'information de sites d'observation provenant d'une région homogène, où les extrêmes sont supposés avoir un comportement probabiliste similaire. L'analyse régionale peut ainsi estimer les niveaux de retour de manière plus fiable qu'une analyse locale. Cependant, son application dans le domaine maritime étant relativement limitée et récente, différentes questions méthodologiques de meurent non-Résolues, comme la formation des régions homogènes ou le traitement de la dépendance entre sites. L'objectif scientifique de la thèse est donc d'approfondir certains points méthodologiques de l'analyse régionale, dans le cadre des aléas maritimes extrêmes. Les points suivants sont abordés en particulier :• Échantillonnage des extrêmes pour l'analyse régionale, à partir des tempêtes détectées via une procédure de declustering spatio-Temporel.• Formation de régions homogènes à partir d'une méthode basée sur l'identification des empreintes typiques des tempêtes.• Prise en compte de la dépendance entre sites d'observation, à travers la construction d'un modèle permettant par exemple d'évaluer la durée effective régionale d'observation ou la période de retour régionale d'une tempête.• Spécification et estimation de la loi régionale, avec incorporation des co-variables influentes, comme la saison d'occurrence ou la direction de provenance pour les vagues.• Comparaison entre analyses locale et régionale, notamment à travers les incertitudes sur les estimations des extrêmes et la capacité à modéliser les horsains présumés.Ces aspects sont illustrés sur des données de hauteurs significatives de vagues et de surcotes de pleine mer, dans la zone Atlantique Nord-Est, Manche et Mer du Nord.Parallèlement, l'objectif applicatif de ces travaux est de contribuer à garantir la sûreté des ouvrages EDF contre le risque de submersion marine. Ceci peut être réalisé grâce à l'exploration de nouvelles techniques d'estimation des aléas maritimes extrêmes telles que l'analyse régionale, qui permet notamment une meilleure prise en compte des horsains. / The knowledge of the probability of occurrence of oceano-Meteorological extremes is essential to prevent risks of coastal flooding or to build coastal protections or off-Shore structures. In particular, the concept of return level is frequently used in coastal engineering to design protection structures. These levels, whose return periods of interest generally lie between 100 and 1000 years, are usually estimated by a local statistical analysis, from data observed at a unique site. However, the period of observation is generally limited, which can imply high uncertainties for high return levels. Regional frequency analysis is a possible solution to reduce uncertainties inherent to local analyses. The principle is to exploit the information of sites of observation from a homogeneous region, where extremes are supposed to share a similar probabilistic behavior. Thus, regional frequency analysis can estimate return levels more accurately than a local analysis. However, its application to the marine field being relatively limited and recent, several methodological questions are still unsolved, such as the formation of homogeneous regions or the dependence between sites. The scientific objective of this thesis is thus to develop some methodological points of regional frequency analysis, in the framework of extreme marine hazards. The following questions are tackled:• Sampling of extremes for regional analysis, from the storms detected through a spatiotemporal declustering procedure.• Formation of homogeneous regions from a method based on the identification of the typical storms footprints.• Consideration of the dependence between sites of observation, through the building of a model allowing, for example, to assess the regional effective duration or the regional return period of a storm.• Specification and estimation of the regional distribution, with the incorporation of influent covariables, such as the season of occurrence or the direction for waves.• Comparison between regional and local analyses, especially through the uncertainties on the estimated extremes and the ability to model the potential outliers. These aspects are illustrated on significant wave height data and skew surge data located in the Northeast Atlantic, the Eastern Channel and the North Sea. At the same time, the industrial objective of this work is to contribute to guarantee the safety of EDF structures against the risk of coastal flooding. This can be achieved through the exploration of new techniques of estimation of extreme marine hazards such as regional frequency analysis, which allows in particular a better representation of outliers
8

Apprentissage de structures dans les valeurs extrêmes en grande dimension / Discovering patterns in high-dimensional extremes

Chiapino, Maël 28 June 2018 (has links)
Nous présentons et étudions des méthodes d’apprentissage non-supervisé de phénomènes extrêmes multivariés en grande dimension. Dans le cas où chacune des distributions marginales d’un vecteur aléatoire est à queue lourde, l’étude de son comportement dans les régions extrêmes (i.e. loin de l’origine) ne peut plus se faire via les méthodes usuelles qui supposent une moyenne et une variance finies. La théorie des valeurs extrêmes offre alors un cadre adapté à cette étude, en donnant notamment une base théorique à la réduction de dimension à travers la mesure angulaire. La thèse s’articule autour de deux grandes étapes : - Réduire la dimension du problème en trouvant un résumé de la structure de dépendance dans les régions extrêmes. Cette étape vise en particulier à trouver les sous-groupes de composantes étant susceptible de dépasser un seuil élevé de façon simultané. - Modéliser la mesure angulaire par une densité de mélange qui suit une structure de dépendance déterminée à l’avance. Ces deux étapes permettent notamment de développer des méthodes de classification non-supervisée à travers la construction d’une matrice de similarité pour les points extrêmes. / We present and study unsupervised learning methods of multivariate extreme phenomena in high-dimension. Considering a random vector on which each marginal is heavy-tailed, the study of its behavior in extreme regions is no longer possible via usual methods that involve finite means and variances. Multivariate extreme value theory provides an adapted framework to this study. In particular it gives theoretical basis to dimension reduction through the angular measure. The thesis is divided in two main part: - Reduce the dimension by finding a simplified dependence structure in extreme regions. This step aim at recover subgroups of features that are likely to exceed large thresholds simultaneously. - Model the angular measure with a mixture distribution that follows a predefined dependence structure. These steps allow to develop new clustering methods for extreme points in high dimension.
9

Estimation et tests en théorie des valeurs extrêmes

Toulemonde, Gwladys 30 October 2008 (has links) (PDF)
Cette thèse se décompose en trois parties distinctes auxquelles s'ajoute une introduction. Dans un premier temps, nous nous intéressons à un test lisse d'ajustement à la famille de Pareto. Pour cela, nous proposons une statistique de test motivée par la théorie de LeCam sur la normalité asymptotique locale (LAN). Nous en établissons le comportement asymptotique sous l'hypothèse que l'échantillon provient d'une distribution de Pareto et sous des alternatives locales, nous plaçant ainsi dans le cadre LAN. Des simulations sont présentées afin d'étudier le comportement de la statistique de test à distance finie. Dans le chapitre suivant, nous nous plaçons dans le cadre de données censurées aléatoirement à droite. Nous proposons alors un estimateur des paramètres de la distribution de Pareto généralisée basé sur une première étape de l'algorithme de Newton-Raphson. Nous établissons la normalité asymptotique de cet estimateur. Par des simulations, nous illustrons son comportement à distance finie et le comparons à celui de l'estimateur du maximum de vraisemblance. Nous proposons enfin, dans un dernier chapitre, un modèle linéaire autorégressif adapté à la loi de Gumbel pour prendre en compte la dépendance dans les maxima. Nous établissons des propriétés théoriques de ce modèle et par simulations nous illustrons son comportement à distance finie. Enfin, comme des applications concrètes en sciences de l'atmosphère motivaient ce modèle, nous l'avons utilisé pour modéliser des maxima de dioxyde de carbone et de méthane.
10

Étude probabiliste des contraintes de bout en bout dans les systèmes temps réel / Probabilistic study of end-to-end constraints in real-time systems

Maxim, Cristian 11 December 2017 (has links)
L'interaction sociale, l'éducation et la santé ne sont que quelques exemples de domaines dans lesquels l'évolution rapide de la technologie a eu un grand impact sur la qualité de vie. Les entreprises s’appuient de plus en plus sur les systèmes embarqués pour augmenter leur productivité, leur efficacité et leurs valeurs. Dans les usines, la précision des robots tend à remplacer la polyvalence humaine. Bien que les appareils connectés comme les drônes, les montres intelligentes ou les maisons intelligentes soient de plus en plus populaires ces dernières années, ce type de technologie a été utilisé depuis longtemps dans les industries concernées par la sécurité des utilisateurs. L’industrie avionique utilise des ordinateurs pour ses produits depuis 1972 avec la production du premier avion A300; elle a atteint des progrès étonnants avec le développement du premier avion Concorde en 1976 en dépassant de nombreuses années les avions de son époque, et ça a été considéré comme un miracle de la technologie. Certaines innovations et connaissances acquises pour le Concorde sont toujours utilisées dans les modèles récents comme A380 ou A350. Un système embarqué est un système à microprocesseur qui est construit pour contrôler une fonction ou une gamme de fonctions et qui n’est pas conçu pour être programmé par l'utilisateur final de la même manière qu'un ordinateur personnel. Un système temps-réel est un système de traitement de l’information qui doit répondre aux stimuli d’entrées générées de manière externe dans une période finie et spécifiée. Le comportement de ces systèmes prend en compte non seulement l'exactitude dépend non seulement du résultat logique mais aussi du temps dans lequel il a été livré. Les systèmes temps-réel peuvent être trouvés dans des industries comme l'aéronautique, l'aérospatiale, l'automobile ou l’industrie ferroviaire mais aussi dans les réseaux de capteurs, les traitements d'image, les applications multimédias, les technologies médicales, les robotiques, les communications, les jeux informatiques ou les systèmes ménagers. Dans cette thèse, nous nous concentrons sur les systèmes temps-réel embarqués et pour la facilité des notations, nous leur nommons simplement des systèmes temps réel. Nous pourrions nous référer aux systèmes cyber-physiques si tel est le cas. Le pire temps d’exécution (WCET) d'une tâche représente le temps maximum possible pour qu’elle soit exécutée. Le WCET est obtenu après une analyse de temps et souvent il ne peut pas être déterminé avec précision en déterminant toutes les exécutions possibles. C'est pourquoi, dans l'industrie, les mesures sont faites uniquement sur un sous-ensemble de scénarios possibles, celui qui générerait les temps d'exécution les plus élevés, et une limite supérieure de temps d’exécution est estimé en ajoutant une marge de sécurité au plus grand temps observé. L’analyses de temps est un concept clé qui a été utilisé dans les systèmes temps-réel pour affecter une limite supérieure aux WCET des tâches ou des fragments de programme. Cette affectation peut être obtenue soit par analyse statique, soit par analyse des mesures. Les méthodes statiques et par mesure, dans leurs approches déterministes, ont tendance à être extrêmement pessimistes. Malheureusement, ce niveau de pessimisme et le sur-provisionnement conséquent ne peut pas être accepté par tous les systèmes temps-réels, et pour ces cas, d'autres approches devraient être prises en considération. / In our times, we are surrounded by technologies meant to improve our lives, to assure its security, or programmed to realize different functions and to respect a series of constraints. We consider them as embedded systems or often as parts of cyber-physical systems. An embedded system is a microprocessor-based system that is built to control a function or a range of functions and is not designed to be programmed by the end user in the same way that a PC is. The Worst Case Execution Time (WCET) of a task represents the maximum time it can take to be executed. The WCET is obtained after analysis and most of the time it cannot be accurately determined by exhausting all the possible executions. This is why, in industry, the measurements are done only on a subset of possible scenarios (the one that would generate the highest execution times) and an execution time bound is estimated by adding a safety margin to the greatest observed time. Amongst all branches of real-time systems, an important role is played by the Critical Real-Time Embedded Systems (CRTES) domain. CRTESs are widely being used in fields like automotive, avionics, railway, health-care, etc. The performance of CRTESs is analyzed not only from the point of view of their correctness, but also from the perspective of time. In the avionics industry such systems have to undergo a strict process of analysis in order to fulfill a series of certification criteria demanded by the certifications authorities, being the European Aviation Safety Agency (EASA) in Europe or the Federal Aviation Administration (FAA) in United States. The avionics industry in particular and the real-time domain in general are known for being conservative and adapting to new technologies only when it becomes inevitable. For the avionics industry this is motivated by the high cost that any change in the existing functional systems would bring. Any change in the software or hardware has to undergo another certification process which cost the manufacturer money, time and resources. Despite their conservative tendency, the airplane producers cannot stay inactive to the constant change in technology and ignore the performance benefices brought by COTS processors which nowadays are mainly multi-processors. As a curiosity, most of the microprocessors found in airplanes flying actually in the world, have a smaller computation power than a modern home PC. Their chips-sets are specifically designed for embedded applications characterized by low power consumption, predictability and many I/O peripherals. In the actual context, where critical real-time systems are invaded by multi-core platforms, the WCET analysis using deterministic approaches becomes difficult, if not impossible. The time constraints of real-time systems need to be verified in the context of certification. This verification, done during the entire development cycle, must take into account architectures more and more complex. These architectures increase the cost and complexity of actual, deterministic, tools to identify all possible time constrains and dependencies that can occur inside the system, risking to overlook extreme cases. An alternative to these problems is the probabilistic approach, which is more adapted to deal with these hazards and uncertainty and which allows a precise modeling of the system. 2. Contributions. The contribution of the thesis is three folded containing the conditions necessary for using the theory of extremes on executions time measurements, the methods developed using the theory of extremes for analyzing real-time systems and experimental results. 2.1. Conditions for use of EVT in the real-time domain. In this chapter we establish the environment in which our work is done. The use of EVT in any domain comes with a series of restrictions for the data being analyzed. In our case the data being analyzed consists in execution time measurements.

Page generated in 0.4842 seconds