Spelling suggestions: "subject:"extrêmement""
101 |
Développement de méthodes statistiques et probabilistes en corrosion par piqûres pour l'estimation de la profondeur maximale : application à l'aluminium A5Jarrah, Adil 08 December 2009 (has links) (PDF)
La corrosion par piqûres est l'une des formes de corrosion les plus répandues. Elle touche tous les matériaux et se place dans un contexte économique très important. Elle peut se manifester à des endroits spécifiques de la structure et mener à sa détérioration en particulier en présence de sollicitations mécaniques. L'aspect stochastique du phénomène a conduit au développement de méthodes statistiques pour le caractériser. Cette caractérisation est souvent faite via l'estimation de la profondeur maximale des piqûres afin d'évaluer le risque de perforation de la structure. Pour cela, la méthode de Gumbel est l'approche la plus utilisée. L'objectif de ce travail est de revenir sur la vérification des conditions d'application de cette méthode notamment l'indépendance et de la comparer avec les autres approches basées sur la loi des valeurs extrêmes généralisée et la loi de dépassement de seuil. La condition d'indépendance est vérifiée à l'aide des processus spatiaux. Une adaptation de l'analyse spectrale en corrosion par piqûres est aussi proposée. La comparaison entre les approches est basée sur des simulations numériques dont les paramètres sont issus de l'expérimentation.
|
102 |
Cartes incertaines et planification optimale pour la localisation d'un engin autonomeCeleste, Francis 10 February 2010 (has links) (PDF)
Des avancées importantes ont été réalisées dans le domaine de la robotique mobile. L'usage croissant des robots terrestres et des drones de petite taille, n'est possible que par l'apport de capacités d'autonomie de mouvement dans l'environnement d'évolution. La problématique de la localisation du système, par la mise en correspondance de mesures issues des capteurs embarqués avec des primitives contenues dans une carte, est primordiale. Ce processus, qui s'appuie sur la mise en oeuvre de techniques de fusion, a été très étudié. Dans cette thèse, nous proposons de définir des méthodes de planification du mouvement d'un mobile, avec pour objectif de garantir une performance de localisation à partir d'une carte incertaine donnée a priori, et ce lors de l'exécution. Une méthode de génération contrôlée de réalisations de cartes bruitées, exploitant la théorie des processus ponctuels, est d'abord présentée. Cette base de cartes permet de construire des cartes multi-niveaux pour la localisation. Le critère d'optimisation est défini à partir de fonctionnelles de la borne de Cramèr-Rao a posteriori, qui tient compte de l'incertitude sur la dynamique du mobile et de la cartographie incertaine. Nous proposons différentes approches, basées sur la méthode de cross-entropie, pour obtenir des stratégies de déplacement avec des modèles de dynamique discret et continu. La qualité des solutions optimales fournies par ces approches heuristiques est analysée en utilisant des résultats de la théorie des valeurs extrêmes. Enfin, nous esquissons une démarche pour l'amélioration ciblée de cartes sous contrainte de ressources afin d'améliorer la performance de localisation.
|
103 |
Contributions à la statistique des processus : estimation, prédiction et extrêmesWintenberger, Olivier 23 November 2012 (has links) (PDF)
Ce mémoire d'habilitation traite de la statistique des processus à temps discret faiblement dépendants. Une première partie présente des résultats asymptotiques d'estimation pour les paramètres de modèles affines généraux. La méthode étudiée est la maximisation du critère de quasi-vraisemblance. Afin de traiter de possibles ruptures de stationnarité, nous pénalisons ce critère par le nombre de ruptures. Pour les modèles à volatilité comme le modèle EGARCH, cette procédure est instable et nous proposons de contraindre le critère au domaine dit d'inversibilité continue. Nous étudions le problème de la prédiction de processus faiblement dépendants dans une seconde partie. Les résultats obtenus sont des inégalités d'oracle non asymptotiques nécessitant l'étude préalable des propriétés de concentration gaussiennes de lois faiblement dépendantes. Pour ce faire nous utilisons une notion de transport faible et de nouvelles inégalités dites de transport conditionnel. Enfin, le comportement des extrêmes en présence de dépendance fait l'objet de la troisième partie. Nous introduisons un indice de {\it cluster} qui caractérise les lois limites $\alpha$-stables dans le théorème de la limite centrale et les grandes déviations des sommes partielles à variation régulière. Nous traitons des exemples de processus à queues épaisses tels que les solutions des équations récurrentes stochastiques linéaires et le modèle GARCH. Nous appliquons ces résultats pour caractériser asymptotiquement les erreurs d'estimation des auto-covariances de processus à queues épaisses.
|
104 |
Analyse statistique des valeurs extrêmes de précipitation : application dans la région Cévennes-VivaraisNguyen, Thi Phuong Thao 25 February 1993 (has links) (PDF)
Ce travail consiste à choisir une méthode statistique d'ajustement des valeurs extrêmes et à l'appliquer aux précipitations extrêmes dans la région Cévennes - Vivarais. La première partie est réalisée à partir de valeurs simulées. La méthode non-paramétrique de Villasenor qui n'impose pas au début de l'analyse une loi statistique à la série de données, est choisie comme la meilleure méthode parmi les cinq méthodes d'ajustements. Dans la deuxième partie les caractéristiques pluviométriques de la région Cévennes - Vivarais sont calculées à partir de mesures horaires de 52 stations par la méthode choisie. La cartographie des caractéristiques pluviométriques de cette région est réalisée par les méthodes : spline et krigeage. La méthode krigeage donne une meilleure interpolation que celle de spline, et fournit encore des informations sur la structure spatiale de la région. Les cartes tracées représentent une distribution réaliste des valeurs extrêmes de précipitation de la région Cévennes - Vivarais.
|
105 |
Modélisation de la dépendance et mesures de risque multidimensionnellesDi Bernardino, Éléna 08 December 2011 (has links) (PDF)
Cette thèse a pour but le développement de certains aspects de la modélisation de la dépendance dans la gestion des risques en dimension plus grande que un. Le premier chapitre est constitué d'une introduction générale. Le deuxième chapitre est constitué d'un article s'intitulant " Estimating Bivariate Tail : a copula based approach ", soumis pour publication. Il concerne la construction d'un estimateur de la queue d'une distribution bivariée. La construction de cet estimateur se fonde sur une méthode de dépassement de seuil (Peaks Over Threshold method) et donc sur une version bivariée du Théorème de Pickands-Balkema-de Haan. La modélisation de la dépendance est obtenue via la Upper Tail Dependence Copula. Nous démontrons des propriétés de convergence pour l'estimateur ainsi construit. Le troisième chapitre repose sur un article: " A multivariate extension of Value-at-Risk and Conditional-Tail-Expectation", soumis pour publication. Nous abordons le problème de l'extension de mesures de risque classiques, comme la Value-at-Risk et la Conditional-Tail-Expectation, dans un cadre multidimensionnel en utilisant la fonction de Kendall multivariée. Enfin, dans le quatrième chapitre de la thèse, nous proposons un estimateur des courbes de niveau d'une fonction de répartition bivariée avec une méthode plug-in. Nous démontrons des propriétés de convergence pour les estimateurs ainsi construits. Ce chapitre de la thèse est lui aussi constitué d'un article, s'intitulant " Plug-in estimation of level sets in a non-compact setting with applications in multivariate risk theory", accepté pour publication dans la revue ESAIM:Probability and Statistics.
|
106 |
Méthodes statistiques pour l'évaluation du risque alimentaireTressou, Jessica 09 December 2005 (has links) (PDF)
Les aliments peuvent être contaminés par certaines substances chimiques, qui, lorsqu'elles sont ingérées à des doses trop importantes, peuvent engendrer des problèmes de santé. Notre but est d'évaluer la probabilité que l'exposition au contaminant dépasse durablement une dose tolérable par l'organisme que nous appelons risque. La modélisation de la queue de distribution par des lois extrêmes permet de quantifier un risque très faible. Dans les autres cas, l'estimateur empirique du risque s'écrit comme une U-statistique généralisée, ce qui permet d'en dériver les propriétés asymptotiques. Des développements statistiques permettent d'intégrer à ce modèle la censure des données de contamination. Enfin, un modèle économétrique de décomposition de données ménage en données individuelles nous permet de proposer une nouvelle méthode de quantification du risque de long terme prenant en compte l'accumulation du contaminant et sa lente dégradation par l'organisme.
|
107 |
La culture extrême, une approche à la co-construction de la culture organisationnelleLatourelle-Bernier, Maxime 05 1900 (has links)
Ce mémoire propose de conceptualiser la culture organisationnelle d’un angle nouveau. Mary Jo Hatch (1993), dans son modèle de Cultural Dynamics, soutient que la culture d’une entreprise favorise la modulation de l’identité des individus y travaillant. Partant de cette affirmation, je me questionne à savoir si l’inverse est aussi possible. La culture de l’organisation et l’identité des individus y travaillant peuvent-ils évoluer dans une dynamique de co-construction? Afin d’étudier ce phénomène, j’ai mené une série d’entrevues selon la méthode du récit de vie au sein d’Empire Sports, une chaîne québécoise de boutiques de vente au détail d’articles de sports extrêmes. En me basant sur la théorie des communautés de pratiques, j’ai analysé et interprété les résultats obtenus lors des entrevues. J’arrive à identifier et à préciser ce phénomène de co-construction que j’interprète à l’aide d’un nouveau concept appelé la culture extrême. Comme cette recherche est exploratoire, les conclusions ouvrent la possibilité d’approfondir davantage les connaissances à propos de la culture extrême en l’examinant dans d’autres contextes organisationnels. / This Master’s thesis proposes looking at organizational culture in a new light. In her model of cultural dynamics, Mary Jo Hatch (1993) suggests that a company’s culture influences the identity of the individuals working there. Starting from this affirmation, I ask if the inverse is also possible. Do organizational culture and individual identities evolve together in a dynamic of co-construction? Using a method inspired by the « life story », I conducted a series of interviews at Empire Sports, a Quebec chain of boutiques specializing in extreme sports. I use the communities of practice framework to analyze and interpret the intreviews. My results identify a phenomenon of co-construction at work. I interpret this using a new concept which I call « extreme culture ». The conclusions of this exploratory research suggest that further research in other organizational contexts could be useful in deepening of the concept of extreme culture.
|
108 |
Estimation bayésienne nonparamétrique de copulesGuillotte, Simon January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
|
109 |
Trois essais en bio-économie dynamiqueHerrmann, Markus January 2007 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
|
110 |
Mesure du capital réglementaire par des modèles de risque de marchéKourouma, Lancine 11 May 2012 (has links) (PDF)
Suite à la crise financière et économique de 2008, il a été constaté sur le portefeuille de négociation des banques un montant de capital réglementaire significativement inférieur aux pertes réelles. Pour comprendre les causes de cette insuffisance de capital réglementaire, il nous a paru important d'évaluer la fiabilité des modèles de mesure de risque de marché et de proposer des méthodologies de stress test pour la gestion des risques extrêmes. L'objectif est de mesurer le capital réglementaire sur un portefeuille de négociation composé d'actions et de matières premières par la mesure de la Value at Risk (VaR) et l'Expected Shortfall. Pour réaliser cet objectif, nous avons utilisé le modèle Generalized Pareto Distribution (GPD) et deux modèles internes utilisés par les banques : méthode de simulation historique et modèle de la loi normale. Une première évaluation de la fiabilité effectuée sur les trois modèles de risque sous l'hypothèse de volatilité constante, montre que les modèles internes des banques et le modèle GPD ne mesurent pas correctement le risque du portefeuille d'étude pendant les périodes de crise. Néanmoins, le modèle GPD est fiable en période de faible volatilité mais avec une forte surestimation du risque réel ; cela peut conduire les banques à bloquer plus de fonds propres réglementaires qu'il est nécessaire. Une seconde évaluation de la fiabilité des modèles de risque a été effectuée sous l'hypothèse du changement de la volatilité et par la prise en compte de l'effet asymétrique des rentabilités financières. Le modèle GPD s'est révélé le plus fiable quelles que soient les conditions des marchés. La prise en compte du changement de la volatilité a amélioré la performance des modèles internes des banques. L'intégration des scénarios historiques et hypothétiques dans les modèles de risque a permis d'évaluer le risque extrême tout en diminuant la subjectivité reprochée aux techniques de stress test. Le stress test réalisé avec les modèles internes des banques ne permet pas une mesure correcte du risque extrême. Le modèle GPD est mieux adapté pour le stress test. Nous avons développé un algorithme de stress test qui permettra aux banques d'évaluer le risque extrême de leurs portefeuilles et d'identifier les facteurs de risque responsables de ce risque. Le calcul du capital réglementaire sur la base de la somme de la VaR et du stress VaR n'est pas logique et entraîne un doublement des fonds propres réglementaires des banques. Le doublement de ces fonds propres aura pour conséquence le resserrement du crédit à l'économie. Nous observons que le coefficient multiplicateur et le principe de la racine carrée du temps de l'accord de Bâle conduisent les banques à faire un arbitrage en faveur des modèles de risque non fiables.
|
Page generated in 0.048 seconds