• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 13
  • 10
  • 1
  • 1
  • 1
  • Tagged with
  • 41
  • 41
  • 18
  • 17
  • 10
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

AnÃlise da dinÃmica espaÃo-temporal (1973 a 2014) das dunas de Jericoacoara, CearÃ, Brasil / Analysis of the spatiotemporal dynamic (1973-2010) of the dune fields in the Jericoacoara,CearÃ, Brazil

NarcÃlio de SÃ Pereira Filho 25 November 2014 (has links)
CoordenaÃÃo de AperfeÃoamento de Pessoal de NÃvel Superior / Dunas costeiras exercem um importante papel na manutenÃÃo do fluxo de sedimentos da zona costeira. O Parque Nacional de Jericoacoara, localizado no estado do CearÃ, regiÃo Nordeste do Brasil, possui uma morfologia pouco frequente, trata-se de um promontÃrio associado com um campo de dunas mÃveis denominadas barcanas, dunas individuais, de grande porte com formato de ferraduras que se deslocam em direÃÃo L â O. Elas realizam o by-pass, o transporte de sedimentos, essencial para a manutenÃÃo da linha de costa. Neste trabalho, foi priorizada a definiÃÃo da evoluÃÃo morfodinÃmica de dunas mÃveis isoladas (dunas Papai Noel, PÃr-do-Sol e Arraia), tendo como referencial teÃrico a anÃlise das paisagens e como procdimento tÃcnico principal a anÃlise espaÃo-temporal do recobrimento de imagens multitemporais dos satÃlites Landsat e Quickbird entre os anos de 1973 a 2014. AtravÃs da comparaÃÃo da distribuiÃÃo espaÃo temporal das morfologias dunares, nesse perÃodo de 41 anos, evidenciaram-se mudanÃas significativas na Ãrea, perÃmetro e deslocamento das dunas. Foi possÃvel constatar a aÃÃo dos fluxos de matÃria e energia vinculados com migraÃÃo continuada direcionada para a faixa de praia (setor de bypassing de sedimentos). A dinÃmica de migraÃÃo das dunas, quando analisadas apÃs as imagens de 2000, evidenciou possibilidades de alteraÃÃes dos aspectos morfolÃgicos influenciados pelo incremento do fluxo turÃstico, quando instituÃdo o PARNA de Jericoacoara. As mudanÃas foram mais significativas, sobretudo, entre os anos de 2001 a 2005, o que pode estar relacionado a uma maior intervenÃÃo humana (fluxo de turistas). A utilizaÃÃo das tÃcnicas de geoprocessamento para o mapeamento da evoluÃÃo morfodinÃmica do campo de dunas do Parque Nacional de Jericoacoara constituiu- se uma ferramenta essencial para a produÃÃo de informaÃÃes que certamente subsidiarÃo a continuidade do planejamento ambiental da referida, que se constitui como uma Unidade de ConservaÃÃo de ProteÃÃo Integral. / Coastal dunes play an important role in the sediment flow of the coastal zone. The unique morphology of the Jericoacoara National Park in the northeastern Brazilian state of Cearà consists of a promontory covered by a mobile dune field consisting of large, horseshoe-shaped dunes known locally as barcanas that migrate from east to west. These dunes are responsible for the by-pass, the transport of sediments essential for the maintenance of the coastline. The present study focused on the morphodynamic evolution of these isolated mobile dunes through the recovery of multitemporal Landsat and Quickbird satellite images from the years between 1975 and 2014. The comparison of the spatio-temporal distribution of the morphology of these dunes over this 41-year period revealed significant shifts in their area, perimeter, and movement. It was possible to confirm that the flow of material and energy were linked to a process of continuous migration in the direction of the beach (sediment bypassing sector). The dynamics of the dune migration in the years following 2000, when the national park was established, indicate possible impacts of the increase in tourism within the area on the morphology of the dunes. The changes were most significant between 2001 and 2005, possibly reflecting a greater influx of tourists and thus more intense anthropogenic impacts. The different geoprocessing techniques applied to the mapping of the morphodynamic evolution of the dune field of the Jericoacoara National Park proved to be an essential tool for the production of information that will guarantee the long-term environmental planning of this integral conservation unit.
32

Distribuição generalizada de chuvas máximas no Estado do Paraná. / Local and regional frequency analysis by lh-moments and generalized distributions

Pansera, Wagner Alessandro 07 December 2013 (has links)
Made available in DSpace on 2017-07-10T19:23:40Z (GMT). No. of bitstreams: 1 Wagner.pdf: 5111902 bytes, checksum: b4edf3498cca6f9c7e2a9dbde6e62e18 (MD5) Previous issue date: 2013-12-07 / The purpose of hydrologic frequency analysis is to relate magnitude of events with their occurrence frequency based on probability distribution. The generalized probability distributions can be used on the study concerning extreme hydrological events: extreme events, logistics and Pareto. There are several methodologies to estimate probability distributions parameters, however, L-moments are often used due to computational easiness. Reliability of quantiles with high return period can be increased by LH-moments or high orders L-moments. L-moments have been widely studied; however, there is little information about LH-moments on literature, thus, there is a great research requirement on such area. Therefore, in this study, LH-moments were studied under two approaches commonly used in hydrology: (i) local frequency analysis (LFA) and (ii) regional frequency analysis (RFA). Moreover, a database with 227 rainfall stations was set (daily maximum annual), in Paraná State, from 1976 to 2006. LFA was subdivided into two steps: (i) Monte Carlo simulations and (ii) application of results to database. The main result of Monte Carlo simulations was that LH-moments make 0.99 and 0.995 quantiles less biased. Besides, simulations helped on creating an algorithm to perform LFA by generalized distributions. The algorithm was applied to database and enabled an adjustment of 227 studied series. In RFA, the 227stations have been divided into 11 groups and regional growth curves were obtained; while local quantiles were obtained from the regional growth curves. The difference between local quantiles obtained by RFA was quantified with those obtained via LFA. The differences may be approximately 33 mm for return periods of 100 years. / O objetivo da análise de frequência das variáveis hidrológicas é relacionar a magnitude dos eventos com sua frequência de ocorrência por meio do uso de uma distribuição de probabilidade. No estudo de eventos hidrológicos extremos, podem ser usadas as distribuições de probabilidade generalizadas: de eventos extremos, logística e Pareto. Existem diversas metodologias para a estimativa dos parâmetros das distribuições de probabilidade, no entanto, devido às facilidades computacionais, utilizam-se frequentemente os momentos-L. A confiabilidade dos quantis com alto período de retorno pode ser aumentada utilizando os momentos-LH ou momentos-L de altas ordens. Os momentos-L foram amplamente estudados, todavia, os momentos-LH apresentam literatura reduzida, logo, mais pesquisas são necessárias. Portanto, neste estudo, os momentos-LH foram estudados sob duas abordagens comumente utilizadas na hidrologia: (i) Análise de frequência local (AFL) e (ii) Análise de frequência regional (AFR). Além disso, foi montado um banco de dados com 227 estações pluviométricas (máximas diárias anuais), localizadas no Estado do Paraná, no período de 1976 a 2006. A AFL subdividiu-se em duas etapas: (i) Simulações de Monte Carlo e (ii) Aplicação dos resultados ao banco de dados. O principal resultado das simulações de Monte Carlo foi que os momentos-LH tornam os quantis 0,99 e 0,995 menos enviesados. Além disso, as simulações viabilizaram a criação de um algoritmo para realizar a AFL utilizando as distribuições generalizadas. O algoritmo foi aplicado ao banco de dados e possibilitou ajuste das 227 séries estudadas. Na AFR, as 227 estações foram dividas em 11 grupos e foram obtidas as curvas de crescimento regional. Os quantis locais foram obtidos a partir das curvas de crescimento regional. Foi quantificada a diferença entre os quantis locais obtidos via AFL com aqueles obtidos via AFR. As diferenças podem ser de aproximadamente 33 mm para períodos de retorno de 100 anos.
33

Approches expérimentales et multi-échelles des processus d'amorçage de fissures en fatigue sous chargements complexes / Experimental and multi-scale approaches of fatigue crack initiation process under complex loading conditions

Agbessi, Komlan 21 March 2013 (has links)
Les méthodes de calcul en fatigue à grande durée de vie sont en cours de développement depuis des décennies et sont utilisées par les ingénieurs pour dimensionner les structures. Généralement, ces méthodes se basent sur la mise en équations de quantités mécaniques calculées à l'échelle macroscopique ou mésoscopique. Les critères de fatigue multiaxiale reposent généralement sur des hypothèses de changement d'échelle dont l'objectif est d'accéder à l'état de contraintes ou de déformations à l'échelle du grain. Dans les approches de type plan critique (Dang Van, Papadopoulos, Morel), l'amorçage d'une fissure de fatigue est considéré comme piloté par une quantité mécanique liée à une orientation matérielle particulière (plan critique). Si ces phénomènes sont bien établis dans le cas des chargements uniaxiaux, la nature des mécanismes liés à l'activation des systèmes de glissement, à la multiplicité du glissement et aux différents sites préférentiels d'amorçage de fissures sous chargements complexes reste peu connue.Afin de mieux comprendre les mécanismes d'endommagement en fatigue multiaxiale, les techniques d'analyse et de caractérisation de l'activité plastique (activation des systèmes de glissements, bandes de glissement persistantes) et d'observation de l'endommagement par fatigue ont été mises en place en se basant principalement sur des observations MEB et analyses EBSD. Ces investigations ont permis de mettre en lumière les effets des chargements non proportionnels sur la multiplicité du glissement sur du cuivre pur OFHC. L'étude statistique des sites préférentiels d'amorçage de fissures montre que les grains à glissement multiple présentent une forte probabilité d'amorçage de fissures, surtout sous les chargements non proportionnels. Nous avons également mis en évidence le rôle des joints de grains et des joints de macle sur le développement de la plasticité à l'échelle de la microstructure. Les résultats expérimentaux sont confrontés à ceux du calcul éléments finis (EF) en plasticité polycristalline sur des microstructures synthétiques 3D semi-périodiques. L'application du critère de Dang Van à l'échelle mésoscopique (le grain) montre une forte variabilité de la contrainte hydrostatique et du cisaillement. Cette variabilité est plus importante pour un modèle de comportement cristallin élastique anisotrope. Le rôle de la plasticité cristalline se révèle secondaire. Ces analyses permettent de remettre en perspective les hypothèses usuelles de changement d'échelle utilisées en fatigue multiaxiale. Enfin, une méthode basée sur la statistique des valeurs extrêmes est proposée pour le dépouillement des calculs EF sur agrégats. Cette analyse a été appliquée sur la contrainte équivalente associée au critère de fatigue de Dang Van pour les calculs d'agrégats polycristallins avec différentes morphologies et orientations des grains. Les effets de la surface libre, du type de chargement et du modèle de comportement mécanique des grains ont été analysés. Les résultats offrent des perspectives intéressantes sur la modélisation de l'amorçage des fissures en fatigue multiaxiale des matériaux et des structures avec une prise en compte de la microstructure. / The development of high cycle fatigue (HCF) strength assessment methods has now been running for more than a century, leading to relatively efficient methods for engineers. Generally, these methods are based on mechanical quantities calculated at macroscopic or mesoscopic scales and validated by the model's ability to accurately reproduce experimental results. Multiaxial fatigue strength criteria are usually based on scaling transition assumptions aiming at capturing the stress or strain state in the grain. In the case of critical plane based criteria (Dang Van, Papadopoulos, Morel), fatigue crack initiation is supposed to be controlled by a mechanical quantity linked to a particular orientation (critical plane). If fatigue crack initiation phenomena are well established in the case of uniaxial loadings, the nature of the mechanisms involved in the activation of slip systems, multiple slip and preferential sites of rack initiation under complex loadings remains little known.To better understand the mechanisms of multiaxial fatigue crack initiation, analysis and characterization of the plastic activity (e.g. activation of slip systems, persistent slip bands) and observations of fatigue damage have been carried out on pure OFHC copper, using SEM and EBSD analyses. These investigations enabled to highlight the effects of non-proportional multiaxial loadings through the induced multiplicity of slip. The statistical study of preferential crack initiation sites shows that grains with multiple slip have a high probability of crack initiation, especially under non-proportional loading. We also highlighted the role of grain boundaries and twin boundaries on the development of plasticity across the microstructure. The experimental results were compared with those of finite element crystal plasticity computations on synthetic 3D semi-periodic microstructures. The application of the Dang Van criterion at the mesoscopic (grain) scale showed a strong variability of the hydrostatic stress and the shear stress. This variability was greater for anisotropic elastic behavior, while the role of crystal plasticity seemed to be secondary. These analyses allowed putting into perspective the usual assumptions of scaling transition rules used in multiaxial fatigue. Finally, a method based on the extreme values statistics ​​was proposed and applied to the equivalent stress associated to the Dang Van fatigue criterion for polycrystalline aggregate computations with different morphologies and grains orientations. The effects of the microstructure, free surface, loading types and mechanical behavior were analyzed. The results offered interesting insights into the multiaxial fatigue modeling of metals and structures taking into account the microstructure.
34

Calcul de probabilités d'événements rares liés aux maxima en horizon fini de processus stochastiques / Calculation of probabilities of rare events related to the finite-horizon maxima of stochastic processes

Shao, Jun 12 December 2016 (has links)
Initiée dans le cadre d’un projet ANR (le projet MODNAT) ciblé sur la modélisation stochastique de phénomènes naturels et la quantification probabiliste de leurs effets dynamiques sur des systèmes mécaniques et structuraux, cette thèse a pour objet le calcul de probabilités d’événements rares liés aux maxima en horizon fini de processus stochastiques, avec prise en compte des quatre contraintes imposées suivantes : (1) l’ensemble des processus considérés doit contenir les quatre grandes catégories de processus rencontrés en dynamique aléatoire, à savoir les gaussiens stationnaires, les gaussiens non stationnaires, les non gaussiens stationnaires et les non gaussiens non stationnaires ; (2) ces processus doivent pouvoir être, soit décrits par leurs lois, soit fonctions de processus décrits par leurs lois, soit solutions d’équations différentielles stochastiques, soit même solutions d’inclusions différentielles stochastiques ; (3) les événements en question sont des dépassements de seuils très élevés par les maxima en horizon fini des processus considérés et ces événements sont de très faible occurrence, donc de très faible probabilité (de l’ordre de 10 −4 à 10 −8 ), du fait de la valeur élevée des seuils ; et enfin (4) le recours à une approche Monte-Carlo pour effectuer ce type de calcul doit être banni, car trop chronophage compte tenu des contraintes précédentes. Pour résoudre un tel problème, dont le domaine d’intérêt s’étend bien au delà de la mécanique probabiliste et de la fiabilité structurale (on le rencontre notamment dans tous les secteurs scientifiques en connexion avec la statistique des valeurs extrêmes, comme par exemple les mathématiques financières ou les sciences économiques) une méthode innovante est proposée, dont l’idée maîtresse est née de l’analyse des résultats d’une étude statistique de grande ampleur menée dans le cadre du projet MODNAT. Cette étude, qui porte sur l’analyse du comportement des valeurs extrêmes des éléments d’un vaste ensemble de processus, a en effet mis en évidence deux fonctions germes dépendant explicitement de la probabilité cible (la première en dépendant directement, la seconde indirectement via une probabilité conditionnelle auxiliaire elle-même fonction de la probabilité cible) et possédant des propriétés de régularité remarquables et récurrentes pour tous les processus de la base de données, et c’est sur l’exploitation conjointe de ces propriétés et d’un principe d’approximation bas niveau-extrapolation haut niveau que s’appuie la construction de la méthode. Deux versions de celle-ci en sont d’abord proposées, se distinguant par le choix de la fonction germe et dans chacune desquelles cette fonction est approximée par un polynôme. Une troisième version est également développée, basée sur le formalisme de la deuxième version mais utilisant pour la fonction germe une approximation de type "fonction de survie de Pareto". Les nombreux résultats numériques présentés attestent de la remarquable efficacité des deux premières versions. Ils montrent également que celles-ci sont de précision comparable. La troisième version, légèrement moins performante que les deux premières, présente quant à elle l’intérêt d’établir un lien direct avec la théorie des valeurs extrêmes. Dans chacune de ses trois versions, la méthode proposée constitue à l’évidence un progrès par rapport aux méthodes actuelles dédiées à ce type de problème. De par sa structure, elle offre en outre l’avantage de rester opérationnelle en contexte industriel. / Initiated within the framework of an ANR project (the MODNAT project) targeted on the stochastic modeling of natural hazards and the probabilistic quantification of their dynamic effects on mechanical and structural systems, this thesis aims at the calculation of probabilities of rare events related to the maxima of stochastic processes over a finite time interval, taking into account the following four constraints : (1) the set of considered processes must contain the four main categories of processes encountered in random dynamics, namely stationary Gaussian, non-stationary Gaussian, stationary non-Gaussian and non-stationary non-Gaussian ones ; (2) these processes can be either described by their distributions, or functions of processes described by their distributions, or solutions of stochastic differential equations, or solutions of stochastic differential inclusions ; (3) the events in question are crossings of high thresholds by the maxima of the considered processes over finite time intervals and these events are of very weak occurrence, hence of very small probability, due to the high size of thresholds ; and finally (4) the use of a Monte Carlo approach to perform this type of calculation must be proscribed because it is too time-consuming given the above constraints. To solve such a problem, whose field of interest extends well beyond probabilistic mechanics and structural reliability (it is found in all scientific domains in connection with the extreme values theory, such as financial mathematics or economical sciences), an innovative method is proposed, whose main idea emerged from the analysis of the results of a large-scale statistical study carried out within the MODNAT project. This study, which focuses on analyzing the behavior of the extreme values of elements of a large set of processes, has indeed revealed two germ functions explicitly related to the target probability (the first directly related, the second indirectly via a conditional auxiliary probability which itself depend on the target probability) which possess remarkable and recurring regularity properties for all the processes of the database, and the method is based on the joint exploitation of these properties and a "low level approximation-high level extrapolation" principle. Two versions of this method are first proposed, which are distinguished by the choice of the germ function and in each of which the latter is approximated by a polynomial. A third version has also been developed. It is based on the formalism of the second version but which uses as germ function an approximation of "Pareto survival function" type. The numerous presented numerical results attest to the remarkable effectiveness of the first two versions. They also show that they are of comparable precision. The third version, slightly less efficient than the first two, presents the interest of establishing a direct link with the extreme values theory. In each of its three versions, the proposed method is clearly an improvement compared to current methods dedicated to this type of problem. Thanks to its structure, it also offers the advantage of remaining operational in industrial context.
35

Analyse de survie bivariée à facteurs latents : théorie et applications à la mortalité et à la dépendance / Bivariate Survival Analysis with Latent Factors : Theory and Applications to Mortality and Long-Term Care

Lu, Yang 24 June 2015 (has links)
Cette thèse étudie quelques problèmes d’identification et d’estimation dans les modèles de survie bivariée, avec présence d’hétérogénéité individuelle et des facteurs communs stochastiques.Chapitre I introduit le cadre général.Chapitre II propose un modèle pour la mortalité des deux époux dans un couple. Il permet de distinguer deux types de dépendance : l’effet de deuil et l’effet lié au facteur de risque commun des deux époux. Une analyse de leurs effets respectifs sur les primes d’assurance écrites sur deux têtes est proposée.Chapitre III montre que, sous certaines hypothèses raisonnables, on peut identifier l’évolution jointe du risque d’entrer en dépendance et du risque de mortalité, à partir des données de mortalité par cohortes. Une application à la population française est proposée.Chapitre IV étudie la queue de distribution dans les modèles de survie bivariée. Sous certaines hypothèses, la loi jointe des deux durées résiduelles converge, après une normalisation adéquate. Cela peut être utilisé pour analyser le risque parmi les survivants aux âges élevés. Parallèlement, la distribution d’hétérogénéité parmi les survivants converge vers une distribution semi-paramétrique. / This thesis comprises three essays on identification and estimation problems in bivariate survival models with individual and common frailties.The first essay proposes a model to capture the mortality dependence of the two spouses in a couple. It allows to disentangle two types of dependencies : the broken heart syndrome and the dependence induced by common risk factors. An analysis of their respective effects on joint insurance premia is also proposed.The second essay shows that, under reasonable model specifications that take into account the longevity effect, we can identify the joint distribution of the long-term care and mortality risks from the observation of cohort mortality data only. A numerical application to the French population data is proposed.The third essay conducts an analysis of the tail of the joint distribution for general bivariate survival models with proportional frailty. We show that under appropriate assumptions, the distribution of the joint residual lifetimes converges to a limit distribution, upon normalization. This can be used to analyze the mortality and long-term care risks at advanced ages. In parallel, the heterogeneity distribution among survivors converges also to a semi-parametric limit distribution. Properties of the limit distributions, their identifiability from the data, as well as their implications are discussed.
36

On Evaluation and Modelling of Human Exposure to Vibration and Shock on Planing High-Speed Craft

Olausson, Katrin January 2015 (has links)
High speed in waves, necessary in for instance rescue or military operations, often result in severe loading on both the craft and the crew. To maximize the performance of the high-speed craft (HSC) system that the craft and crew constitute, balance between these loads is essential. There should be no overload or underuse of crew, craft or equipment. For small high-speed craft systems, man is often the weakest link. The human exposure to vibration and shock results in injuries and other adverse health effects, which increase the risks for non-safe operations and performance degradation of the crew and craft system. To achieve a system in balance, the human acceleration exposure must be considered early in ship design. It must also be considered in duty planning and in design and selection of vibration mitigation systems. The thesis presents a simulation-based method for prediction and evaluation of the acceleration exposure of the crew on small HSC. A numerical seat model, validated with experimental full-scale data, is used to determine the crew's acceleration exposure. The input to the model is the boat acceleration expressed in the time domain (simulated or measured), the total mass of the seated human, and seat specific parameters such as mass, spring stiffness and damping coefficients and the seat's longitudinal position in the craft. The model generates seat response time series that are evaluated using available methods for evaluation of whole-body vibration (ISO 2631-1 \&amp; ISO 2631-5) and statistical methods for calculation of extreme values. The presented simulation scheme enables evaluation of human exposure to vibration and shock at an early stage in the design process. It can also be used as a tool in duty planning, requirements specification or for design of appropriate vibration mitigation systems. Further studies is proposed within three areas: investigation of the actual operational profiles of HSC, further development of seat models and investigation of the prevailing injuries and health problems among the crew of HSC. / <p>QC 20150126</p>
37

Contribution de la Théorie des Valeurs Extrêmes à la gestion et à la santé des systèmes / Contribution of extreme value theory to systems management and health

Diamoutene, Abdoulaye 26 November 2018 (has links)
Le fonctionnement d'un système, de façon générale, peut être affecté par un incident imprévu. Lorsque cet incident a de lourdes conséquences tant sur l'intégrité du système que sur la qualité de ses produits, on dit alors qu'il se situe dans le cadre des événements dits extrêmes. Ainsi, de plus en plus les chercheurs portent un intérêt particulier à la modélisation des événements extrêmes pour diverses études telles que la fiabilité des systèmes et la prédiction des différents risques pouvant entraver le bon fonctionnement d'un système en général. C'est dans cette optique que s'inscrit la présente thèse. Nous utilisons la Théorie des Valeurs Extrêmes (TVE) et les statistiques d'ordre extrême comme outil d'aide à la décision dans la modélisation et la gestion des risques dans l'usinage et l'aviation. Plus précisément, nous modélisons la surface de rugosité de pièces usinées et la fiabilité de l'outil de coupe associé par les statistiques d'ordre extrême. Nous avons aussi fait une modélisation à l'aide de l'approche dite du "Peaks-Over Threshold, POT" permettant de faire des prédictions sur les éventuelles victimes dans l'Aviation Générale Américaine (AGA) à la suite d'accidents extrêmes. Par ailleurs, la modélisation des systèmes soumis à des facteurs d'environnement ou covariables passent le plus souvent par les modèles à risque proportionnel basés sur la fonction de risque. Dans les modèles à risque proportionnel, la fonction de risque de base est généralement de type Weibull, qui est une fonction monotone; l'analyse du fonctionnement de certains systèmes comme l'outil de coupe dans l'industrie a montré qu'un système peut avoir un mauvais fonctionnement sur une phase et s'améliorer sur la phase suivante. De ce fait, des modifications ont été apportées à la distribution de Weibull afin d'avoir des fonctions de risque de base non monotones, plus particulièrement les fonctions de risque croissantes puis décroissantes. En dépit de ces modifications, la prise en compte des conditions d'opérations extrêmes et la surestimation des risques s'avèrent problématiques. Nous avons donc, à partir de la loi standard de Gumbel, proposé une fonction de risque de base croissante puis décroissante permettant de prendre en compte les conditions extrêmes d'opérations, puis établi les preuves mathématiques y afférant. En outre, un exemple d'application dans le domaine de l'industrie a été proposé. Cette thèse est divisée en quatre chapitres auxquels s'ajoutent une introduction et une conclusion générales. Dans le premier chapitre, nous rappelons quelques notions de base sur la théorie des valeurs extrêmes. Le deuxième chapitre s'intéresse aux concepts de base de l'analyse de survie, particulièrement à ceux relatifs à l'analyse de fiabilité, en proposant une fonction de risque croissante-décroissante dans le modèle à risques proportionnels. En ce qui concerne le troisième chapitre, il porte sur l'utilisation des statistiques d'ordre extrême dans l'usinage, notamment dans la détection de pièces défectueuses par lots, la fiabilité de l'outil de coupe et la modélisation des meilleures surfaces de rugosité. Le dernier chapitre porte sur la prédiction d'éventuelles victimes dans l'Aviation Générale Américaine à partir des données historiques en utilisant l'approche "Peaks-Over Threshold" / The operation of a system in general may at any time be affected by an unforeseen incident. When this incident has major consequences on the system integrity and the quality of system products, then it is said to be in the context of extreme events. Thus, increasingly researchers have a particular interest in modeling such events with studies on the reliability of systems and the prediction of the different risks that can hinder the proper functioning of a system. This thesis takes place in this very perspective. We use Extreme Value Theory (EVT) and extreme order statistics as a decision support tool in modeling and risk management in industry and aviation. Specifically, we model the surface roughness of machined parts and the reliability of the associated cutting tool with the extreme order statistics. We also did a modeling using the "Peaks-Over Threshold, POT" approach to make predictions about the potential victims in the American General Aviation (AGA) following extreme accidents. In addition, the modeling of systems subjected to environmental factors or covariates is most often carried out by proportional hazard models based on the hazard function. In proportional hazard models, the baseline risk function is typically Weibull distribution, which is a monotonic function. The analysis of the operation of some systems like the cutting tool in the industry has shown that a system can deteriorated on one phase and improving on the next phase. Hence, some modifications have been made in the Weibull distribution in order to have non-monotonic basic risk functions, more specifically, the increasing-decreasing risk function. Despite these changes, taking into account extreme operating conditions and overestimating risks are problematics. We have therefore proposed from Gumbel's standard distribution, an increasingdecreasing risk function to take into account extreme conditions, and established mathematical proofs. Furthermore, an example of the application in the field of industry was proposed. This thesis is organized in four chapters and to this must be added a general introduction and a general conclusion. In the first chapter, we recall some basic notions about the Extreme Values Theory. The second chapter focuses on the basic concepts of survival analysis, particularly those relating to reliability analysis by proposing a function of increasing-decreasing hazard function in the proportional hazard model. Regarding the third chapter, it deals with the use of extreme order statistics in industry, particularly in the detection of defective parts, the reliability of the cutting tool and the modeling of the best roughness surfaces. The last chapter focuses on the prediction of potential victims in AGA from historical data using the Peaks-Over Threshold approach.
38

Wireless Link Quality Modelling and Mobility Management for Cellular Networks

Nguyen, Van Minh 20 June 2011 (has links) (PDF)
La qualité de communication dans un réseau sans fil est déterminée par la qualité du signal, et plus précisément par le rapport signal à interférence et bruit. Cela pousse chaque récepteur à se connecter à l'émetteur qui lui donne la meilleure qualité du signal. Nous utilisons la géométrie stochastique et la théorie des extrêmes pour obtenir la distribution de la meilleure qualité du signal, ainsi que celles de interférence et du maximum des puissances reçues. Nous mettons en évidence comment la singularité de la fonction d'affaiblissement modifie leurs comportements. Nous nous intéressons ensuite au comportement temporel des signaux radios en étudiant le franchissement de seuils par un processus stationnaire X (t). Nous démontrons que l'intervalle de temps que X (t) passe au-dessus d'un seuil γ → −∞ suit une distribution exponentielle, et obtenons 'egalement des r'esultats caract'erisant des franchissements par X (t) de plusieurs seuils adjacents. Ces r'esultats sont ensuite appliqu'es 'a la gestion de mobilit'e dans les r'eseaux cellulaires. Notre travail se concentre sur la fonction de 'handover measurement'. Nous identifions la meilleure cellule voisine lors d'un handover. Cette fonction joue un rôle central sur expérience perçue par l'utilisateur. Mais elle demande une coopération entre divers mécanismes de contrôle et reste une question difficile. Nous traitons ce problème en proposant des approches analytiques pour les réseaux émergents de types macro et pico cellulaires, ainsi qu'une approche d'auto- optimisation pour les listes de voisinage utilisées dans les réseaux cellulaires actuels.
39

Extremvärdesanalys (SEV) av högkvalitativt verktygsstål : Uppskattning av maximal inneslutningsstorlek i pulverstål / Extreme values analysis (SEV) of high performance tool steel : Prediction of maximum inclusion size in powder steel

Pernefur, Emil January 2017 (has links)
This work were requested by Uddeholms AB. Uddeholm is the worldś leading manufacturer of high performance tool steel for industrial tools. The company exists worldwide and is present in over 100 countries. One of the company’s main production processes is manufacturing powder steels with extremely high quality. In this work, one of these steels has been analyzed to evaluate the presence and distribution of non-metallic inclusions. Higher demands on quality and more global competition worldwide means that you always have to strive towards perfection in the manufacturing processes. Non-metallic inclusions have severe effects on the mechanical properties of steels. That's why it's of utmost importance to investigate their presence in the tool steel and especially their size. The reason for this is because it's the largest inclusions that's the most dangerous for the material. To obtain a statistically number of certainty of the largest of inclusions, very vast areas of steel have to be examined. Therefore a theoretical method of extrapolation is often used instead to approximate the distribution of the largest inclusions. The precision of this method is still very uncertain. Different methods of this kind of analysis do exist. The method applied in this work of degree is extreme values analysis by statistics of extreme values (SEV). To ensure the pre-conditions of the extreme values analysis, a large quantity of powder steel was analyzed. This was done by light-optic microscopy (LOM) and exclusively performed by Uddeholms AB at their R&amp;D-facility (Research and development-facility) in Hagfors. At Karlstad Universityś test-facility specimens were subjected to ultrasonic fatigue testing at 20 kHz. The specimens derived from the same material as the ones examined in LOM. The result from the ultrasonic fatigue testing were that the largest inclusions in the material were found. This was done by applying very high cycle fatigue (VHCF). To calculate the maximum theoretical inclusion size, SEV was used. The extreme values analysis was performed on gathered data from both LOM and VHCF. All fracture surfaces from the ultrasonic fatigue testing were then examined in scanning electron microscope (SEM) at Karlstad University. In SEM, the largest inclusion in every fractured surface was identified and measured. The maximum real inclusion size from the fractured surfaces was then compared to the maximum theoretically calculated inclusion size from the extreme values analysis. As it turned out the real inclusion size proved to be slightly larger than the theoretical. The difference between them was found to be 3,25 µm. Conclusions drawn were that Uddeholms powder steel exhibits very high purity and that extreme values analysis as an analytical method is recommended. However, the analysis should be repeated to underline the chosen solution methodology.
40

Contribution à la modélisation spatiale des événements extrêmes / Contributions to modeling spatial extremal events and applications

Bassene, Aladji 06 May 2016 (has links)
Dans cette de thèse, nous nous intéressons à la modélisation non paramétrique de données extrêmes spatiales. Nos résultats sont basés sur un cadre principal de la théorie des valeurs extrêmes, permettant ainsi d’englober les lois de type Pareto. Ce cadre permet aujourd’hui d’étendre l’étude des événements extrêmes au cas spatial à condition que les propriétés asymptotiques des estimateurs étudiés vérifient les conditions classiques de la Théorie des Valeurs Extrêmes (TVE) en plus des conditions locales sur la structure des données proprement dites. Dans la littérature, il existe un vaste panorama de modèles d’estimation d’événements extrêmes adaptés aux structures des données pour lesquelles on s’intéresse. Néanmoins, dans le cas de données extrêmes spatiales, hormis les modèles max stables,il n’en existe que peu ou presque pas de modèles qui s’intéressent à l’estimation fonctionnelle de l’indice de queue ou de quantiles extrêmes. Par conséquent, nous étendons les travaux existants sur l’estimation de l’indice de queue et des quantiles dans le cadre de données indépendantes ou temporellement dépendantes. La spécificité des méthodes étudiées réside sur le fait que les résultats asymptotiques des estimateurs prennent en compte la structure de dépendance spatiale des données considérées, ce qui est loin d’être trivial. Cette thèse s’inscrit donc dans le contexte de la statistique spatiale des valeurs extrêmes. Elle y apporte trois contributions principales. • Dans la première contribution de cette thèse permettant d’appréhender l’étude de variables réelles spatiales au cadre des valeurs extrêmes, nous proposons une estimation de l’indice de queue d’une distribution à queue lourde. Notre approche repose sur l’estimateur de Hill (1975). Les propriétés asymptotiques de l’estimateur introduit sont établies lorsque le processus spatial est adéquatement approximé par un processus M−dépendant, linéaire causal ou lorsqu'il satisfait une condition de mélange fort (a-mélange). • Dans la pratique, il est souvent utile de lier la variable d’intérêt Y avec une co-variable X. Dans cette situation, l’indice de queue dépend de la valeur observée x de la co-variable X et sera appelé indice de queue conditionnelle. Dans la plupart des applications, l’indice de queue des valeurs extrêmes n’est pas l’intérêt principal et est utilisé pour estimer par exemple des quantiles extrêmes. La contribution de ce chapitre consiste à adapter l’estimateur de l’indice de queue introduit dans la première partie au cadre conditionnel et d’utiliser ce dernier afin de proposer un estimateur des quantiles conditionnels extrêmes. Nous examinons les modèles dits "à plan fixe" ou "fixed design" qui correspondent à la situation où la variable explicative est déterministe et nous utlisons l’approche de la fenêtre mobile ou "window moving approach" pour capter la co-variable. Nous étudions le comportement asymptotique des estimateurs proposés et donnons des résultats numériques basés sur des données simulées avec le logiciel "R". • Dans la troisième partie de cette thèse, nous étendons les travaux de la deuxième partie au cadre des modèles dits "à plan aléatoire" ou "random design" pour lesquels les données sont des observations spatiales d’un couple (Y,X) de variables aléatoires réelles. Pour ce dernier modèle, nous proposons un estimateur de l’indice de queue lourde en utilisant la méthode des noyaux pour capter la co-variable. Nous utilisons un estimateur de l’indice de queue conditionnelle appartenant à la famille de l’estimateur introduit par Goegebeur et al. (2014b). / In this thesis, we investigate nonparametric modeling of spatial extremes. Our resultsare based on the main result of the theory of extreme values, thereby encompass Paretolaws. This framework allows today to extend the study of extreme events in the spatialcase provided if the asymptotic properties of the proposed estimators satisfy the standardconditions of the Extreme Value Theory (EVT) in addition to the local conditions on thedata structure themselves. In the literature, there exists a vast panorama of extreme events models, which are adapted to the structures of the data of interest. However, in the case ofextreme spatial data, except max-stables models, little or almost no models are interestedin non-parametric estimation of the tail index and/or extreme quantiles. Therefore, weextend existing works on estimating the tail index and quantile under independent ortime-dependent data. The specificity of the methods studied resides in the fact that theasymptotic results of the proposed estimators take into account the spatial dependence structure of the relevant data, which is far from trivial. This thesis is then written in thecontext of spatial statistics of extremes. She makes three main contributions.• In the first contribution of this thesis, we propose a new approach of the estimatorof the tail index of a heavy-tailed distribution within the framework of spatial data. This approach relies on the estimator of Hill (1975). The asymptotic properties of the estimator introduced are established when the spatial process is adequately approximated by aspatial M−dependent process, spatial linear causal process or when the process satisfies a strong mixing condition.• In practice, it is often useful to link the variable of interest Y with covariate X. Inthis situation, the tail index depends on the observed value x of the covariate X and theunknown fonction (.) will be called conditional tail index. In most applications, the tailindexof an extreme value is not the main attraction, but it is used to estimate for instance extreme quantiles. The contribution of this chapter is to adapt the estimator of the tail index introduced in the first part in the conditional framework and use it to propose an estimator of conditional extreme quantiles. We examine the models called "fixed design"which corresponds to the situation where the explanatory variable is deterministic. To tackle the covariate, since it is deterministic, we use the window moving approach. Westudy the asymptotic behavior of the estimators proposed and some numerical resultsusing simulated data with the software "R".• In the third part of this thesis, we extend the work of the second part of the framemodels called "random design" for which the data are spatial observations of a pair (Y,X) of real random variables . In this last model, we propose an estimator of heavy tail-indexusing the kernel method to tackle the covariate. We use an estimator of the conditional tail index belonging to the family of the estimators introduced by Goegebeur et al. (2014b).

Page generated in 0.061 seconds