• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 13
  • 10
  • 1
  • 1
  • 1
  • Tagged with
  • 41
  • 41
  • 18
  • 17
  • 10
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Valeurs extrêmes : covariables et cadre bivarié / Extreme values : covariates and bivariate case

Schorgen, Antoine 21 September 2012 (has links)
Cette thèse aborde deux sujets peu traités dans la littérature concernant le théorie des valeurs extrêmes : celui des observations en présence de covariables et celui des mesures de dépendance pour des paires d'observations. Dans la première partie de cette thèse, nous avons considéré le cas où la variable d'intérêt est observée simultanément avec une covariable, pouvant être fixe ou aléatoire. Dans ce contexte, l'indice de queue dépend de la covariable et nous avons proposé des estimateurs de ce paramètre dont nous avons étudié les propriétés asymptotiques. Leurs comportements à distance finie ont été validés par simulations. Puis, dans la deuxième partie, nous nous sommes intéressés aux extrêmes multivariés et plus particulièrement à mesurer la dépendance entre les extrêmes. Dans une situation proche de l'indépendance asymptotique, il est très difficile de mesurer cette dépendance et de nouveaux modèles doivent être introduits. Dans ce contexte, nous avons adapté un outil de géostatistique, le madogramme, et nous avons étudié ses propriétés asymptotiques. Ses performances sur simulations et données réelles ont également été exhibées. Cette thèse offre de nombreuses perspectives, tant sur le plan pratique que théorique dont une liste non exhaustive est présentée en conclusion de la thèse. / This thesis presents a study of the extreme value theory and is focused on two subjects rarely analyzed: observations associated with covariates and dependence measures for pairs of observations.In the first part, we considered the case where the variable of interest is simultaneously recorded with a covariate which can be either fixed or random. The conditional tail index then depends on the covariate and we proposed several estimators with their asymptotic properties. Their behavior have been approved by simulations.In the second part, we were interested in multivariate extremes and more particularly in measuring the dependence between them. In a case of near asymptotic independence, we have to introduce new models in order to measure the dependence properly. In this context, we adapted a geostatistical tool, the madogram, and studied its asymptotic properties. We completed the study with simulations and real data of precipitations.
12

Étude probabiliste des contraintes de bout en bout dans les systèmes temps réel / Probabilistic study of end-to-end constraints in real-time systems

Maxim, Cristian 11 December 2017 (has links)
L'interaction sociale, l'éducation et la santé ne sont que quelques exemples de domaines dans lesquels l'évolution rapide de la technologie a eu un grand impact sur la qualité de vie. Les entreprises s’appuient de plus en plus sur les systèmes embarqués pour augmenter leur productivité, leur efficacité et leurs valeurs. Dans les usines, la précision des robots tend à remplacer la polyvalence humaine. Bien que les appareils connectés comme les drônes, les montres intelligentes ou les maisons intelligentes soient de plus en plus populaires ces dernières années, ce type de technologie a été utilisé depuis longtemps dans les industries concernées par la sécurité des utilisateurs. L’industrie avionique utilise des ordinateurs pour ses produits depuis 1972 avec la production du premier avion A300; elle a atteint des progrès étonnants avec le développement du premier avion Concorde en 1976 en dépassant de nombreuses années les avions de son époque, et ça a été considéré comme un miracle de la technologie. Certaines innovations et connaissances acquises pour le Concorde sont toujours utilisées dans les modèles récents comme A380 ou A350. Un système embarqué est un système à microprocesseur qui est construit pour contrôler une fonction ou une gamme de fonctions et qui n’est pas conçu pour être programmé par l'utilisateur final de la même manière qu'un ordinateur personnel. Un système temps-réel est un système de traitement de l’information qui doit répondre aux stimuli d’entrées générées de manière externe dans une période finie et spécifiée. Le comportement de ces systèmes prend en compte non seulement l'exactitude dépend non seulement du résultat logique mais aussi du temps dans lequel il a été livré. Les systèmes temps-réel peuvent être trouvés dans des industries comme l'aéronautique, l'aérospatiale, l'automobile ou l’industrie ferroviaire mais aussi dans les réseaux de capteurs, les traitements d'image, les applications multimédias, les technologies médicales, les robotiques, les communications, les jeux informatiques ou les systèmes ménagers. Dans cette thèse, nous nous concentrons sur les systèmes temps-réel embarqués et pour la facilité des notations, nous leur nommons simplement des systèmes temps réel. Nous pourrions nous référer aux systèmes cyber-physiques si tel est le cas. Le pire temps d’exécution (WCET) d'une tâche représente le temps maximum possible pour qu’elle soit exécutée. Le WCET est obtenu après une analyse de temps et souvent il ne peut pas être déterminé avec précision en déterminant toutes les exécutions possibles. C'est pourquoi, dans l'industrie, les mesures sont faites uniquement sur un sous-ensemble de scénarios possibles, celui qui générerait les temps d'exécution les plus élevés, et une limite supérieure de temps d’exécution est estimé en ajoutant une marge de sécurité au plus grand temps observé. L’analyses de temps est un concept clé qui a été utilisé dans les systèmes temps-réel pour affecter une limite supérieure aux WCET des tâches ou des fragments de programme. Cette affectation peut être obtenue soit par analyse statique, soit par analyse des mesures. Les méthodes statiques et par mesure, dans leurs approches déterministes, ont tendance à être extrêmement pessimistes. Malheureusement, ce niveau de pessimisme et le sur-provisionnement conséquent ne peut pas être accepté par tous les systèmes temps-réels, et pour ces cas, d'autres approches devraient être prises en considération. / In our times, we are surrounded by technologies meant to improve our lives, to assure its security, or programmed to realize different functions and to respect a series of constraints. We consider them as embedded systems or often as parts of cyber-physical systems. An embedded system is a microprocessor-based system that is built to control a function or a range of functions and is not designed to be programmed by the end user in the same way that a PC is. The Worst Case Execution Time (WCET) of a task represents the maximum time it can take to be executed. The WCET is obtained after analysis and most of the time it cannot be accurately determined by exhausting all the possible executions. This is why, in industry, the measurements are done only on a subset of possible scenarios (the one that would generate the highest execution times) and an execution time bound is estimated by adding a safety margin to the greatest observed time. Amongst all branches of real-time systems, an important role is played by the Critical Real-Time Embedded Systems (CRTES) domain. CRTESs are widely being used in fields like automotive, avionics, railway, health-care, etc. The performance of CRTESs is analyzed not only from the point of view of their correctness, but also from the perspective of time. In the avionics industry such systems have to undergo a strict process of analysis in order to fulfill a series of certification criteria demanded by the certifications authorities, being the European Aviation Safety Agency (EASA) in Europe or the Federal Aviation Administration (FAA) in United States. The avionics industry in particular and the real-time domain in general are known for being conservative and adapting to new technologies only when it becomes inevitable. For the avionics industry this is motivated by the high cost that any change in the existing functional systems would bring. Any change in the software or hardware has to undergo another certification process which cost the manufacturer money, time and resources. Despite their conservative tendency, the airplane producers cannot stay inactive to the constant change in technology and ignore the performance benefices brought by COTS processors which nowadays are mainly multi-processors. As a curiosity, most of the microprocessors found in airplanes flying actually in the world, have a smaller computation power than a modern home PC. Their chips-sets are specifically designed for embedded applications characterized by low power consumption, predictability and many I/O peripherals. In the actual context, where critical real-time systems are invaded by multi-core platforms, the WCET analysis using deterministic approaches becomes difficult, if not impossible. The time constraints of real-time systems need to be verified in the context of certification. This verification, done during the entire development cycle, must take into account architectures more and more complex. These architectures increase the cost and complexity of actual, deterministic, tools to identify all possible time constrains and dependencies that can occur inside the system, risking to overlook extreme cases. An alternative to these problems is the probabilistic approach, which is more adapted to deal with these hazards and uncertainty and which allows a precise modeling of the system. 2. Contributions. The contribution of the thesis is three folded containing the conditions necessary for using the theory of extremes on executions time measurements, the methods developed using the theory of extremes for analyzing real-time systems and experimental results. 2.1. Conditions for use of EVT in the real-time domain. In this chapter we establish the environment in which our work is done. The use of EVT in any domain comes with a series of restrictions for the data being analyzed. In our case the data being analyzed consists in execution time measurements.
13

Apprentissage automatique et extrêmes pour la détection d'anomalies / Machine learning and extremes for anomaly detection

Goix, Nicolas 28 November 2016 (has links)
La détection d'anomalies est tout d'abord une étape utile de pré-traitement des données pour entraîner un algorithme d'apprentissage statistique. C'est aussi une composante importante d'une grande variété d'applications concrètes, allant de la finance, de l'assurance à la biologie computationnelle en passant par la santé, les télécommunications ou les sciences environnementales. La détection d'anomalies est aussi de plus en plus utile au monde contemporain, où il est nécessaire de surveiller et de diagnostiquer un nombre croissant de systèmes autonomes. La recherche en détection d'anomalies inclut la création d'algorithmes efficaces accompagnée d'une étude théorique, mais pose aussi la question de l'évaluation de tels algorithmes, particulièrement lorsque l'on ne dispose pas de données labellisées -- comme dans une multitude de contextes industriels. En d'autres termes, l'élaboration du modèle et son étude théorique, mais aussi la sélection du modèle. Dans cette thèse, nous abordons ces deux aspects. Tout d'abord, nous introduisons un critère alternatif au critère masse-volume existant, pour mesurer les performances d'une fonction de score. Puis nous nous intéressons aux régions extrêmes, qui sont d'un intérêt particulier en détection d'anomalies, pour diminuer le taux de fausse alarme. Enfin, nous proposons deux méthodes heuristiques, l'une pour évaluer les performances d'algorithmes de détection d'anomalies en grande dimension, l'autre pour étendre l'usage des forets aléatoires à la classification à une classe. / Anomaly detection is not only a useful preprocessing step for training machine learning algorithms. It is also a crucial component of many real-world applications, from various fields like finance, insurance, telecommunication, computational biology, health or environmental sciences. Anomaly detection is also more and more relevant in the modern world, as an increasing number of autonomous systems need to be monitored and diagnosed. Important research areas in anomaly detection include the design of efficient algorithms and their theoretical study but also the evaluation of such algorithms, in particular when no labeled data is available -- as in lots of industrial setups. In other words, model design and study, and model selection. In this thesis, we focus on both of these aspects. We first propose a criterion for measuring the performance of any anomaly detection algorithm. Then we focus on extreme regions, which are of particular interest in anomaly detection, to obtain lower false alarm rates. Eventually, two heuristic methods are proposed, the first one to evaluate anomaly detection algorithms in the case of high dimensional data, the other to extend the use of random forests to the one-class setting.
14

Statistical analysis of traffic loads and their effects on bridges / Analyse statistique des charges de trafic et de leurs effets sur les ouvrages d'art

Zhou, Xiao Yi 15 May 2013 (has links)
Pour les ouvrages neufs, les modèles de trafic dans les normes ou les législations pour la conception des ponts incluent une marge de sécurité suffisante pour que la croissance du trafic soit prise en compte sans dommage par ces ouvrages. Les fondements et les utilisations faites de ces méthodes pour modéliser les effets extrêmes du trafic sur les ouvrages sont donnés dans un premier chapitre. Différentes méthodes sont ainsi étudiées, telles la méthode des moments (MM), la méthode des moments à poids (PWM), le maximum de vraisemblance (ML), le maximum de vraisemblance pénalisé (PML), le minimum de la densité de la divergence (MDPD), la méthode des fractiles empiriques (EPM), la statistique du maximum d'adaptation et la vraisemblance des moments (LM). Pour comparer ces méthodes, des échantillons numériques, des effets de trafic simulés par Monte Carlo et des effets mesurés sur un ouvrage réel sont utilisés. Pour des effets du trafic simulés, ML et PML donne des valeurs de retour plus correctes lorsque le nombre de valeurs au-dessus du seuil est supérieur à 100 ; Des méthodes permettant de prendre en compte ce point et utilisant des distributions mélangées (exponentielles ou valeurs extrêmes généralisées) ont été proposées dans la littérature pour modéliser les effets du trafic. Pour des ponts ayant des portées supérieures à 50m, le scénario déterminant est celui de la congestion, qui n'est pas ce qui est étudié ici. De plus, le trafic n'est pas la composante déterminante pour la conception des ponts de longue portée. Mais des problèmes de fatigue peuvent apparaître dans certains ponts, tels les ponts métalliques à dalle orthotrope, où l'étude du trafic peut devenir nécessaire. Ainsi nous avons fait une étude de l'influence de la position des véhicules sur le phénomène de fatigue. Pour cela, quatre fichiers de trafic réels, mesurés en 2010 et 2011 par quatre stations de pesage différentes, ont été utilisés. Ils ont mis à jour des comportements latéraux différents d'une station à l'autre. Si nous les appliquons au viaduc de Millau, qui est un pont métallique à haubans et à dalle orthotrope, nous voyons que l'histogramme des effets et l'effet de fatigue cumulé est beaucoup affecté par le comportement latéral des véhicules. Ainsi, des études approfondies utilisant les éléments finis pour modéliser les ouvrages et des enregistrements de trafic réel, peuvent être utilisées pour pré-déterminer quels éléments, donc quelles soudures, doivent être examinés dans les ponts afin d'estimer leur santé structurelle / Traffic load model in standard or specification for bridge design should guarantee all newly designed bridges to have sufficient security margin for future traffic. Many different methods have been used to model extreme traffic load effects on bridges for predicting characteristic value for short or long return period. In order to provide some guidance on selecting parameter estimation when applying POT to bridge traffic loading, we focus on the effect that method used to estimate the parameters of the GPD has on the accuracy of the estimated characteristic values. Through this qualitative discussion on the methods, several available methods for traffic loading are selected. Numerical simulation data, Monte Carlo simulation traffic load effects and in-field traffic load effect measurements are analyzed and presented. Literature points out that the traffic load effect is induced by loading event that involves different number of vehicles, and the distribution of the load effects from different loading events are not identically distributed, which violates the assumption of classic extreme value theory that the underlying distribution should be identically independent distributed. Methods using mixture distribution (exponential or generalized extreme value) has been proposed in the literature to model the extreme traffic load effect by loading event. However, the traffic loading may be also importance if the bridge encounter traffic induced fatigue problem, components like orthotropic steel deck is governed by traffic induced fatigue load effects. We intend to explore the influence of traffic load on the fatigue behaviour of orthotropic steel deck, especially the influence of the loading position in terms of transverse location of vehicle. Measurements of transverse location of vehicle collected from by weigh-in-motion (WIM) systems in 2010 and 2011 four French highways showed a completely different distribution model of transverse location of vehicle to that recommended in EC1. Stress spectrum analysis and fatigue damage calculation was performed on the stresses induced traffic on orthotropic steel deck of Millau cable-stayed bridge. By comparing the stresses and damages induced by different traffic patterns (through distributions of transverse location of vehicle), it was found that the histogram of stress spectrum and cumulative fatigue damage were significantly affected by the distribution of transverse location of vehicle. Therefore, numerical analysis that integrates finite element modelling and traffic data with distributions of transverse location of vehicles can help to make an accurate predetermination of which welded connections should be sampled to represent the health of the deck
15

Teorie extrémních hodnot v aktuárských vědách / Extreme Value Theory in Actuarial Sciences

Jamáriková, Zuzana January 2013 (has links)
This thesis is focused on the models based on extreme value theory and their practical applications. Specifically are described the block maxima models and the models based on threshold exceedances. Both of these methods are described in thesis theoretically. Apart from theoretical description there are also practical calculations based on simulated or real data. The applications of block maxima models are focused on choice of block size, suitability of the models for specific data and possibilities of extreme data analysis. The applications of models based on threshold exceedances are focused on choice of threshold and on suitability of the models. There is an example of the model used for calculations of reinsurance premium for extreme claims in the case of nonproportional reinsurance.
16

Valeurs centrales et valeurs au bord de la bande critique de fonctions L automorphes / Central Values and Values At the Edge of the Critical Strip of Automorphic L-functions

Xiao, Xuanxuan 06 May 2015 (has links)
Cette thèse, constitué en trois parties, est consacrée à l'étudie des valeurs spéciales de fonctions L automorphes. La première partie contient un survol rapide de la théorie des formes modulaires et des fonctions L de puissance symétrique associées qui est nécessaire dans la suite. Dans la seconde partie, nous nous concentrons sur les valeurs centrales, par l'étude des moments intégraux dans petit intervalle, pour les fonctions L automorphes. On prouve la conjecture de Conrey et al. et donne l'ordre exact pour les moments sous l'hypothèse de Riemann généralisée. La troisième partie présente des travaux sur les valeurs en s=1 de la fonction L de puissance symétrique en l'aspect de niveau-poids. On généralise et/ou améliore les résultats sur l'encadrement de la fonction L de puissance symétrique, la conjecture de Montgomery-Vaughan et également la fonction de répartition. Une application des valeurs extrêmes sur la distribution des coefficients des formes primitives concernant la conjecture de Sato-Tate est donnée / Special values of automorphic L-functions are considered in this work in three parts. In the first part, elementary information about automorphic forms and associated symmetric power L-functions, which will be very useful in the following parts, is introduced. In the second part, we study the central values, in the form of higher moment in short interval, of automorphic L-functions and give a proof for the conjecture of Conrey et al. to get the sharp bound for the moment under Generalized Riemann Hypothesis. In the last part, values of automorphic L-functions at s=1 are considered in level-weight aspect. We generalize and/or improve related early results about the bounds of values at s=1, the Montgomery-Vaughan's conjecture and distribution functions. As an application of our results on extreme values, the distribution of coefficients of primitive forms concerning the Sato-Tate conjecture is studied
17

Assinaturas dinâmicas de um sistema coerente com aplicações / Dynamic signatures of a coherent system with applications.

Flor, José Alberto Ramos 27 February 2012 (has links)
O objetivo da dissertação é analisar a assinatura em um contexto geral que considera a dinâmica no tempo e a dependência estocástica, utilizando a teoria de martingais para processos pontuais. / The main goal in this work is to analyse the signature structure in a broader context considering time dynamics and stochastic dependence using the point processes martingale theory.
18

Control of Alloy Composition and Evaluation of Macro Inclusions during Alloy Making

Kanbe, Yuichi January 2010 (has links)
In order to obtain a good performance and predict the properties of alloys, it is necessary to control the contents of alloying elements and to evaluate a largest inclusion in the product. Thus, improved techniques for both control of alloy elements and evaluation of the large inclusion in products will enable us to provide better qualities of the final products. In the case of one Ni alloy, (NW2201, >99 mass%Ni), the precise control technique of Mg content is important to obtain a good hot-workability. Hereby, the slag/metal reaction experiments in a laboratory have been carried out at 1873 K, so that the equilibrium Mg content and kinetic behavior can be understood. More addition of Al in the melt as well as higher CaO/Al2O3 value of slag resulted in higher amount of Mg content in Ni. For the same conditions of Al content and slag composition, the mass transfer coefficient of Mg in molten Ni was determined as 0.0175 cm/s. By applying several countermeasures regarding the equilibrium and kinetic process to the plant trials, the value of the standard deviation for the Mg content in an alloy was decreased till 0.003 from 0.007 mass%. The size measurements of largest inclusions in the various alloys (an Fe-10mass%Ni alloy, 17CrMo4 of low-C steel and 304 stainless steel) were carried out by using statistics of extreme values (SEV). In order to improve the prediction accuracy of this method, three dimensional (3D) observations were applied after electrolytic extraction. In addition, the relationship of extreme value distribution (EVD) in the different stages of the production processes was studied. This was done to predict the largest inclusion in the products at an early stage of the process. A comparison of EVDs for single Al2O3 inclusion particles obtained by 2D and 3D observations has clarified that 3D observations result in more accurate EVD because of the absence of pores. Also, it was found that EVD of clusters were larger than that of single particles. In addition, when applying SEV to sulfide inclusions with various morphologies, especially for elongated sulfides, the real maximum sizes of them were able to be measured by 3D observations. Geometrical considerations of these particles clarified the possibility of an appearance of the real maximum inclusion sizes on a cross section to be low. The EVDs of deoxidation products in 304 stainless steel showed good agreement between the molten steel and slab samples of the same heat. Furthermore, the EVD of fractured inclusion lengths in the rolled steel were estimated from the initial sizes of undeformed inclusions which were equivalent with fragmented inclusions. On the other hand, from the viewpoint of inclusion width, EVD obtained from perpendicular cross section of strips was found to be useful to predict the largest inclusion in the final product with less time consumption compared to a slab sample. In summary, it can be concluded that the improvement of the techniques by this study has enabled to precisely control of alloy compositions as well as to evaluate the largest inclusion size in them more accurately and at an earlier stage of the production process. / QC 20101222
19

Estudio de la variabilidad climática de valores extremos de oleaje

Izaguirre Lasa, Cristina 21 December 2010 (has links)
Esta tesis doctoral se ha centrado en el estudio de la variabilidad climática de los valores extremos de oleaje, abordando distintas escalas espaciales, en las que se tienen en cuenta los procesos físicos propios de cada una de ellas, y diferentes escalas temporales. Se han utilizado distintos modelos y técnicas estadísticas aportando avances y mejoras en ellos. Se ha hecho un análisis histórico con distintas bases de datos caracterizando el clima marítimo extremal en profundidades indefinidas, a escala global y regional (Sur de Europa y América Latina) y en profundidades reducidas (Mediterráneo español y Golfo de Cádiz). Se han estudiado también las proyecciones de clima marítimo extremal a distintos escenarios de cambio climático, para lo que se aporta una metodología innovadora basada en un downscaling estadístico que combina climatología sinóptica y extremos de oleaje. / The study of extreme wave climate variability dealing with different spatial and temporal scales is presented. We have conducted the characterization of extreme wave climate in deep and shallow waters using different numerical models and statistical methods which have been tested and improved. First, a historical analysis of wave data has been performed analyzing temporal variability of global and regional (South of Europe and South America) extreme wave height. In the local scale an integral methodology has been developed to characterize extreme wave climate variability in shell waters and has been applied to the Spanish Mediterranean coasts. The study of climate change projections of extreme wave heights is also conducted. A new methodology based on statistical downscaling, which combines synoptic climatology with extreme wave events, has been developed to project the extreme wave height to different climate change scenarios.
20

Modélisation des Liens de Communication Radio et Optimisation de la Gestion de Mobilité dans les Réseaux Cellulaires

Nguyen, Van Minh 20 June 2011 (has links) (PDF)
La qualité de communication dans un réseau sans fil est déterminée par la qualité du signal, et plus précisément par le rapport signal à interférence et bruit. Cela pousse chaque récepteur à se connecter à l'émetteur qui lui donne la meilleure qualité du signal. Nous utilisons la géométrie stochastique et la théorie des extrêmes pour obtenir la distribution de la meilleure qualité du signal, ainsi que celles de l'interférence et du maximum des puissances reçues. Nous mettons en évidence comment la singularité de la fonction d'affaiblissement modifie leurs comportements. Nous nous intéressons ensuite au comportement temporel des signaux radios en étudiant le franchissement de seuils par un processus stationnaire $X(t)$. Nous démontrons que l'intervalle de temps que $X(t)$ passe au-dessus d'un seuil $\gamma \to -\infty$ suit une distribution exponentielle, et obtenons également des résultats caractérisant des franchissements par $X(t)$ de plusieurs seuils adjacents. Ces résultats sont ensuite appliqués à la gestion de mobilité dans les réseaux cellulaires. Notre travail se concentre sur la fonction de 'handover measurement'. Nous identifions la meilleure cellule voisine lors d'un handover. Cette fonction joue un rôle central sur l'expérience perçue par l'utilisateur. Mais reste une question ouverte à cause des difficultés posées par la coopération entre plusieurs mécanismes de contrôle qu'elle nécessite. Nous traitons ce problème en proposant des approches analytiques pour les réseaux émergents de types macro et pico cellulaires, ainsi qu'une approche d'auto-optimisation pour les listes de voisinage utilisées dans les réseaux cellulaires actuels.

Page generated in 0.1043 seconds