• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 111
  • 42
  • 14
  • 1
  • 1
  • Tagged with
  • 162
  • 59
  • 54
  • 40
  • 30
  • 27
  • 27
  • 25
  • 24
  • 23
  • 23
  • 20
  • 20
  • 20
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Contribution à la modélisation spatiale des événements extrêmes / Contributions to modeling spatial extremal events and applications

Bassene, Aladji 06 May 2016 (has links)
Dans cette de thèse, nous nous intéressons à la modélisation non paramétrique de données extrêmes spatiales. Nos résultats sont basés sur un cadre principal de la théorie des valeurs extrêmes, permettant ainsi d’englober les lois de type Pareto. Ce cadre permet aujourd’hui d’étendre l’étude des événements extrêmes au cas spatial à condition que les propriétés asymptotiques des estimateurs étudiés vérifient les conditions classiques de la Théorie des Valeurs Extrêmes (TVE) en plus des conditions locales sur la structure des données proprement dites. Dans la littérature, il existe un vaste panorama de modèles d’estimation d’événements extrêmes adaptés aux structures des données pour lesquelles on s’intéresse. Néanmoins, dans le cas de données extrêmes spatiales, hormis les modèles max stables,il n’en existe que peu ou presque pas de modèles qui s’intéressent à l’estimation fonctionnelle de l’indice de queue ou de quantiles extrêmes. Par conséquent, nous étendons les travaux existants sur l’estimation de l’indice de queue et des quantiles dans le cadre de données indépendantes ou temporellement dépendantes. La spécificité des méthodes étudiées réside sur le fait que les résultats asymptotiques des estimateurs prennent en compte la structure de dépendance spatiale des données considérées, ce qui est loin d’être trivial. Cette thèse s’inscrit donc dans le contexte de la statistique spatiale des valeurs extrêmes. Elle y apporte trois contributions principales. • Dans la première contribution de cette thèse permettant d’appréhender l’étude de variables réelles spatiales au cadre des valeurs extrêmes, nous proposons une estimation de l’indice de queue d’une distribution à queue lourde. Notre approche repose sur l’estimateur de Hill (1975). Les propriétés asymptotiques de l’estimateur introduit sont établies lorsque le processus spatial est adéquatement approximé par un processus M−dépendant, linéaire causal ou lorsqu'il satisfait une condition de mélange fort (a-mélange). • Dans la pratique, il est souvent utile de lier la variable d’intérêt Y avec une co-variable X. Dans cette situation, l’indice de queue dépend de la valeur observée x de la co-variable X et sera appelé indice de queue conditionnelle. Dans la plupart des applications, l’indice de queue des valeurs extrêmes n’est pas l’intérêt principal et est utilisé pour estimer par exemple des quantiles extrêmes. La contribution de ce chapitre consiste à adapter l’estimateur de l’indice de queue introduit dans la première partie au cadre conditionnel et d’utiliser ce dernier afin de proposer un estimateur des quantiles conditionnels extrêmes. Nous examinons les modèles dits "à plan fixe" ou "fixed design" qui correspondent à la situation où la variable explicative est déterministe et nous utlisons l’approche de la fenêtre mobile ou "window moving approach" pour capter la co-variable. Nous étudions le comportement asymptotique des estimateurs proposés et donnons des résultats numériques basés sur des données simulées avec le logiciel "R". • Dans la troisième partie de cette thèse, nous étendons les travaux de la deuxième partie au cadre des modèles dits "à plan aléatoire" ou "random design" pour lesquels les données sont des observations spatiales d’un couple (Y,X) de variables aléatoires réelles. Pour ce dernier modèle, nous proposons un estimateur de l’indice de queue lourde en utilisant la méthode des noyaux pour capter la co-variable. Nous utilisons un estimateur de l’indice de queue conditionnelle appartenant à la famille de l’estimateur introduit par Goegebeur et al. (2014b). / In this thesis, we investigate nonparametric modeling of spatial extremes. Our resultsare based on the main result of the theory of extreme values, thereby encompass Paretolaws. This framework allows today to extend the study of extreme events in the spatialcase provided if the asymptotic properties of the proposed estimators satisfy the standardconditions of the Extreme Value Theory (EVT) in addition to the local conditions on thedata structure themselves. In the literature, there exists a vast panorama of extreme events models, which are adapted to the structures of the data of interest. However, in the case ofextreme spatial data, except max-stables models, little or almost no models are interestedin non-parametric estimation of the tail index and/or extreme quantiles. Therefore, weextend existing works on estimating the tail index and quantile under independent ortime-dependent data. The specificity of the methods studied resides in the fact that theasymptotic results of the proposed estimators take into account the spatial dependence structure of the relevant data, which is far from trivial. This thesis is then written in thecontext of spatial statistics of extremes. She makes three main contributions.• In the first contribution of this thesis, we propose a new approach of the estimatorof the tail index of a heavy-tailed distribution within the framework of spatial data. This approach relies on the estimator of Hill (1975). The asymptotic properties of the estimator introduced are established when the spatial process is adequately approximated by aspatial M−dependent process, spatial linear causal process or when the process satisfies a strong mixing condition.• In practice, it is often useful to link the variable of interest Y with covariate X. Inthis situation, the tail index depends on the observed value x of the covariate X and theunknown fonction (.) will be called conditional tail index. In most applications, the tailindexof an extreme value is not the main attraction, but it is used to estimate for instance extreme quantiles. The contribution of this chapter is to adapt the estimator of the tail index introduced in the first part in the conditional framework and use it to propose an estimator of conditional extreme quantiles. We examine the models called "fixed design"which corresponds to the situation where the explanatory variable is deterministic. To tackle the covariate, since it is deterministic, we use the window moving approach. Westudy the asymptotic behavior of the estimators proposed and some numerical resultsusing simulated data with the software "R".• In the third part of this thesis, we extend the work of the second part of the framemodels called "random design" for which the data are spatial observations of a pair (Y,X) of real random variables . In this last model, we propose an estimator of heavy tail-indexusing the kernel method to tackle the covariate. We use an estimator of the conditional tail index belonging to the family of the estimators introduced by Goegebeur et al. (2014b).
102

CHANGEMENT CLIMATIQUE, CHOCS PLUVIOMETRIQUES ET SECURITE ALIMENTAIRE : ESSAIS SUR L'USAGE DE L'INFORMATION CLIMATIQUE EN ECONOMIE DU DEVELOPPEMENT

Simonet, C. 21 September 2012 (has links) (PDF)
Partant du constat d'une faible connaissance et d'une utilisation encore limitée des données climatiques en économie du développement, cette thèse propose une exploitation originale à la fois macroéconomique et microéconomique des données climatiques. Elle répond à un double objectif consistant d'une part, à enrichir les connaissances concernant les données climatiques en fournissant une nouvelle base de données mondiale directement exploitable par les économistes, d'autre part, à en proposer des exploitations variées et à différentes échelles de l'économie. La première partie propose une utilisation macroéconomique des données climatiques. Elle doit permettre une meilleure appréhension des données climatiques mondiales, afin d'améliorer des connaissances sur les caractéristiques du changement climatique d'un point de vue économique. Le chapitre 1 produit une base de données climatiques disponible pour près de 200 pays au niveau mensuel pour la période 1900-2008. S'appuyant sur ce premier travail, le chapitre 2 propose une utilisation originale de la base en construisant un indicateur de vulnérabilité physique au changement climatique pouvant servir d'outil pour guider l'allocation de l'aide à l'adaptation au changement climatique. La seconde partie de cette thèse est constituée de deux études microéconomiques dont le but est d'analyser les réactions des agents face à un choc climatique. Dans ces deux chapitres, les données pluviométriques pallient le manque de données concernant la production agricole. Au niveau du ménage agricole d'abord, le chapitre 3 s'intéresse aux conséquences d'un épisode de baisse de la pluviométrie sur l'état nutritionnel des enfants de moins de cinq ans et révèle que les ménages ruraux n'ont pas la capacité d'assurer ou d'absorber ces chocs climatiques. Au niveau d'un marché céréalier ensuite, le chapitre 4 s'attache à étudier la réaction des prix face à un choc pluviométrique et met en évidence la présence d'une spéculation, particulièrement sur des marchés mal intégrés et de petite taille.
103

Gestion des données : contrôle de qualité des modèles numériques des bases de données géographiques / Data management : quality Control of the Digital Models of Geographical Databases

Zelasco, José Francisco 13 December 2010 (has links)
Les modèles numériques de terrain, cas particulier de modèles numériques de surfaces, n'ont pas la même erreur quadratique moyenne en planimétrie qu'en altimétrie. Différentes solutions ont été envisagées pour déterminer séparément l'erreur en altimétrie et l'erreur planimétrique, disposant, bien entendu, d'un modèle numérique plus précis comme référence. La démarche envisagée consiste à déterminer les paramètres des ellipsoïdes d'erreur, centrées dans la surface de référence. Dans un premier temps, l'étude a été limitée aux profils de référence avec l'ellipse d'erreur correspondante. Les paramètres de cette ellipse sont déterminés à partir des distances qui séparent les tangentes à l'ellipse du centre de cette même ellipse. Remarquons que cette distance est la moyenne quadratique des distances qui séparent le profil de référence des points du modèle numérique à évaluer, c'est à dire la racine de la variance marginale dans la direction normale à la tangente. Nous généralisons à l'ellipsoïde de révolution. C'est le cas ou l'erreur planimétrique est la même dans toutes les directions du plan horizontal (ce n'est pas le cas des MNT obtenus, par exemple, par interférométrie radar). Dans ce cas nous montrons que le problème de simulation se réduit à l'ellipse génératrice et la pente du profil correspondant à la droite de pente maximale du plan appartenant à la surface de référence. Finalement, pour évaluer les trois paramètres d'un ellipsoïde, cas où les erreurs dans les directions des trois axes sont différentes (MNT obtenus par Interférométrie SAR), la quantité des points nécessaires pour la simulation doit être importante et la surface tr ès accidentée. Le cas échéant, il est difficile d'estimer les erreurs en x et en y. Néanmoins, nous avons remarqué, qu'il s'agisse de l'ellipsoïde de révolution ou non, que dans tous les cas, l'estimation de l'erreur en z (altimétrie) donne des résultats tout à fait satisfaisants. / A Digital Surface Model (DSM) is a numerical surface model which is formed by a set of points, arranged as a grid, to study some physical surface, Digital Elevation Models (DEM), or other possible applications, such as a face, or some anatomical organ, etc. The study of the precision of these models, which is of particular interest for DEMs, has been the object of several studies in the last decades. The measurement of the precision of a DSM model, in relation to another model of the same physical surface, consists in estimating the expectancy of the squares of differences between pairs of points, called homologous points, one in each model which corresponds to the same feature of the physical surface. But these pairs are not easily discernable, the grids may not be coincident, and the differences between the homologous points, corresponding to benchmarks in the physical surface, might be subject to special conditions such as more careful measurements than on ordinary points, which imply a different precision. The generally used procedure to avoid these inconveniences has been to use the squares of vertical distances between the models, which only address the vertical component of the error, thus giving a biased estimate when the surface is not horizontal. The Perpendicular Distance Evaluation Method (PDEM) which avoids this bias, provides estimates for vertical and horizontal components of errors, and is thus a useful tool for detection of discrepancies in Digital Surface Models (DSM) like DEMs. The solution includes a special reference to the simplification which arises when the error does not vary in all horizontal directions. The PDEM is also assessed with DEM's obtained by means of the Interferometry SAR Technique
104

Estimation simplifiée de la variance dans le cas de l’échantillonnage à deux phases

Béliveau, Audrey 08 1900 (has links)
Dans ce mémoire, nous étudions le problème de l'estimation de la variance pour les estimateurs par double dilatation et de calage pour l'échantillonnage à deux phases. Nous proposons d'utiliser une décomposition de la variance différente de celle habituellement utilisée dans l'échantillonnage à deux phases, ce qui mène à un estimateur de la variance simplifié. Nous étudions les conditions sous lesquelles les estimateurs simplifiés de la variance sont valides. Pour ce faire, nous considérons les cas particuliers suivants : (1) plan de Poisson à la deuxième phase, (2) plan à deux degrés, (3) plan aléatoire simple sans remise aux deux phases, (4) plan aléatoire simple sans remise à la deuxième phase. Nous montrons qu'une condition cruciale pour la validité des estimateurs simplifiés sous les plans (1) et (2) consiste à ce que la fraction de sondage utilisée pour la première phase soit négligeable (ou petite). Nous montrons sous les plans (3) et (4) que, pour certains estimateurs de calage, l'estimateur simplifié de la variance est valide lorsque la fraction de sondage à la première phase est petite en autant que la taille échantillonnale soit suffisamment grande. De plus, nous montrons que les estimateurs simplifiés de la variance peuvent être obtenus de manière alternative en utilisant l'approche renversée (Fay, 1991 et Shao et Steel, 1999). Finalement, nous effectuons des études par simulation dans le but d'appuyer les résultats théoriques. / In this thesis we study the problem of variance estimation for the double expansion estimator and the calibration estimators in the case of two-phase designs. We suggest to use a variance decomposition different from the one usually used in two-phase sampling, which leads to a simplified variance estimator. We look for the necessary conditions for the simplified variance estimators to be appropriate. In order to do so, we consider the following particular cases : (1) Poisson design at the second phase, (2) two-stage design, (3) simple random sampling at each phase, (4) simple random sampling at the second phase. We show that a crucial condition for the simplified variance estimator to be valid in cases (1) and (2) is that the first phase sampling fraction must be negligible (or small). We also show in cases (3) and (4) that the simplified variance estimator can be used with some calibration estimators when the first phase sampling fraction is negligible and the population size is large enough. Furthermore, we show that the simplified estimators can be obtained in an alternative way using the reversed approach (Fay, 1991 and Shao and Steel, 1999). Finally, we conduct some simulation studies in order to validate the theoretical results.
105

TAARAC : test d'anglais adaptatif par raisonnement à base de cas

Lakhlili, Zakia January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
106

Une famille de distributions symétriques et leptocurtiques représentée par la différence de deux variables aléatoires gamma

Augustyniak, Maciej January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
107

Méthode de simulation avec les variables antithétiques

Gatarayiha, Jean Philippe 06 1900 (has links)
Les fichiers qui accompagnent mon document ont été réalisés avec le logiciel Latex et les simulations ont été réalisés par Splus(R). / Dans ce mémoire, nous travaillons sur une méthode de simulation de Monte-Carlo qui utilise des variables antithétiques pour estimer un intégrale de la fonction f(x) sur un intervalle (0,1] où f peut être une fonction monotone, non-monotone ou une autre fonction difficile à simuler. L'idée principale de la méthode qu'on propose est de subdiviser l'intervalle (0,1] en m sections dont chacune est subdivisée en l sous intervalles. Cette technique se fait en plusieurs étapes et à chaque fois qu'on passe à l'étape supérieure la variance diminue. C'est à dire que la variance obtenue à la kième étape est plus petite que celle trouvée à la (k-1)ième étape ce qui nous permet également de rendre plus petite l'erreur d’estimation car l'estimateur de l'intégrale de f(x) sur [0,1] est sans biais. L'objectif est de trouver m, le nombre optimal de sections, qui permet de trouver cette diminution de la variance. / In this master thesis, we consider simulation methods based on antithetic variates for estimate integrales of f(x) on interval (0,1] where f is monotonic function, not a monotonic function or a function difficult to integrate. The main idea consists in subdividing the (0,1] in m sections of which each one is subdivided in l subintervals. This method is done recursively. At each step the variance decreases, i.e. The variance obtained at the kth step is smaller than that is found at the (k-1)th step. This allows us to reduce the error in the estimation because the estimator of integrales of f(x) on interval [0,1] is unbiased. The objective is to optimize m.
108

Problèmes d'estimation de paramètres avec restriction sur l'espace des paramètres

Gueye, N'deye Rokhaya January 2003 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
109

Raffinement de maillage multi-grille local en vue de la simulation 3D du combustible nucléaire des Réacteurs à Eau sous Pression / Local multigrid mesh refinement in view of nuclear fuel 3D modelling in Pressurised Water Reactors

Barbié, Laureline 03 October 2013 (has links)
Le but de cette étude est d'améliorer les performances, en termes d'espace mémoire et de temps de calcul, des simulations actuelles de l'Interaction mécanique Pastille-Gaine (IPG), phénomène complexe pouvant avoir lieu lors de fortes montées en puissance dans les réacteurs à eau sous pression. Parmi les méthodes de raffinement de maillage, méthodes permettant de simuler efficacement des singularités locales, une approche multi-grille locale a été choisie car elle présente l'intérêt de pouvoir utiliser le solveur en boîte noire tout en ayant un faible nombre de degrés de liberté à traiter par niveau. La méthode Local Defect Correction (LDC), adaptée à une discrétisation de type éléments finis, a tout d'abord été analysée et vérifiée en élasticité linéaire, sur des configurations issues de l'IPG, car son utilisation en mécanique des solides est peu répandue. Différentes stratégies concernant la mise en oeuvre pratique de l'algorithme multi-niveaux ont également été comparées. La combinaison de la méthode LDC et de l'estimateur d'erreur a posteriori de Zienkiewicz-Zhu, permettant d'automatiser la détection des zones à raffiner, a ensuite été testée. Les performances obtenues sur des cas bidimensionnels et tridimensionnels sont très satisfaisantes, l'algorithme proposé se montrant plus performant que des méthodes de raffinement h-adaptatives. Enfin, l'algorithme a été étendu à des problèmes mécaniques non linéaires. Les questions d'un raffinement espace/temps mais aussi de la transmission des conditions initiales lors du remaillage ont entre autres été abordées. Les premiers résultats obtenus sont encourageants et démontrent l'intérêt de la méthode LDC pour des calculs d'IPG. / The aim of this study is to improve the performances, in terms of memory space and computational time, of the current modelling of the Pellet-Cladding mechanical Interaction (PCI),complex phenomenon which may occurs during high power rises in pressurised water reactors. Among the mesh refinement methods - methods dedicated to efficiently treat local singularities - a local multi-grid approach was selected because it enables the use of a black-box solver while dealing few degrees of freedom at each level. The Local Defect Correction (LDC) method, well suited to a finite element discretisation, was first analysed and checked in linear elasticity, on configurations resulting from the PCI, since its use in solid mechanics is little widespread. Various strategies concerning the implementation of the multilevel algorithm were also compared. Coupling the LDC method with the Zienkiewicz-Zhu a posteriori error estimator in orderto automatically detect the zones to be refined, was then tested. Performances obtained on two-dimensional and three-dimensional cases are very satisfactory, since the algorithm proposed is more efficient than h-adaptive refinement methods. Lastly, the LDC algorithm was extended to nonlinear mechanics. Space/time refinement as well as transmission of the initial conditions during the remeshing step were looked at. The first results obtained are encouraging and show the interest of using the LDC method for PCI modelling.
110

Contribution des familles exponentielles en traitement des images / Contribution of the exponential families to image processing

Ben Arab, Taher 26 April 2014 (has links)
Cette thèse est consacrée à l'évaluation des familles exponentielles pour les problèmes de la modélisation des bruits et de la segmentation des images couleurs. Dans un premier temps, nous avons développé une nouvelle caractérisation des familles exponentielles naturelles infiniment divisible basée sur la fonction trace de la matrice de variance covariance associée. Au niveau application, cette nouvelle caractérisation a permis de détecter la nature de la loi d'un bruit additif associé à un signal où à une image couleur. Dans un deuxième temps, nous avons proposé un nouveau modèle statistique paramétrique mulltivarié basé sur la loi de Riesz. La loi de ce nouveau modèle est appelée loi de la diagonale modifiée de Riesz. Ensuite, nous avons généralisé ce modèle au cas de mélange fini de lois. Enfin, nous avons introduit un algorithme de segmentation statistique d'image ouleur, à travers l'intégration de la méthode des centres mobiles (K-means) au niveau de l'initialisation pour une meilleure définition des classes de l'image et l'algorithme EM pour l'estimation des différents paramètres de chaque classe qui suit la loi de la diagonale modifiée de la loi de Riesz. / This thesis is dedicated to the evaluation of the exponential families for the problems of the noise modeling and the color images segmentation. First, we developed a new characterization of the infinitely divisible natural exponential families based on the trace function of the associated variance-covariance matrix. At the application level, this new characterization allowed to detect the nature of the law of an additive noise associated with a signal or with a color image. Second, we proposed a new parametric multivariate statistical model based on Riesz's distribution. The law of this new model is called the modified diagonal Riesz distribution. Then we generalized this model in the case of a finished mixture of distibution. Finally we introduced an algorithm of statistical segmentation of color images through the integration of the k-means method at the level of the initialization for a better definition of the image classes and the algorithm EM for the estimation of the different parameters of every class which follows the modified diagonal Riesz distribution.

Page generated in 0.0656 seconds