• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 949
  • 444
  • 93
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1536
  • 381
  • 295
  • 274
  • 226
  • 202
  • 192
  • 179
  • 153
  • 147
  • 144
  • 142
  • 142
  • 139
  • 136
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Estimation robuste en population finie et infinie / Robust estimation in finite and infinite population

Favre-Martinoz, Cyril 13 October 2015 (has links)
Les travaux de recherche développés dans cette thèse portent sur l'estimation robuste dans un contexte de population finie et infinie. Cette thèse comporte cinq chapitres, une introduction et une conclusion. Le chapitre 2 passe en revue la littérature portant sur plusieurs sujets tels que : l'inférence en population finie, l'estimation pour des petits domaines, l'estimation robuste dans un contexte de populations finies mais également de populations infinies. Dans le chapitre 3, le problème du choix du seuil dans le cas des estimateurs winzorisés est abordé. Nous avons montré que ces estimateurs appartiennent à une classe plus large, ce qui a permis de déterminer la valeur du seuil qui minimise le plus grand biais conditionnel estimé de l'échantillon (en valeur absolue) par rapport à l'estimateur winzorisé. Sous certaines conditions, nous avons montré que le seuil optimal existe et qu'il est unique dans certaines situations. Nous avons également proposé une méthode de calage permettant d'assurer la cohérence externe, qui est un problème très important en pratique. Les résultats d'une étude par simulation montrent que la méthode proposée fonctionne très bien en termes de biais et d'efficacité relative. Dans le chapitre 4, nous avons généralisé les résultats obtenus par Beaumont, Haziza et Ruiz-Gazen (2013, Biometrika) au cas de l'échantillonnage à deux-phases avec application au problème de la non-réponse totale. À notre connaissance, c'est le premier article portant sur l'estimation robuste en présence de données manquantes. Nous avons développé une version robuste des estimateurs par double dilatation et des estimateurs de calage. Dans le chapitre 5, nous nous sommes intéressés à l'estimation robuste dans un contexte de statistique classique (ou de populations infinies). Nous avons proposé une alternative robuste à la moyenne empirique. En particulier, nous avons développé une expression approximative de l'erreur quadratique moyenne pour des distributions appartenant aux domaines d'attraction de Gumbel et à celui de Frechet, ce qui nous a permis de comparer l'efficacité de l'estimateur proposé à celle de l'estimateur winzorisé une fois proposé par Rivest (1994, Biometrika). Dans le chapitre 6, nous avons traité du problème de l'estimation robuste dans un contexte d'estimation pour petits domaines, qui est un sujet qui a suscité beaucoup d'intérêt dans les dernières années. Nous avons proposé une approche unifiée d'estimation robuste à la présence de valeurs influentes dans le cas d'un modèle linéaire mixte généralisé. Lorsque le modèle sous-jacent est un modèle linéaire mixte, la méthode proposée est équivalente à la méthode de Dongmo Jiongo, Haziza et Duchesne (2013, Biometrika). Nous avons effectué des simulations dans le cas d'une variable d'intérêt continue, d'une variable binaire et d'une variable de comptage et avons montré empiriquement que la méthode proposée a de bonnes propriétés en termes d'erreur quadratique moyenne. / The main topic of this thesis is the robust estimation in finite or infinite population. The thesis is divided in five chapters, an introduction and a conclusion. The chapter 2 is a literature review focus on several topics as: inference in finite population, small area estimation, robust estimation in finite and infinite population. In chapter 3, we deal with the winsorization, which is often used to treat the problem of influential values. This technique requires the determination of a constant that corresponds to the threshold above which large values are reduced. We consider a method of determining the constant which involves minimizing the sample's largest estimated conditional bias. In the context of domain estimation, we also propose a method of ensuring consistency between the domain-level winsorized estimates and the population-level winsorized estimate. The results of two simulation studies suggest that the proposed methods lead to winsorized estimators that have good bias and relative efficiency properties. In chapter 4, we extend the results of Beaumont et al. (2013) to the case of two-phase sampling designs. We extend the concept of conditional bias attached to a unit with respect to both phases and propose a robust version of the double expansion estimator. Our results can be naturally extended to the case of unit nonresponse, since the set of respondents often being viewed as a second phase sample. A robust version of calibration estimators, based on auxiliary information available at both phases, is also constructed. In chapter 5, we focus on the estimation of the population mean of a skewed population. We propose a robust version of the empirical mean, develop some mean square error approximations for the max-domain of attraction of Gumbel and Fréchet, and compare the efficiency of the proposed estimator to the one-winsorized estimator proposed by Rivest (1994, Biometrika). We also extend the result to the case of a regression coefficient for a linear model. In chapter 6, we focus on the robust estimation for small areas. We first propose a robust predictor in a general model-based framework with the use of generalized linear models and then we propose a unified framework for robust small area prediction in the context of generalized LMMs. We conduct a Monte Carlo study in the case where the variable of interest is continuous, binary or count data and we show empirically that the estimator derived from the proposed method have good bias and relative efficiency properties.
242

Online Dynamic Algorithm Portfolios: Minimizing the computational cost of problem solving

Gagliolo, Matteo 24 March 2010 (has links)
This thesis presents methods for minimizing the computational effort of problem solving. Rather than looking at a particular algorithm, we consider the issue of computational complexity at a higher level, and propose techniques that, given a set of candidate algorithms, of unknown performance, learn to use these algorithms while solving a sequence of problem instances, with the aim of solving all instances in a minimum time. An analogous meta-level approach to problem solving has been adopted in many different fields, with different aims and terminology. A widely accepted term to describe it is algorithm selection. Algorithm portfolios represent a more general framework, in which computation time is allocated to a set of algorithms running on one or more processors.Automating algorithm selection is an old dream of the AI community, which has been brought closer to reality in the last decade. Most available selection techniques are based on a model of algorithm performance, assumed to be available, or learned during a separate offline training sequence, which is often prohibitively expensive. The model is used to perform a static allocation of resources, with no feedback from the actual execution of the algorithms. There is a trade-off between the performance of model-based selection, and the cost of learning the model. In this thesis, we formulate this trade-off as a bandit problem.We propose GambleTA, a fully dynamic and online algorithm portfolio selection technique, with no separate training phase: all candidate algorithms are run in parallel, while a model incrementally learns their runtime distributions. A redundant set of time allocators uses the partially trained model to optimize machine time shares for the algorithms, in order to minimize runtime. A bandit problem solver picks the allocator to use on each instance, gradually increasing the impact of the best time allocators as the model improves. A similar approach is adopted for learning restart strategies online (GambleR). In both cases, the runtime distributions are modeled using survival analysis techniques; unsuccessful runs are correctly considered as censored runtime observations, allowing to save further computation time.The methods proposed are validated with several experiments, mostly based on data from solver competitions, displaying a robust performance in a variety of settings, and showing that rough performance models already allow to allocate resources efficiently, reducing the risk of wasting computation time. / Permanent URL: http://doc.rero.ch/record/20245 / info:eu-repo/semantics/nonPublished
243

Multiscale local polynomial transforms in smoothing and density estimation

Amghar, Mohamed 22 December 2017 (has links)
Un défi majeur dans les méthodes d'estimation non linéaire multi-échelle, comme le seuillage des ondelettes, c'est l'extension de ces méthodes vers une disposition où les observations sont irrégulières et non équidistantes. L'application de ces techniques dans le lissage de données ou l'estimation des fonctions de densité, il est crucial de travailler dans un espace des fonctions qui impose un certain degré de régularité. Nous suivons donc une approche différente, en utilisant le soi-disant système de levage. Afin de combiner la régularité et le bon conditionnement numérique, nous adoptons un schéma similaire à la pyramide Laplacienne, qui peut être considérée comme une transformation d'ondelettes légèrement redondantes. Alors que le schéma de levage classique repose sur l'interpolation comme opération de base, ce schéma permet d'utiliser le lissage, en utilisant par exemple des polynômes locaux. Le noyau de l'opération de lissage est choisi de manière multi-échelle. Le premier chapitre de ce projet consiste sur le développement de La transformée polynomiale locale multi-échelle, qui combine les avantages du lissage polynomial local avec la parcimonie de la décomposition multi-échelle. La contribution de cette partie est double. Tout d'abord, il se concentre sur les largeurs de bande utilisées tout au long de la transformée. Ces largeurs de bande fonctionnent comme des échelles contrôlées par l'utilisateur dans une analyse multi-échelle, ce qui s'explique par un intérêt particulier dans le cas des données non-équidistantes. Cette partie présente à la fois une sélection de bande passante optimale basée sur la vraisemblance et une approche heuristique rapide. La deuxième contribution consiste sur la combinaison du lissage polynomial local avec les préfiltres orthogonaux dans le but de diminuer la variance de la reconstruction. Dans le deuxième chapitre, le projet porte sur l'estimation des fonctions de densité à travers la transformée polynomiale locale multi-échelle, en proposant une reconstruction plus avancée, appelée reconstruction pondérée pour contrôler la propagation de la variance. Dans le dernier chapitre, On s’intéresse à l’extension de la transformée polynomiale locale multi-échelle dans le cas bivarié, tout en énumérant quelques avantages qu'on peut exploiter de cette transformée (la parcimonie, pas de triangulations), comparant à la transformée en ondelette classique en deux dimension. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
244

Statistical modeling of bladder motion and deformation in prostate cancer radiotherapy / Modélisation statistique du mouvement et de la déformation de la vessie dans la radiothérapie du cancer de la prostate

Rios Patiño, Richard 02 May 2017 (has links)
Le cancer de la prostate est le cancer le plus fréquent chez les hommes dans la plupart des pays développés. C'est le cancer le plus fréquent chez les hommes en France (73.609 cas en 2014) et en Colombie (9564 cas en 2014). En outre, c'est la troisième cause de décès par cancer chez les hommes dans les deux pays (9,3 % en France et 7,1 % en Colombie en 2014). L'une des techniques de traitement est la radiothérapie externe, qui consiste à délivrer un rayonnement ionisant à une cible clinique, à savoir la prostate et les vésicules séminales. En raison des variations anatomiques au cours du traitement, qui consiste en environ 40 fractions de rayonnement délivrant une dose totale allant de 70 à 80Gy, des marges de sécurité sont définies autour de la cible tumorale lors de la planification du traitement. Ceci entraîne des portions d'organes sains voisins de la prostate - la vessie et le rectum - à être inclus dans le volume cible, pouvant conduire à des événements indésirables affectant les fonctions urinaires (hématurie et cystite, entre autres) ou rectale (saignement rectal, incontinence fécale, Etc.). La vessie présente les plus grandes variations de forme entre fractions de traitement, provoquées par des changements continus de volume. Ces variations de forme introduisent des incertitudes géométriques qui rendent difficile l'évaluation de la dose réellement délivrée à la vessie pendant le traitement. Ces incertitudes limitent la possibilité de modéliser une relation dose-volume pour la toxicité génito-urinaire tardive (GU). Le projet QUANTEC (Quantitative Analysis of Normal Tissue Effects in the Clinic) a déclaré que la relation dose-réponse pour la toxicité gastro-intestinale tardive (GI) était loin d'être établie. Les variables dosimétriques obtenues à partir de la tomodensitométrie de planification peuvent être faiblement représentative de la dose effectivement administrée. En conséquence, il est crucial de quantifier les incertitudes produites par les variations inter-fraction de la vessie afin de déterminer les facteurs dosimétriques qui affectent les complications GU tardives. Le but de cette thèse était donc de caractériser et de prédire les incertitudes produites par les variations géométriques de la vessie entre les fractions de traitement, en utilisant uniquement la tomodensitométrie de planification comme information d'entrée. En pratique clinique, une seule tomodensitométrie est disponible au moment de la planification du traitement pour un patient typique, alors que des images supplémentaires peuvent être acquises en cours de traitement. Dans cette thèse une approche population a été utilisée pour obtenir suffisamment de données pour apprendre les directions les plus importantes du mouvement et de la déformation de la vessie en utilisant l'analyse en composante principales (ACP). Comme dans les travaux de référence, ces directions ont ensuite été utilisées pour développer des modèles basés population pour prédire et quantifier les incertitudes géométriques de la vessie. Cependant, nous avons utilisé une analyse longitudinale afin de caractériser correctement la variance du patient et les modes spécifiques du patient à partir de la population. Nous avons proposé d'utiliser un modèle à effets mixtes (ME) et une ACP hiérarchique pour séparer la variabilité intra et inter-patients afin de contrôler les effets de cohorte confondus. Finalement, nous avons présenté des modèles sur l'APC comme un outil pour quantifier des incertitudes de la dose produit par le mouvement et déformation de la vessie entre fractions. / Prostate cancer is the most common cancer amongst the male population in most developed countries. It is the most common cancer amongst the male population in France (73.609 cases in 2014) and in Colombia (9564 cases in 2014). It is also the third most common cause of cancer deaths in males in both countries (9.3% and 7.1% in France and in Colombia in 2014, respectively). One of the standard treatment methods is external radiotherapy, which involves delivering ionizing radiation to a clinical target, namely the prostate and seminal vesicles. Due to the uncertain location of organs during treatment, which involves around forty (40) radiation fractions delivering a total dose ranging from 70 to 80Gy, safety margins are defined around the tumor target upon treatment planning. This leads to portions of healthy organs neighboring the prostate or organs at risk — the bladder and rectum — to be included in the target volume, potentially resulting in adverse events affecting patients’ urinary (hematuria and cystitis, among others) or rectal (rectal bleeding, fecal incontinence, etc.) functions. The bladder is notorious for presenting the largest inter-fraction shape variations during treatment, caused by continuous changes in volume. These variations in shape introduce geometric uncertainties that render assessment of the actual dose delivered to the bladder during treatment difficult, thereby leading to dose uncertainties that limit the possibility of modeling dose-volume response for late genitourinary (GU) toxicity. The Quantitative Analysis of Normal Tissue Effects in the Clinic (QUANTEC) project has stated that a similar dose-response to that of late gastrointestinal (GI) toxicity is far from being established. The dosimetric variables obtained from the planning CT prove to be very poor surrogates for the real delivered dose. As a result, it appears crucial to quantify uncertainties produced by inter-fraction bladder variations in order to determine dosimetric factors that affect late GU complications. The aim of this thesis was thus to characterize and predict uncertainties produced by geometric variations of the bladder between fractions, using solely the planning CT as input information. In clinical practice, a single CT scan is only available for a typical patient during the treatment planning while on-treatment CTs/CBCTs are seldom available. In this thesis, we thereby used a population approach to obtain enough data to learn the most important directions of bladder motion and deformation using principal components analysis (PCA). As in groundwork, these directions were then used to develop population-based models in order to predict and quantify geometrical uncertainties of the bladder. However, we use a longitudinal analysis in order to properly characterize both patient-specific variance and modes from the population. We proposed to use mixed-effects (ME) models and hierarchical PCA to separate intra and inter-patient variability to control confounding cohort effects. . Subsequently, we presented PCA models as a tool to quantify dose uncertainties produced by bladder motion and deformation between fractions.
245

Applications de la métabolomique par RMN du proton à l'étude de différentes matrices biologiques dans le cadre du mélanome, du glioblastome, de la maladie d'Alzheimer et de l'hypophosphatasie / Applications of proton NMR-based metabolomics to the analysis of several biological matrixes within the framework of melanoma, gliastoma, Alzheimer's disease and hypophosphatasia

Cruz, Thomas 08 April 2015 (has links)
La métabolomique consiste en l'analyse exhaustive du métabolome d'un système biologique qui est réalisée par l'utilisation conjointe d'une ou plusieurs techniques analytiques et d'outils chimiométriques. Elle permet une mesure globale de la réponse métabolique grâce à la caractérisation et à la quantification de métabolites dans un échantillon donné. Ici, la technique analytique utilisée a été la RMN du proton. Ce travail de thèse a permis d'appliquer la démarche métabolomique à quatre pathologies en se focalisant sur un aspect précis de chaque maladie. Un large éventail d'échantillons a été étudié, allant de lignées cellulaires à des échantillons humains en passant par des cerveaux de souris. La première pathologie étudiée a été le mélanome. Pour cela, des études ont été effectuées sur une lignée cellulaire de mélanome dans laquelle la protéine HIF-1a a été réprimée et sur des tumeurs de souris xénogreffées avec et sans traitement au vémurafénib. Enfin, une étude préliminaire a été réalisée sur des mélanomes de patients. Ces trois études ont montré d'importants désordres au niveau du métabolisme bio-énergétique. Une étude métabolomique sur la maladie d'Alzheimer constitue la deuxième partie de notre travail. Les profils métaboliques de liquides céphalo-rachidiens de sujets sains et de patients ont été comparés afin de mettre en évidence d'éventuelles modifications métaboliques. Dans la troisième partie, nous nous sommes intéressés à une maladie orpheline, l'hypophosphatasie, à travers la première analyse métabolomique de cerveaux d'un modèle murin de cette pathologie. La dernière partie décrit les différences métaboliques provoquées par des modifications structurales de la protéine IRE1 dans une lignée cellulaire de glioblastome. / Metabolomics consists in the general analysis of the metabolome of a biological system which is achieved by the use of one or more analytical techniques combined with chemometric tools. It allows an overall measurement of the metabolic response through the characterization and quantification of metabolites in a given sample. Herein, proton NMR was chosen as the analytical technique. This work allowed us to apply metabolomic study to four diseases. Our research focused on a specific aspect of each disease. A wide range of samples has been studied here, from cell lines to human samples through biopsies mouse brain. The first chapter is dedicated to the study of melanoma and deals with a human melanoma cell line in which the HIF-1a protein was restrained. Melanoma tumors of xenograft mice were studied with and without vemurafenib treatment. Thanks to these results, we were able to start a preliminary study concerning the tumors of human patients. These three studies show melanoma disorders within the bioenergetic metabolism. The second part of this work is related to the metabolomic study of Alzheimer's disease. Cerebrospinal fluids of healthy and diseased patients were compared to highlight any metabolic modification. In the third part, we present the first metabolomic study of a rare disease: hypophosphatasia. Furthermore, unlike the previous work concerning this disease, we chose to use murine model to detect any metabolic modification within mice brain. In the last part, a study of glioblastoma was performed to show metabolic differences due to changes in IRE1 protein in a glioblastoma cell line.
246

Asymptotique des feux rares dans le modèle des feux de forêts / Asymptotics of the one dimensional forest-fire processes

Le cousin, Jean-Maxime 24 June 2015 (has links)
Dans cette thèse, nous nous intéressons à deux modèles de feux de forêts définis sur Z. On étudie le modèle des feux de forêts sur Z avec propagation non instantanée dans le chapitre 2. Dans ce modèle, chaque site a trois états possibles : vide, occupé ou en feu. Un site vide devient occupé avec taux 1. Sur chaque site, des allumettes tombent avec taux λ. Si le site est occupé, il brûle pendant un temps exponentiel de paramètre π avant de se propager à ses deux voisins. S’ils sont eux-mêmes occupés, ils brûlent, sinon le feu s’éteint. On étudie l’asymptotique des feux rares c’est à dire la limite du processus lorsque λ → 0 et π → ∞. On montre qu’il y a trois catégories possibles de limites d’échelles, selon le régime dans lequel λ tend vers 0 et π vers l’infini. On étudie formellement et brièvement dans le chapitre 3 le modèle des feux de forêts sur Z en environnement aléatoire. Dans ce modèle, chaque site n’a que deux états possibles : vide ou occupé. On se donne un paramètre λ > 0, une loi ν sur (0 ,∞) et une suite (κi)i∈Z de variables aléatoires indépendantes identiquement distribuées selon ν. Un site vide i devient occupé avec taux κi. Sur chaque site, des allumettes tombent avec taux λ et détruisent immédiatement la composante de sites occupés correspondante. On étudie l’asymptotique des feux rares. Sous une hypothèse raisonnable sur ν, on espère que le processus converge, avec une renormalisation correcte, vers un modèle limite. On s’attend à distinguer trois processus limites différents / The aim of this work is to study two differents forest-fire processes defined on Z. In Chapter 2, we study the so-called one dimensional forest-fire process with non instantaeous propagation. In this model, each site has three possible states: ’vacant’, ’occupied’ or ’burning’. Vacant sites become occupied at rate 1. At each site, ignition (by lightning) occurs at rate λ. When a site is ignited, a fire starts and propagates to neighbors at rate π. We study the asymptotic behavior of this process as λ → 0 and π → ∞. We show that there are three possible classes of scaling limits, according to the regime in which λ → 0 and π → ∞. In Chapter 3, we study formally and briefly the so-called one dimensional forest-fire processes in random media. Here, each site has only two possible states: ’vacant’ or occupied’. Consider a parameter λ > 0, a probability distribution ν on (0 ,∞) as well as (κi)i∈Z an i.i.d. sequence of random variables with law ν. A vacant site i becomes occupied at rate κi. At each site, ignition (by lightning) occurs at rate λ. When a site is ignited, the fire destroys the corresponding component of occupied sites. We study the asymptotic behavior of this process as λ → 0. Under some quite reasonable assumptions on the law ν, we hope that the process converges, with a correct normalization, to a limit forest fire model. We expect that there are three possible classes of scaling limits
247

Extraction de caractéristiques et apprentissage statistique pour l'imagerie biomédicale cellulaire et tissulaire / Feature extraction and machine learning for cell and tissue biomedical imaging

Zubiolo, Alexis 11 December 2015 (has links)
L'objectif de cette thèse est de s'intéresser à la classification de cellules et de tissus au sein d'images d'origine biomédicales en s'appuyant sur des critères morphologiques. Le but est de permettre aux médecins et aux biologistes de mieux comprendre les lois qui régissent certains phénomènes biologiques. Ce travail se décompose en trois principales parties correspondant aux trois problèmes typiques des divers domaines de l'imagerie biomédicale abordés. L'objet de la première est l'analyse de vidéos d'endomicroscopie du colon dans lesquelles il s'agit de déterminer automatiquement la classe pathologique des polypes qu'on y observe. Cette tâche est réalisée par un apprentissage supervisé multiclasse couplant les séparateurs à vaste marge à des outils de théorie des graphes. La deuxième partie s'intéresse à l'étude de la morphologie de neurones de souris observés par microscopie confocale en fluorescence. Afin de disposer d'une information riche, les neurones sont observés à deux grossissements, l'un permettant de bien caractériser les corps cellulaires, l'autre, plus faible, pour voir les dendrites apicales dans leur intégralité. Sur ces images, des descripteurs morphologiques des neurones sont extraits automatiquement en vue d'une classification. La dernière partie concerne le traitement multi-échelle d'images d'histologie digitale dans le contexte du cancer du rein. Le réseau vasculaire est extrait et mis sous forme de graphe afin de pouvoir établir un lien entre l'architecture vasculaire de la tumeur et sa classe pathologique. / The purpose of this Ph.D. thesis is to study the classification based on morphological features of cells and tissues taken from biomedical images. The goal is to help medical doctors and biologists better understand some biological phenomena. This work is spread in three main parts corresponding to the three typical problems in biomedical imaging tackled. The first part consists in analyzing endomicroscopic videos of the colon in which the pathological class of the polyps has to be determined. This task is performed using a supervised multiclass machine learning algorithm combining support vector machines and graph theory tools. The second part concerns the study of the morphology of mice neurons taken from fluorescent confocal microscopy. In order to obtain a rich information, the neurons are imaged at two different magnifications, the higher magnification where the soma appears in details, and the lower showing the whole cortex, including the apical dendrites. On these images, morphological features are automatically extracted with the intention of performing a classification. The last part is about the multi-scale processing of digital histology images in the context of kidney cancer. The vascular network is extracted and modeled by a graph to establish a link between the architecture of the tumor and its pathological class.
248

Déterminants des évolutions spatio-temporelles des retombées atmosphériques acidifiantes et eutrophisantes en France et élaboration d’un modèle de projection / Determinants of temporal and spatial changes in acidifying and eutrophying compounds of precipitation, wet and bulk depositions in France and establishment of projected models

Pascaud, Aude 14 June 2013 (has links)
Les polluants atmosphériques, qu’ils soient de sources naturelles ou anthropiques, peuvent être transformés et transportés sur de longues distances. Les retombées atmosphériques constituent des puits définitifs pour ces polluants atmosphériques. Ce travail de recherche s’inscrit dans le cadre du projet SESAME du programme PRIMEQUAL « Pollution longue distance ». Les objectifs sont d’identifier les déterminants de l’évolution des retombées atmosphériques acidifiantes et eutrophisantes et d’évaluer l’efficacité des politiques de réduction en vigueur. Les méthodologies reposent sur des approches statistiques appliquées à une compilation de bases de données issues de trois observatoires MERA, CATAENAT et BAPMoN. L’utilisation de procédures de consolidation et de comparaison a permis d’optimiser la base de données pour envisager des analyses descriptives en toute objectivité. La détermination de la composition chimique des espèces ioniques majeures a permis de distinguer les déterminants des contrastes géographiques et saisonniers de la chimie des retombées atmosphériques. L’étude des changements temporels annuels et saisonniers par la méthode de Sen Mann Kendall a mis en évidence des liens pouvant être linéaires ou non linéaires entre les évolutions de la composition chimique des retombées atmosphériques et leurs déterminants. L’expertise des déterminants a contribué à la création pas à pas d’un modèle statistique en vue de proposer des prévisions des retombées atmosphériques au site de mesure à l’horizon de quelques années (suivant différents scénarios climatiques). Des valeurs ponctuelles de dépassement de charges critiques et leur évolution face aux dépôts mesurés et projetés ont été évaluées. Enfin, la densité de sites a permis d’obtenir une spatialisation des retombées atmosphériques, qui a pu être comparée aux cartes de dépôts modélisées par le modèle EMEP. / Atmospheric pollutants emitted by both natural and anthropogenic sources are precursors of secondary compounds such as acidic gases and aerosols, which can be transported over long distances. Atmospheric deposition is the ultimate sink for these pollutants and can lead to acidification and eutrophication issues. This research was conducted within the SESAME project as part of the PRIMEQUAL long distance pollution program. The objectives seek to identify determinants of atmospheric deposition changes and to evaluate policies of pollutant reductions. Statistical approaches were applied to measurement databases of three French networks: MERA, CATAENAT and BAPMoN. Several procedures were developed to consolidate and to compare the datasets for a descriptive analysis. Geographical and seasonal determinants were identified based on the chemistry of concentrations and deposition fluxes. The trends resulting from Sen Mann Kendall tests highlighted that the changes in chemical compositions of atmospheric deposition can be either linear or nonlinear with the identified determinants. The findings were used to develop a predictive model to forecast the deposition fluxes of sulfur and nitrogen species under different climate scenarios and over several decades. The exceedances of critical loads and their changes were evaluated from current and forecasted deposition fluxes. Finally, the density of measurement sites over the French area was strong enough to create maps of deposition fluxes, which were then compared to the EMEP model outputs.
249

Etude de l'impact des activités anthropiques et de la variabilité climatique sur la végétation et les usages des sols, par utilisation de la télédétection et des statistiques agricoles, sur le bassin versant du Bouregreg (MAROC). / Study of the impact of human activities and climate variability on vegetation and land use by use of remote sensing and agricultural statistics on the Bouregreg watershed (Morocco)

Tra Bi, Zamblé Armand 20 June 2013 (has links)
Le bassin versant du Bouregreg est situé dans le centre Nord-ouest du Maroc. C’est un bassin semi-aride de la partie humide de ce royaume. L’agriculture constitue un pilier essentiel de l’économie marocaine. Cependant, la surface agricole utile du pays reste très limitée à cause de conditions climatiques défavorables. Cette surface agricole utile, localisée principalement dans les régions humides, ne représente qu’environ 20% du territoire national, d’où un intérêt particulier pour les espaces agricoles favorables comme le bassin versant du Bouregreg. En outre, bien que le Maroc ait entrepris d’importants investissements en matière d’irrigation depuis l’indépendance, certains espaces comme le bassin du Bouregreg sont restés en marge de cette politique pour des raisons liées à leur fragilité naturelle. Paradoxalement, malgré l’attention particulière accordée à l’agriculture irriguée dans les différentes politiques de développement agricole depuis l’indépendance, l’agriculture pluviale reste la principale source de production agricole, surtout céréalière. Ainsi, cette agriculture pluviale, associée à un important élevage extensif, se concentre de plus en plus sur des espaces climatiquement favorables comme le bassin du Bouregreg, sans tenir compte de la fragilité des sols et du couvert végétal naturel de ces espaces. L’étude présente, menée avec le soutien du projet SIGMED (approche Spatialisée de l’Impact des activités aGricoles au Maghreb sur les transports solides et les ressources en Eau Des grands bassins versants), met en relief la dynamique spatiale et temporelle de la végétation et des sols du bassin du Bouregreg sous l’action combinée de pressions anthropiques et climatiques défavorables de 1980 à 2009. Cette étude fait appel à l’outil de télédétection, de statistique et de SIG. L’analyse de télédétection est faite à partir d’échelles multiples, de la basse résolution à la très haute résolution spatiale. Il en est de même de l’analyse temporelle où sont exploitées, à la fois, des images de très grande répétitivité temporelle (NOAA et MODIS) et des images de basse résolution temporelle (LANDSAT et SPOT 5). L’exploitation de ces images combine la télédétection et les analyses statistiques de série chronologiques et de corrélation. L’analyse des interactions diverses entre la dynamique des facteurs naturels, notamment climatiques, et celle des facteurs anthropiques est réalisée par système d’information géographique. Pour pousser la réflexion dans le domaine de la prospective géographique quant au devenir de ce bassin dans un environnement climatique de plus en plus défavorable, des analyses climatiques ont été faites à partir de projection de modèles climatiques régionaux pour les horizons 2050 et 2100. Les principaux résultats de cette étude indiquent une baisse marquée de la productivité végétale due à une dégradation de plus en plus importante du milieu sous actions agropastorales et climatiques. Sur la base des projections des modèles climatiques, cette dynamique est amenée à se poursuivre, si bien qu’au-delà de 2050, le système de production agricole pluvial sera amené à disparaitre, d’où l’importance de la question de l’adaptation du bassin aux conditions d’un changement climatique. / The Bouregreg watershed is located in the Northwest central Morocco. It’s a semi-arid basin of the humid part of the kingdom. Agriculture is a key pillar of the Moroccan economy. However, the agricultural area of the country is limited due to adverse climate conditions. This agricultural, area located in humid regions is only 20% of the national territory, hence a particular interest in favorable agricultural areas as Bouregreg watershed. Furthermore, although Morocco has undertaken major investments in irrigation, some areas such as the Bouregreg basin remained on the sidelines of this policy for reasons related to their natural fragility. Paradoxically, despite the attention given to irrigated agriculture in the various agricultural development policies of the country since independence, rainfed agriculture remains the main source of agricultural production, especially grain. Well, this rainfed agriculture associated with a significant ranching, focuses more on climatically favorable areas such as the Bouregreg basin, without taking into account the fragility of the soil and natural vegetation of these areas. The present study, conducted with the support of the SIGMED project, highlights the spatial and temporal dynamics of vegetation and soil of the Bouregreg basin under the combined action of adverse anthropogenic and climatic pressures from 1980 to 2009. This study uses the tool of remote sensing, GIS and statistical. Analysis of remote sensing is made from multiple scales from low resolution to high spatial resolution. It is the same for the temporal analysis, where are used both images of high temporal repetitiveness (NOAA and MODIS) and low temporal resolution (LANDSAT AND SPOT 5). Exploitation of these images combines remote sensing and statistical time series analysis and correlation. Analysis of various interactions between the dynamics of natural factors, including climate, and the anthropogenic factors, is carried out by GIS. For further reflection in the field of geographical prospective about the future of the basin in a climate environment increasingly unfavorable, climate analyzes were made from projections of regional climate models for 2050 and 2100 horizons. The main results of this study showed a significant decrease in plant productivity due to more increasing degradation caused by farming and climate actions. Based on the projections of climate models, this dynamics is likely to continue, so that beyond 2050, the system of rainfed production will have to disappear. As for forest formation, they should suffer as result more pressure which should lead to their disappearance. If an effective backup policy is not implemented. This dynamics to be highlights the importance of the issue of adaptation basin conditions of climate change.
250

Per Instance Algorithm Configuration for Continuous Black Box Optimization / Paramétrage automatisé d'algorithme par instance pour l'optimisation numérique boite noire

Belkhir, Nacim 20 November 2017 (has links)
Cette thèse porte sur la configurationAutomatisée des algorithmes qui vise à trouver le meilleur paramétrage à un problème donné ou une catégorie deproblèmes.Le problème de configuration de l'algorithme revient doncà un problème de métaFoptimisation dans l'espace desparamètres, dont le métaFobjectif est la mesure deperformance de l’algorithme donné avec une configuration de paramètres donnée.Des approches plus récentes reposent sur une description des problèmes et ont pour but d’apprendre la relationentre l’espace des caractéristiques des problèmes etl’espace des configurations de l’algorithme à paramétrer.Cette thèse de doctorat porter le CAPI (Configurationd'Algorithme Par Instance) pour résoudre des problèmesd'optimisation de boîte noire continus, où seul un budgetlimité d'évaluations de fonctions est disponible. Nous étudions d'abord' les algorithmes évolutionnairesPour l'optimisation continue, en mettant l'accent sur deux algorithmes que nous avons utilisés comme algorithmecible pour CAPI,DE et CMAFES.Ensuite, nous passons en revue l'état de l'art desapproches de configuration d'algorithme, et lesdifférentes fonctionnalités qui ont été proposées dansla littérature pour décrire les problèmesd'optimisation de boîte noire continue.Nous introduisons ensuite une méthodologie générale Pour étudier empiriquement le CAPI pour le domainecontinu, de sorte que toutes les composantes du CAPIpuissent être explorées dans des conditions réelles.À cette fin, nous introduisons également un nouveau Banc d'essai de boîte noire continue, distinct ducélèbre benchmark BBOB, qui est composé deplusieurs fonctions de test multidimensionnelles avec'différentes propriétés problématiques, issues de lalittérature.La méthodologie proposée est finalement appliquée 'àdeux AES. La méthodologie est ainsi, validéempiriquement sur le nouveau banc d’essaid’optimisation boîte noire pour des dimensions allant jusqu’à 100. / This PhD thesis focuses on the automated algorithm configuration that aims at finding the best parameter setting for a given problem or a' class of problem. The Algorithm Configuration problem thus amounts to a metal Foptimization problem in the space of parameters, whosemetaFobjective is the performance measure of the given algorithm at hand with a given parameter configuration. However, in the continuous domain, such method can only be empirically assessed at the cost of running the algorithm on some problem instances. More recent approaches rely on a description of problems in some features space, and try to learn a mapping from this feature space onto the space of parameter configurations of the algorithm at hand. Along these lines, this PhD thesis focuses on the Per Instance Algorithm Configuration (PIAC) for solving continuous black boxoptimization problems, where only a limited budget confessionnalisations available. We first survey Evolutionary Algorithms for continuous optimization, with a focus on two algorithms that we have used as target algorithm for PIAC, DE and CMAFES. Next, we review the state of the art of Algorithm Configuration approaches, and the different features that have been proposed in the literature to describe continuous black box optimization problems. We then introduce a general methodology to empirically study PIAC for the continuous domain, so that all the components of PIAC can be explored in real Fworld conditions. To this end, we also introduce a new continuous black box test bench, distinct from the famous BBOB'benchmark, that is composed of a several multiFdimensional test functions with different problem properties, gathered from the literature. The methodology is finally applied to two EAS. First we use Differential Evolution as'target algorithm, and explore all the components of PIAC, such that we empirically assess the best. Second, based on the results on DE, we empirically investigate PIAC with Covariance Matrix Adaptation Evolution Strategy (CMAFES) as target algorithm. Both use cases empirically validate the proposed methodology on the new black box testbench for dimensions up to100.

Page generated in 0.03 seconds