• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 14
  • Tagged with
  • 42
  • 17
  • 14
  • 10
  • 8
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Outils théoriques et opérationnels adaptés au contexte de l'assurance vie en Afrique subsaharienne francophone - Analyse et mesure des risques liés à la mortalité

Kamega, Aymric 14 December 2011 (has links) (PDF)
Dans un marché de l'assurance vie en Afrique subsaharienne francophone à la traîne, mais promis à un bel avenir en cas d'émergence de solutions techniques et commerciales endogènes, la thèse propose des outils théoriques et opérationnels adaptés à son développement. Cette démarche s'inscrit en parallèle des actions entreprises par l'autorité de contrôle régionale (la CIMA) pour fournir aux assureurs de la région des outils adaptés. En effet, la CIMA a initié des travaux pour la construction de nouvelles tables réglementaires d'expérience, ce qui a permis de fournir des références fiables et pertinentes pour la mortalité de la population assurée dans la région. Toutefois, certaines problématiques techniques utiles n'ont pas été développées dans ces travaux de construction. La thèse leur accorde alors une attention particulière. Ainsi, d'une part, la thèse permet de fournir des outils pour tenir compte des différences de mortalité entre pays de la région, tout en limitant les risques systématiques liés aux fluctuations d'échantillonnage (dues à la petite taille des échantillons de données par pays). Il apparaît notamment que si la modélisation indépendante de chaque pays n'est pas appropriée, les modèles d'hétérogénéité à facteurs observables, tels que le modèle de Cox ou de Lin et Ying, permettent d'atteindre cet objectif. On précise toutefois ici que ces modèles d'hétérogénéité ne permettent pas de supprimer le risque systématique lié aux fluctuations d'échantillonnage lors de l'estimation du modèle, ils engendrent seulement une réduction de ce risque en contrepartie d'une augmentation du risque systématique lié au choix du modèle. D'autre part, la thèse permet également de fournir des outils pour modéliser la mortalité d'expérience future dans la région. En absence de données sur les tendances passées de la mortalité d'expérience, ni le modèle classique de Lee-Carter ni ses extensions ne sont applicables. Une solution basée sur un ajustement paramétrique, une hypothèse sur la forme de l'évolution du niveau de mortalité (évolution linaire ou exponentielle) et un avis d'expert sur l'espérance de vie générationnelle à un âge donné est alors proposée (ces travaux s'appuient sur le modèle de Bongaarts). Ensuite, dans un second temps, en supposant disposer de données sur les tendances passées (ce qui pour mémoire n'est pas le cas à ce stade dans la région, mais devrait l'être dans les prochaines années), la thèse propose une modélisation de la mortalité future à partir d'une référence de mortalité externe et une analyse des risques systématiques associés (risques liés aux fluctuations d'échantillonnage et au choix de la référence de mortalité).
32

La génèse et la dynamique des nouvelles entreprises

Arshakuni, Konstantin 28 June 2006 (has links) (PDF)
Dans cette thèse, nous examinons les processus empiriques de la genèse et de la dynamique des nouvelles entreprises. Nous considérons un modèle microéconomique de l'émergence des nouvelles entreprises et, plus particulièrement, la structure de l'incertitude relative à la fonction objectif de l'entrepreneur et l'influence des aides publiques sur les conditions de création des nouvelles entreprises. En utilisant les données françaises du dispositif SINE98 (Système d'Information sur les Nouvelles Entreprises) de l'Insee, nous construisons ensuite et estimons une spécification économétrique des conditions initiales de création des nouvelles firmes. Nous proposons une modélisation de la dynamique la distribution de la taille de l'entreprise à partir d'un noyau de transition log-normal. Ensuite, nous considérons les conséquences de la Loi de Gibrat dans le cas des nouvelles entreprises. Nous construisons et estimons un modèle de la dynamique de l'emploi dans les nouvelles entreprises et un modèle de survie des nouvelles firmes. Ces modèles originaux ont été construits et estimés compte tenu de l'endogénéité de la structure financière des projets d'investissement (telle que le niveau de capital initial, la présence d'un prêt bancaire et l'existence des aides publiques) en utilisant un estimateur de type GHK. Nous effectuons une évaluation de l''impact des aides publiques - les subventions et les exonérations fiscales - sur l'emploi total créé par les nouvelles entreprises.
33

Navigation d'un avion miniature de surveillance aérienne en présence de vent / Small lightweight aircraft navigation in the presence of wind

Brezoescu, Cornel-Alexandru 28 October 2013 (has links)
Ce travail de thèse porte sur le comportement en vol de drones légers à voilure fixe en présence de vent. Ces dispositifs aériens offrent une transition en douceur de la théorie à la pratique dans le domaine de la commande autonome. En outre, ils fournissent une solution appropriée dans des environnements inaccessibles ou dangereux pour les êtres humains. Cependant, ne pas avoir un pilote humain à bord implique que les UAV reposent sur l'automatisation pour naviguer ou pour éviter les obstacles. De plus, leur vitesse de fonctionnement relativement faible les rend particulièrement affectés par le vent. Motivé par ces considérations, les objectifs de ce travail de recherche visent des résultats théoriques et expérimentaux dans le domaine de la conception de contrôleurs de vol pour les petits drones à voilure fixe de configuration classique permettant le vol stable dans les conditions de vent. Pour atteindre ces objectifs, plusieurs domaines de recherche sont abordés dans cette thèse comme il suit.Tout d'abord, une étude approfondie sur l'aspect aérodynamique de l'avion est menée afin d'obtenir le modèle mathématique du véhicule en présence de vent. En outre, des modèles qui reproduisent le comportement essentiel du système dans un contexte simplifié sont analysés. Par conséquent, des modèles non linéaires de complexité réduite, qui sont plus simples à analyser et simuler et plus adaptés à la conception de stratégies de contrôle, sont présentés. Deuxièmement, le problème à résoudre est formulé comme un problème de suivi de trajectoire dans lequel le dispositif de commande de vol doit être en mesure de diriger le véhicule le long d'un chemin. Des stratégies de navigation sont élaborées dans le but d'éliminer la déviation de l'avion par rapport à la trajectoire de référence. Le vent est considéré d'abord mesurable par une station au sol et, ensuite, estimé en utilisant une navigation adaptative basée sur la théorie de Lyapunov. La performance de l'algorithme d'estimation est améliorée en utilisant la stratégie de commande basée sur la méthode des fonctions de réglage. Le troisième axe de recherche est la conception et la mise en œuvre d'un dispositif expérimental qui se compose d'une station au sol utilisée pour la visualisation et la commande à distance du drone et d'un pilote automatique embarqué contenant la plate-forme de vol munie d'avionique appropriée. / This research work addresses the flight behavior of lightweight fixed-wing UAVs in windy conditions. Such aerial devices offer a smooth transition of autonomous flight control design from theory to practice in addition to providing a proper solution in environments inaccessible or dangerous to human beings. However, not having a human pilot onboard implies that UAVs rely on automation to navigate or to avoidobstacles. In addition, their relatively low operating speed makes them particularly affected by the wind field.Motivated by theses considerations, the objectives of the current research aim theoretical and experimental results in designing flight controllers for small fixed-wing UAVs of conventional configuration allowing for stable flight in windy conditions. In order to achieve these objectives, several research areas are being addresses in this thesis as it follows. First, a comprehensive study on the aerodynamic aspect of the aiplane in conducted in order to obtain the mathematical model of the aircraft in presence of wind. Further, models thet reproduce the essential behavior of the system in a simplified context are analyzed. consequently, nonlinear models of reduced complexity, that are easier to analyze and simulate and more adapted to the design of control strategies, are presented. Secondly, the problem to be solved is formulated as a trajectory following problem in which the flight controller must be able to steer the vehicle along a path. Navigation strategies are developed in order to minimize the airplane deviation relative to the reference trajectory. the wind is considered initially measurable by a ground station and, then, estimated using adaptative navigation based on the theory of Lyapunov. The performance of the estimation algorithm is improved using control design based on thr tuning functions method. The third axis of research is the design and the implementation of an experimental setup which consists of a ground station used for visualization and control purposes and an embedded autopilot architecture containing the airframe platform equipped with appropriate avionics.
34

Evaluation, information et perspectives industrielles lors des scissions de filiales par introduction en bourse / Valuation, Information and Industry Perspectives of Equity Carve-outs

Mashwani, Asad Iqbal 13 November 2015 (has links)
Nous étudions l’évaluation, l’information et les perspectives industrielles lors des scissions de filiales par introduction en Bourse (ECO). Dans notre première étude, nous estimons les effets de richesse aux différentes étapes d’une ECO et leur lien sur les rentabilités boursières anormales de la société mère de la filiale. Nous trouvons que c’est la période de construction du livre d’ordres de l’introduction en bourse qui permet au marché financier de mieux estimer les effets de richesse positifs pour la société mère. Dans notre second travail, nousavançons que les ECO sont effectuées dans les secteurs industriels où les firmes présentent des opportunités de croissance plus faibles en moyenne. Nous démontrons que les industries concernées par des ECO ont des performances opérationnelles (mesurées par la rentabilité d’exploitation, les liquidités générées et la margeopérationnelle) plus faibles. Nous montrons également que les fusions acquisitions réalisées dans les industries où une ECO a eu lieu durant les trois années précédentes créent moins de valeur pour l’offreur que les fusions acquisitions qui ne sont pas concernées par une ECO. La dernière étude de cette thèse analyse l’impact d’une ECO sur la divergence d’estimations des analystes financiers et sur le nombre d’analystes suivants la société mère. Nous trouvons que la divergence d’estimations et le nombre d’analystes augmentent après une ECO. / We study the valuation, information and industry perspectives of equity carve-outs. In our first paper, we study the wealth effect of equity carve-outs and its relationship with the abnormal returns to the parent firm. Using thisrelationship we find that during book-building period of equity carve-out, the returns to the parent firm can be used to pre-empt the wealth effect of equity carve-out. In our second paper, we argue that equity carve-outs, on average, are carried out in industries, where opportunities are low. We find that these industries have low operating performance, gauged on profitability, cash flow and profit margin compared to industries where there are no carve-outs. In addition to this evidence, we find that the merger and acquisition activities, in which targetsare in industries where carve-out activities happened in last three years before the M&A activity, bidders have less value created compared to mergers where the target industry has no carve-out activity. In our third paper, we analyze the impact of carve-outs on the divergence of belief and the number of analysts following the firm. We find that divergence of belief increases after a carve-out and number of analysts following the firm increases, also.
35

Entropic measures of connectivity with an application to intracerebral epileptic signals / Mesures entropiques de connectivité avec application à l'épilepsie

Zhu, Jie 22 June 2016 (has links)
Les travaux présentés dans cette thèse s'inscrivent dans la problématique de la connectivité cérébrale, connectivité tripartite puisqu'elle sous-tend les notions de connectivité structurelle, fonctionnelle et effective. Ces trois types de connectivité que l'on peut considérer à différentes échelles d'espace et de temps sont bien évidemment liés et leur analyse conjointe permet de mieux comprendre comment structures et fonctions cérébrales se contraignent mutuellement. Notre recherche relève plus particulièrement de la connectivité effective qui permet de définir des graphes de connectivité qui renseignent sur les liens causaux, directs ou indirects, unilatéraux ou bilatéraux via des chemins de propagation, représentés par des arcs, entre les nœuds, ces derniers correspondant aux régions cérébrales à l'échelle macroscopique. Identifier les interactions entre les aires cérébrales impliquées dans la génération et la propagation des crises épileptiques à partir d'enregistrements intracérébraux est un enjeu majeur dans la phase pré-chirurgicale et l'objectif principal de notre travail. L'exploration de la connectivité effective suit généralement deux approches, soit une approche basée sur les modèles, soit une approche conduite par les données comme nous l'envisageons dans le cadre de cette thèse où les outils développés relèvent de la théorie de l'information et plus spécifiquement de l'entropie de transfert, la question phare que nous adressons étant celle de la précision des estimateurs de cette grandeur dans le cas des méthodes développées basées sur les plus proches voisins. Les approches que nous proposons qui réduisent le biais au regard d'estimateurs issus de la littérature sont évaluées et comparées sur des signaux simulés de type bruits blancs, processus vectoriels autorégressifs linéaires et non linéaires, ainsi que sur des modèles physiologiques réalistes avant d'être appliquées sur des signaux électroencéphalographiques de profondeur enregistrés sur un patient épileptique et comparées à une approche assez classique basée sur la fonction de transfert dirigée. En simulation, dans les situations présentant des non-linéarités, les résultats obtenus permettent d'apprécier la réduction du biais d'estimation pour des variances comparables vis-à-vis des techniques connues. Si les informations recueillies sur les données réelles sont plus difficiles à analyser, elles montrent certaines cohérences entre les méthodes même si les résultats préliminaires obtenus s'avèrent davantage en accord avec les conclusions des experts cliniciens en appliquant la fonction de transfert dirigée. / The work presented in this thesis deals with brain connectivity, including structural connectivity, functional connectivity and effective connectivity. These three types of connectivities are obviously linked, and their joint analysis can give us a better understanding on how brain structures and functions constrain each other. Our research particularly focuses on effective connectivity that defines connectivity graphs with information on causal links that may be direct or indirect, unidirectional or bidirectional. The main purpose of our work is to identify interactions between different brain areas from intracerebral recordings during the generation and propagation of seizure onsets, a major issue in the pre-surgical phase of epilepsy surgery treatment. Exploring effective connectivity generally follows two kinds of approaches, model-based techniques and data-driven ones. In this work, we address the question of improving the estimation of information-theoretic quantities, mainly mutual information and transfer entropy, based on k-Nearest Neighbors techniques. The proposed approaches we developed are first evaluated and compared with existing estimators on simulated signals including white noise processes, linear and nonlinear vectorial autoregressive processes, as well as realistic physiology-based models. Some of them are then applied on intracerebral electroencephalographic signals recorded on an epileptic patient, and compared with the well-known directed transfer function. The experimental results show that the proposed techniques improve the estimation of information-theoretic quantities for simulated signals, while the analysis is more difficult in real situations. Globally, the different estimators appear coherent and in accordance with the ground truth given by the clinical experts, the directed transfer function leading to interesting performance.
36

Contribution à la sélection de variables en présence de données longitudinales : application à des biomarqueurs issus d'imagerie médicale / Contribution to variable selection in the presence of longitudinal data : application to biomarkers derived from medical imaging

Geronimi, Julia 13 December 2016 (has links)
Les études cliniques permettent de mesurer de nombreuses variables répétées dans le temps. Lorsque l'objectif est de les relier à un critère clinique d'intérêt, les méthodes de régularisation de type LASSO, généralisées aux Generalized Estimating Equations (GEE) permettent de sélectionner un sous-groupe de variables en tenant compte des corrélations intra-patients. Les bases de données présentent souvent des données non renseignées et des problèmes de mesures ce qui entraîne des données manquantes inévitables. L'objectif de ce travail de thèse est d'intégrer ces données manquantes pour la sélection de variables en présence de données longitudinales. Nous utilisons la méthode d'imputation multiple et proposons une fonction d'imputation pour le cas spécifique des variables soumises à un seuil de détection. Nous proposons une nouvelle méthode de sélection de variables pour données corrélées qui intègre les données manquantes : le Multiple Imputation Penalized Generalized Estimating Equations (MI-PGEE). Notre opérateur utilise la pénalité group-LASSO en considérant l'ensemble des coefficients de régression estimés d'une même variable sur les échantillons imputés comme un groupe. Notre méthode permet une sélection consistante sur l'ensemble des imputations, et minimise un critère de type BIC pour le choix du paramètre de régularisation. Nous présentons une application sur l'arthrose du genoux où notre objectif est de sélectionner le sous-groupe de biomarqueurs qui expliquent le mieux les différences de largeur de l'espace articulaire au cours du temps. / Clinical studies enable us to measure many longitudinales variables. When our goal is to find a link between a response and some covariates, one can use regularisation methods, such as LASSO which have been extended to Generalized Estimating Equations (GEE). They allow us to select a subgroup of variables of interest taking into account intra-patient correlations. Databases often have unfilled data and measurement problems resulting in inevitable missing data. The objective of this thesis is to integrate missing data for variable selection in the presence of longitudinal data. We use mutiple imputation and introduce a new imputation function for the specific case of variables under detection limit. We provide a new variable selection method for correlated data that integrate missing data : the Multiple Imputation Penalized Generalized Estimating Equations (MI-PGEE). Our operator applies the group-LASSO penalty on the group of estimated regression coefficients of the same variable across multiply-imputed datasets. Our method provides a consistent selection across multiply-imputed datasets, where the optimal shrinkage parameter is chosen by minimizing a BIC-like criteria. We then present an application on knee osteoarthritis aiming to select the subset of biomarkers that best explain the differences in joint space width over time.
37

Validation croisée et pénalisation pour l'estimation de densité / Cross-validation and penalization for density estimation

Magalhães, Nelo 26 May 2015 (has links)
Cette thèse s'inscrit dans le cadre de l'estimation d'une densité, considéré du point de vue non-paramétrique et non-asymptotique. Elle traite du problème de la sélection d'une méthode d'estimation à noyau. Celui-ci est une généralisation, entre autre, du problème de la sélection de modèle et de la sélection d'une fenêtre. Nous étudions des procédures classiques, par pénalisation et par rééchantillonnage (en particulier la validation croisée V-fold), qui évaluent la qualité d'une méthode en estimant son risque. Nous proposons, grâce à des inégalités de concentration, une méthode pour calibrer la pénalité de façon optimale pour sélectionner un estimateur linéaire et prouvons des inégalités d'oracle et des propriétés d'adaptation pour ces procédures. De plus, une nouvelle procédure rééchantillonnée, reposant sur la comparaison entre estimateurs par des tests robustes, est proposée comme alternative aux procédures basées sur le principe d'estimation sans biais du risque. Un second objectif est la comparaison de toutes ces procédures du point de vue théorique et l'analyse du rôle du paramètre V pour les pénalités V-fold. Nous validons les résultats théoriques par des études de simulations. / This thesis takes place in the density estimation setting from a nonparametric and nonasymptotic point of view. It concerns the statistical algorithm selection problem which generalizes, among others, the problem of model and bandwidth selection. We study classical procedures, such as penalization or resampling procedures (in particular V-fold cross-validation), which evaluate an algorithm by estimating its risk. We provide, thanks to concentration inequalities, an optimal penalty for selecting a linear estimator and we prove oracle inequalities and adaptative properties for resampling procedures. Moreover, new resampling procedure, based on estimator comparison by the mean of robust tests, is introduced as an alternative to procedures relying on the unbiased risk estimation principle. A second goal of this work is to compare these procedures from a theoretical point of view and to understand the role of V for V-fold penalization. We validate these theoretical results on empirical studies.
38

Récursivité au carrefour de la modélisation de séquences, des arbres aléatoires, des algorithmes stochastiques et des martingales

Cénac, Peggy 15 November 2013 (has links) (PDF)
Ce mémoire est une synthèse de plusieurs études à l'intersection des systèmes dynamiques dans l'analyse statistique de séquences, de l'analyse d'algorithmes dans des arbres aléatoires et des processus stochastiques discrets. Les résultats établis ont des applications dans des domaines variés allant des séquences biologiques aux modèles de régression linéaire, processus de branchement, en passant par la statistique fonctionnelle et les estimations d'indicateurs de risque appliqués à l'assurance. Tous les résultats établis utilisent d'une façon ou d'une autre le caractère récursif de la structure étudiée, en faisant apparaître des invariants comme des martingales. Elles sont au coeur de ce mémoire, utilisées comme outils dans les preuves ou comme objets d'étude.
39

Développement d'outils statistiques pour l'amélioration de dispositifs d'imagerie acoustique et micro-onde

Diong, Mouhamadou 09 December 2015 (has links)
L'un des enjeux majeurs pour les systèmes d'imagerie par diffraction acoustique et micro-onde, est l'amélioration des performances obtenues au moment de la reconstruction des objets étudiés. Cette amélioration peut s'effectuer par la recherche d'algorithmes d'imagerie plus performants d'une part et par la recherche d'une meilleure configuration de mesures d'autre part. La première approche (recherche d'algorithmes) permet d'améliorer le processus d'extraction de l'information présente dans un échantillon de mesures donné. Néanmoins, la qualité des résultats d'imagerie reste limitée par la quantité d'information initialement disponible. La seconde approche consiste à choisir la configuration de mesures de manière à augmenter la quantité d'information disponible dans les données. Pour cette approche, il est nécessaire de quantifier la quantité d'information dans les données. En théorie de l'estimation, ceci équivaut à quantifier la performance du système. Dans cette thèse, nous utilisons la Borne de Cramer Rao comme mesure de performance, car elle permet d'analyser la performance des systèmes de mesures sans être influencé par le choix de la méthode d'inversion utilisée. Deux analyses sont proposées dans ce manuscrit. La première consiste en l'évaluation de l'influence des facteurs expérimentaux sur la performance d'inversion. Cette analyse a été effectuée pour différents objets le tout sous une hypothèse de configuration bidimensionnelle. La seconde analyse consiste à comparer les performances de l'estimateur obtenu avec l'approximation de Born aux valeurs de la borne de Cramer Rao (BCR); l'objectif étant d'illustrer d'autres applications possibles de la BCR. / Improving the performance of diffraction based imaging systems constitutes a major issue in both acoustic and electromagnetic scattering. To solve this problem, two main approaches can be explored. The first one consists in improving the inversion algorithms used in diffraction based imaging. However, while this approach generally leads to a significant improvement of the performance of the imaging system, it remains limited by the initial amount of information available within the measurements. The second one consists in improving the measurement system in order to maximize the amount of information within the experimental data. This approach does require a quantitative mean of measuring the amount of information available. In estimation problems, the {appraisal of the} performance of the system is often used for that purpose. In this Ph.D. thesis, we use the Cramer Rao bound to assess the performance of the imaging system. In fact, this quantity has the advantage of providing an assessment which is independent from the inversion algorithm used. Two main analysis are discussed in this thesis. The first analysis explores the influence on the system's performance, of several experimental conditions such as the antennas positions, the radiation pattern of the source, the properties of the background medium, etc. Two classes of objects are considered: 2D homogeneous circular cylindrical objects and 2D cylindrical objects with defect. The second analysis studies the performance of an estimator based on Born approximation with the Cramer Rao Bound as reference. The aim of this second analysis is to showcase other possible applications for the Cramer Rao Bound.
40

Nouvelle approche d'estimation de la vulnérabilité des aquifères combinant le modèle DRASTIC et la sensibilité des sols à l'infiltration. Application à l'aquifère du Dogger dans l'interfluve Clain-Vienne, Poitou-Charentes, France / New approach of estimation of the vulnerability of aquiferes combining the model DRASTIC and the sensibility of grounds in the infiltration. Application in the aquifer of Dogger in the interfluve Clain-Vienne, Poitou-Charentes, France

Shorieh, Amani 16 July 2014 (has links)
Cette étude s'intéresse, par l'utilisation de la cartographie, à l'évaluation de la vulnérabilité des eaux souterraines aux pollutions en particulier à la vulnérabilité intrinsèque des nappes libres. Dans cette optique, une étude bibliographique sur les méthodes d'estimation de la vulnérabilité des nappes a été menée. A partir de cette étude bibliographique on a trouvé que la méthode DRASTIC a été considérée comme la base de la plupart des études de vulnérabilité.<br>L'aquifère du Dogger convient tout-à-fait à une application des différentes méthodologies. En effet, grâce à son importance en tant que source d'eau potable et d'irrigation ainsi qu'à sa principale problématique qui est la vulnérabilité aux concentrations en nitrates (on peut la considérer comme une nappe très vulnérable aux pollutions superficielles, surtout aux surconcentrations en nitrates), une base de données à la fois volumineuse et diversifiée a été acquise sur plusieurs décennies de travaux de prospection, de suivi et d'exploitation. On peut retrouver ces données sous forme de fiches, de tableaux de cartes et de comptes-rendus.<br>Une description générale de la zone d'étude nous a permis de déterminer les paramètres disponibles dans cette aquifère afin de déterminer quelle méthode il convenait d'appliquer à cette nappe. Ainsi, une étude hydrogéochimique à été réalisée à partir d'une campagne de prélèvements et d'analyses chimiques des eaux souterraines. Ces analyses chimiques, en particulier les analyses des teneurs en nitrates, ont été utilisées pour valider les cartes de la vulnérabilité de l'aquifère du Dogger.<br>Donc, dans le but de cartographier la vulnérabilité de la nappe du Dogger dans le département de la Vienne, on a appliqué deux méthodes, et tout d'abord la méthode DRASTIC (Aller et al. 1987). La carte obtenue par cette méthode est mal corrélée avec la concentration en nitrates.<br>En effet cette méthode attribue un poids faible au sol dans le calcul de l'indice final et elle a complètement ignoré les rôles des activités agricoles. C'est pourquoi on a proposé une nouvelle méthode dévirée de la méthode DRASTIC. Cette seconde méthode est plus adaptée à la nappe libre localisée sous la surface d'une activité agricole très importante. En prenant en considération les neuf paramètres qui déterminent la sensibilité des sols à l'infiltration verticale et l'occupation du sol. La nouvelle carte a permis d'obtenir une meilleure corrélation entre les concentrations en nitrates mesurées et les zones vulnérables par rapport à la méthode originale.<br> Le système d'information géographique avec le logiciel Arc Map (10) a représenté un facteur très important pour réaliser ce projet. Ce SIG a permis de construire une base de toutes les données existantes "géologiques, hydrogéologiques, chimiques et les caractéristiques du sol". Cette base, d'une part permet de disposer pour l'aquifère du jurassique moyen dans la zone d'interfluve Clain-Vienne, des couches d'informations complètes qui pourraient être une référence pour plusieurs études hydrogéologiques. D'autre part, le SIG a été très précieux dans le domaine de la protection et de la gestion des nappes. Il a pu faciliter l'application des méthodes d'estimation de la vulnérabilité, grâce à ses outils (coupage, superposition, méthode d'interpolation, calcul mathématique) qui permettent de traiter un grand nombre des données en superposant toutes les cartes de chaque facteur sur un support de même taille, ainsi que d'intégrer et combiner ces cartes. Nous pouvons à l'aide de tous ces outils, calculer les indices finaux et produire une carte finale de la vulnérabilité qui devient elle-même un outil facile de comparaison avec les teneurs en nitrates afin de valider les résultats. / The main objective of this PhD thesis is the optimization of a novel approach to estimate groundwater vulnerability using both the DRASTIC model and soil infiltration sensitivity. The model will be then applied to the Dogger aquifer of Poitiers, Center West France; to delineate areas that are more susceptible to contamination from anthropogenic sources. This is an important element for sensible resource management and land use planning.<br>Poitou-Charentes, located in the Center-West of France, is a region where economy is mainly based on agriculture. It is made up of 4 Departments (Vienne, Charente, Charente Maritime, Deux-Sèvres) and is largely supplied by groundwater, both for consumption and irrigation. This resources thus vital to the region and its preservation is a major issue. The objective of this study is the determination of the roundwater quality in the Dogger aquifer of Poitiers (Vienne Department), which is the main water resource for his area in order to achieve a better understanding of the factors influencing groundwater mineralization. Sixty-six wells, distributed over the study area, were sampled and analyzed for major ions (Ca2+, M2+, Na+, K+, HCO3-, Cl-, SO42-, NO3-). The hydrochemistry of groundwater is determined by both natural processes, and anthropogenic factors. Natural factors are dissolution of carbonate and dolomite minerals, and cation exchanges with clays, while anthropogenic factors are contaminant infiltration of wastewater and agricultural fertilizers. Nitrate is the main contaminant found in the groundwater and makes this resource unsuitable for consumption at some places.<br>This study focuses, by the use of mapping, on the assessment of the vulnerability of groundwater to pollution in particular to the intrinsic vulnerability of unconfined aquifers. The DRASTIC method was considered the most basic vulnerability studies.<br>In this study, we intend initially to implement the DRASTIC model, as it was developed by US-EPA. The results of application of DRASTIC will be discussed and validated against available knowledge on Dogger groundwater quality, and in particular nitrate levels. Secondly, the development of a new approach will be developed based on a combination of DRASTIC model and a concept recently developed by the Chamber of Agriculture of Vienne soil susceptibility to infiltration. The results showed that this new approach results in a vulnerability assessment of the aquifer is entirely consistent with the state of contamination of the well and integrates all the parameters (risk parameters intrinsic parameters) involved in transferring pollutants from the soil surface to the well.<br>

Page generated in 0.1412 seconds