• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 17
  • 7
  • Tagged with
  • 55
  • 55
  • 28
  • 18
  • 14
  • 13
  • 12
  • 12
  • 12
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Modélisation de la végétation holocène du Nord-Ouest de la France : reconstruction de la chronologie et de l'évolution du couvert végétal du Bassin parisien et du Massif armoricain

David, Rémi 04 April 2014 (has links) (PDF)
Comprendre la complexité des relations entre nature et sociétés a toujours constitué un défi pour les recherches dans le domaine de l'environnement. A l'ère de la compilation de données dans de nombreuses disciplines, la modélisation constitue l'une des options les plus attractives pour comprendre et traduire les évolutions du milieu naturel. Les objectifs principaux de ce travail de recherche sont 1) de restituer la structure du couvert végétal régional et d'en retracer les évolutions au cours de l'Holocène au sein de deux régions du nord-ouest de la France, le Bassin parisien et le Massif armoricain, et 2) de les interpréter en termes de relations entre les sociétés pré- et protohistoriques et leur milieu naturel. Pour cela, nous avons mis en place une démarche méthodologique visant à 1) redéfinir le cadre chronologique des séquences polliniques rassemblées pour les deux régions, 2) tester, adapter puis appliquer un modèle de reconstitution quantitative du couvert végétal, 3) définir une histoire de la végétation estimée relative à chaque aire géographique modélisée, 4) comparer ces histoires régionales et 5) les confronter aux informations disponibles en matière de densités de sites archéologiques et de proximité de ces sites aux points de sondages polliniques. Des cadres structurant l'évolution du couvert végétal pour chacune des deux régions étudiées ressortent les grandes étapes de la mise en place des paysages au cours de l'Holocène. Des spécificités régionales ont cependant pu être identifiées, tant en matière de chronologie de l'évolution de la végétation estimée qu'en matière de proportions relatives des taxons présents. Une certaine singularité doit donc être reconnue à l'évolution des paysages holocènes de chacune de ces deux parties du nord-ouest de la France. On remarque notamment des dynamiques et des niveaux d'anthropisation tout à fait distincts entre Bassin parisien et Massif armoricain de la fin du Mésolithique à celle du Néolithique. A l'inverse, on retrouve de part et d'autre une certaine similarité entre les proportions estimées des taxons marqueurs d'anthropisation entre la fin du Néolithique et celle de l'âge du Bronze. Des liens évidents entre les variations de l'impact anthropique enregistré et celles de la densité des occupations reconnues ont par ailleurs pu être observés.
42

Traitement du signal collaboratif dans les réseaux de capteurs sans fils

Mansouri, Majdi 17 October 2011 (has links) (PDF)
L'objectif principal de la thèse est d'étudier le problème d'inférence bayésienne dans les réseaux de capteurs distribués avec un accent particulier sur le compromis entre la précision de l'estimation et la consommation de l'énergie. Nous avons proposé des algorithmes de traitement distribué du signal avec des mesures de capteurs quantifiées. En particulier, cette thèse porte sur l'application des méthodes variationnelles pour résoudre les problèmes de suivi de cibles sous les contraintes d'énergie dans les RCSFs. Le travail a abouti à la résolution de trois problèmes en RCSFs: la quantification intelligente des données des capteurs, la gestion des clusters et l'application de l'optimisation multi-objectifs pour s'accommoder des contraintes énergétiques d'un réseau de capteurs. Les contributions de cette thèse concernent les points suivant: -Estimation des positions de cibles basée sur des mesures quantifiées utilisant des méthodes variationnelles. -Estimation de canal entre les capteurs candidats et le chef de cluster. -Un régime de quantification adaptative sous contraintes de puissance de transmission constante et variable. -Sélection de meilleurs capteurs qui peuvent participer à la collecte de données. -Agrégation sécurisée de données dans le RCSF. -Sélection de chemins de communication optimaux entre les capteurs. -Méthode d'optimisation multi-objectifs dans le RCSF. -Application de la méthode d'agrégation multicritères des données basée sur le systéme multi-agents pour la gestion de crise dans le RCSF.
43

Propriétés asymtpotiques et inférence avec des données manquantes pour les modèles de maintenance imparfaite / Asymptotic properties and inference with missing data for imperfect maintenance models

Nguyen, Dinh Tuan 01 December 2015 (has links)
Cette thèse est consacrée à la modélisation de la maintenance imparfaite par les modèles statistiques. La maintenance imparfaite est le cas intermédiaire de deux situations extrêmes : la maintenance minimale où le système est remis en état qu’il se trouve juste avant la défaillance, et la maintenance parfaite où le système est remplacé à neuf. Dans ce cadre, les expressions analytiques des grandeurs de fiabilité d’un modèle de maintenance imparfaite sont développées. La convergence du modèle est soulignée, et les lois asymptotiques dans le régime stationnaire sont proposées. Ensuite, les lois sont appliquées pour proposer des politiques de maintenance préventive avec des maintenances imparfaites. Le deuxième thème consiste à proposer une adaptation de procédure d’estimation pour les fenêtres d’observation. Seuls les événements pendant ces périodes sont observés. La modélisation et l’inférence s’appuient sur la convergence de modèles vers leurs régimes stationnaires, ou sur la modélisation de l’âge du système au début des fenêtres. Enfin, l’inférence bayésienne d’un modèle de maintenance imparfaite y est présentée. On étudie l’impact des choix des lois a priori sur la qualité des estimations par des simulations numériques. La sélection des modèles de maintenance imparfaite par le facteur de Bayes est proposée. Dans chaque partie, les modélisations statistiques sont appliquées à des données issues de l’industrie / The thesis analyses imperfect maintenance processes of industrial systems by statistical models. Imperfect maintenance is an intermediate situation of two extremes ones: minimal maintenance where the system is restored to the state immediately prior to failure, and perfect maintenance where the system is renewed after the failure. Analytical expressions of reliability quantities of an imperfect maintenance model are developed. The convergence of the model is highlighted and the asymptotic expressions are proposed. The results are applied to build some preventive maintenance policies that contain only imperfect maintenances. The second part of the thesis consists of analyzing failure data contained in observation windows. An observation window is a period of the entire functioning history that only the events occurring in this period are recorded. The modelling and the inference are based on the convergence property or the modelling of initial age. Finally, Bayesian inference of an imperfect maintenance model is presented. The impact of the choices of a priori distributions is analyzed by numerical simulations. A selection method of imperfect maintenance models using the Bayes factor is also introduced.The statistical modelling in each section is applied to real data
44

Misbehaviors detection schemes in mobile ad hoc networks / Une approche décentralisée pour la détection de comportements malveillants dans les réseaux MANETs

Rmayti, Mohammad 30 September 2016 (has links)
Avec l’évolution des besoins d’utilisateurs, plusieurs technologies de réseaux sans fil ont été développées. Parmi ces technologies, nous trouvons les réseaux mobiles ad hoc (MANETs) qui ont été conçus pour assurer la communication dans le cas où le déploiement d’une infrastructure réseaux est coûteux ou inapproprié. Dans ces réseaux, le routage est une fonction primordiale où chaque entité mobile joue le rôle d’un routeur et participe activement dans le routage. Cependant, les protocoles de routage ad hoc tel qu’ils sont conçus manquent de contrôle de sécurité. Sur un chemin emprunté, un nœud malveillant peut violemment perturber le routage en bloquant le trafic. Dans cette thèse, nous proposons une solution de détection des nœuds malveillants dans un réseau MANET basée sur l’analyse comportementale à travers les filtres bayésiens et les chaînes de Markov. L’idée de notre solution est d’évaluer le comportement d’un nœud en fonction de ses échanges avec ses voisins d’une manière complètement décentralisée. Par ailleurs, un modèle stochastique est utilisé afin de prédire la nature de comportement d’un nœud et vérifier sa fiabilité avant d’emprunter un chemin. Notre solution a été validée via de nombreuses simulations sur le simulateur NS-2. Les résultats montrent que la solution proposée permet de détecter avec précision les nœuds malveillants et d’améliorer la qualité de services de réseaux MANETs / With the evolution of user requirements, many network technologies have been developed. Among these technologies, we find mobile ad hoc networks (MANETs) that were designed to ensure communication in situations where the deployment of a network infrastructure is expensive or inappropriate. In this type of networks, routing is an important function where each mobile entity acts as a router and actively participates in routing services. However, routing protocols are not designed with security in mind and often are very vulnerable to node misbehavior. A malicious node included in a route between communicating nodes may severely disrupt the routing services and block the network traffic. In this thesis, we propose a solution for detecting malicious nodes in MANETs through a behavior-based analysis and using Bayesian filters and Markov chains. The core idea of our solution is to evaluate the behavior of a node based on its interaction with its neighbors using a completely decentralized scheme. Moreover, a stochastic model is used to predict the nature of behavior of a node and verify its reliability prior to selecting a path. Our solution has been validated through extensive simulations using the NS-2 simulator. The results show that the proposed solution ensures an accurate detection of malicious nodes and improve the quality of routing services in MANETs
45

Essays in dynamic macroeconometrics

Bañbura, Marta 26 June 2009 (has links)
The thesis contains four essays covering topics in the field of macroeconomic forecasting.<p><p>The first two chapters consider factor models in the context of real-time forecasting with many indicators. Using a large number of predictors offers an opportunity to exploit a rich information set and is also considered to be a more robust approach in the presence of instabilities. On the other hand, it poses a challenge of how to extract the relevant information in a parsimonious way. Recent research shows that factor models provide an answer to this problem. The fundamental assumption underlying those models is that most of the co-movement of the variables in a given dataset can be summarized by only few latent variables, the factors. This assumption seems to be warranted in the case of macroeconomic and financial data. Important theoretical foundations for large factor models were laid by Forni, Hallin, Lippi and Reichlin (2000) and Stock and Watson (2002). Since then, different versions of factor models have been applied for forecasting, structural analysis or construction of economic activity indicators. Recently, Giannone, Reichlin and Small (2008) have used a factor model to produce projections of the U.S GDP in the presence of a real-time data flow. They propose a framework that can cope with large datasets characterised by staggered and nonsynchronous data releases (sometimes referred to as “ragged edge”). This is relevant as, in practice, important indicators like GDP are released with a substantial delay and, in the meantime, more timely variables can be used to assess the current state of the economy.<p><p>The first chapter of the thesis entitled “A look into the factor model black box: publication lags and the role of hard and soft data in forecasting GDP” is based on joint work with Gerhard Rünstler and applies the framework of Giannone, Reichlin and Small (2008) to the case of euro area. In particular, we are interested in the role of “soft” and “hard” data in the GDP forecast and how it is related to their timeliness.<p>The soft data include surveys and financial indicators and reflect market expectations. They are usually promptly available. In contrast, the hard indicators on real activity measure directly certain components of GDP (e.g. industrial production) and are published with a significant delay. We propose several measures in order to assess the role of individual or groups of series in the forecast while taking into account their respective publication lags. We find that surveys and financial data contain important information beyond the monthly real activity measures for the GDP forecasts, once their timeliness is properly accounted for.<p><p>The second chapter entitled “Maximum likelihood estimation of large factor model on datasets with arbitrary pattern of missing data” is based on joint work with Michele Modugno. It proposes a methodology for the estimation of factor models on large cross-sections with a general pattern of missing data. In contrast to Giannone, Reichlin and Small (2008), we can handle datasets that are not only characterised by a “ragged edge”, but can include e.g. mixed frequency or short history indicators. The latter is particularly relevant for the euro area or other young economies, for which many series have been compiled only since recently. We adopt the maximum likelihood approach which, apart from the flexibility with regard to the pattern of missing data, is also more efficient and allows imposing restrictions on the parameters. Applied for small factor models by e.g. Geweke (1977), Sargent and Sims (1977) or Watson and Engle (1983), it has been shown by Doz, Giannone and Reichlin (2006) to be consistent, robust and computationally feasible also in the case of large cross-sections. To circumvent the computational complexity of a direct likelihood maximisation in the case of large cross-section, Doz, Giannone and Reichlin (2006) propose to use the iterative Expectation-Maximisation (EM) algorithm (used for the small model by Watson and Engle, 1983). Our contribution is to modify the EM steps to the case of missing data and to show how to augment the model, in order to account for the serial correlation of the idiosyncratic component. In addition, we derive the link between the unexpected part of a data release and the forecast revision and illustrate how this can be used to understand the sources of the<p>latter in the case of simultaneous releases. We use this methodology for short-term forecasting and backdating of the euro area GDP on the basis of a large panel of monthly and quarterly data. In particular, we are able to examine the effect of quarterly variables and short history monthly series like the Purchasing Managers' surveys on the forecast.<p><p>The third chapter is entitled “Large Bayesian VARs” and is based on joint work with Domenico Giannone and Lucrezia Reichlin. It proposes an alternative approach to factor models for dealing with the curse of dimensionality, namely Bayesian shrinkage. We study Vector Autoregressions (VARs) which have the advantage over factor models in that they allow structural analysis in a natural way. We consider systems including more than 100 variables. This is the first application in the literature to estimate a VAR of this size. Apart from the forecast considerations, as argued above, the size of the information set can be also relevant for the structural analysis, see e.g. Bernanke, Boivin and Eliasz (2005), Giannone and Reichlin (2006) or Christiano, Eichenbaum and Evans (1999) for a discussion. In addition, many problems may require the study of the dynamics of many variables: many countries, sectors or regions. While we use standard priors as proposed by Litterman (1986), an<p>important novelty of the work is that we set the overall tightness of the prior in relation to the model size. In this we follow the recommendation by De Mol, Giannone and Reichlin (2008) who study the case of Bayesian regressions. They show that with increasing size of the model one should shrink more to avoid overfitting, but when data are collinear one is still able to extract the relevant sample information. We apply this principle in the case of VARs. We compare the large model with smaller systems in terms of forecasting performance and structural analysis of the effect of monetary policy shock. The results show that a standard Bayesian VAR model is an appropriate tool for large panels of data once the degree of shrinkage is set in relation to the model size. <p><p>The fourth chapter entitled “Forecasting euro area inflation with wavelets: extracting information from real activity and money at different scales” proposes a framework for exploiting relationships between variables at different frequency bands in the context of forecasting. This work is motivated by the on-going debate whether money provides a reliable signal for the future price developments. The empirical evidence on the leading role of money for inflation in an out-of-sample forecast framework is not very strong, see e.g. Lenza (2006) or Fisher, Lenza, Pill and Reichlin (2008). At the same time, e.g. Gerlach (2003) or Assenmacher-Wesche and Gerlach (2007, 2008) argue that money and output could affect prices at different frequencies, however their analysis is performed in-sample. In this Chapter, it is investigated empirically which frequency bands and for which variables are the most relevant for the out-of-sample forecast of inflation when the information from prices, money and real activity is considered. To extract different frequency components from a series a wavelet transform is applied. It provides a simple and intuitive framework for band-pass filtering and allows a decomposition of series into different frequency bands. Its application in the multivariate out-of-sample forecast is novel in the literature. The results indicate that, indeed, different scales of money, prices and GDP can be relevant for the inflation forecast.<p> / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
46

Essays on aggregation and cointegration of econometric models

Silvestrini, Andrea 02 June 2009 (has links)
This dissertation can be broadly divided into two independent parts. The first three chapters analyse issues related to temporal and contemporaneous aggregation of econometric models. The fourth chapter contains an application of Bayesian techniques to investigate whether the post transition fiscal policy of Poland is sustainable in the long run and consistent with an intertemporal budget constraint.<p><p><p>Chapter 1 surveys the econometric methodology of temporal aggregation for a wide range of univariate and multivariate time series models. <p><p><p>A unified overview of temporal aggregation techniques for this broad class of processes is presented in the first part of the chapter and the main results are summarized. In each case, assuming to know the underlying process at the disaggregate frequency, the aim is to find the appropriate model for the aggregated data. Additional topics concerning temporal aggregation of ARIMA-GARCH models (see Drost and Nijman, 1993) are discussed and several examples presented. Systematic sampling schemes are also reviewed.<p><p><p>Multivariate models, which show interesting features under temporal aggregation (Breitung and Swanson, 2002, Marcellino, 1999, Hafner, 2008), are examined in the second part of the chapter. In particular, the focus is on temporal aggregation of VARMA models and on the related concept of spurious instantaneous causality, which is not a time series property invariant to temporal aggregation. On the other hand, as pointed out by Marcellino (1999), other important time series features as cointegration and presence of unit roots are invariant to temporal aggregation and are not induced by it.<p><p><p>Some empirical applications based on macroeconomic and financial data illustrate all the techniques surveyed and the main results.<p><p>Chapter 2 is an attempt to monitor fiscal variables in the Euro area, building an early warning signal indicator for assessing the development of public finances in the short-run and exploiting the existence of monthly budgetary statistics from France, taken as "example country". <p><p><p>The application is conducted focusing on the cash State deficit, looking at components from the revenue and expenditure sides. For each component, monthly ARIMA models are estimated and then temporally aggregated to the annual frequency, as the policy makers are interested in yearly predictions. <p><p><p>The short-run forecasting exercises carried out for years 2002, 2003 and 2004 highlight the fact that the one-step-ahead predictions based on the temporally aggregated models generally outperform those delivered by standard monthly ARIMA modeling, as well as the official forecasts made available by the French government, for each of the eleven components and thus for the whole State deficit. More importantly, by the middle of the year, very accurate predictions for the current year are made available. <p><p>The proposed method could be extremely useful, providing policy makers with a valuable indicator when assessing the development of public finances in the short-run (one year horizon or even less). <p><p><p>Chapter 3 deals with the issue of forecasting contemporaneous time series aggregates. The performance of "aggregate" and "disaggregate" predictors in forecasting contemporaneously aggregated vector ARMA (VARMA) processes is compared. An aggregate predictor is built by forecasting directly the aggregate process, as it results from contemporaneous aggregation of the data generating vector process. A disaggregate predictor is a predictor obtained from aggregation of univariate forecasts for the individual components of the data generating vector process. <p><p>The econometric framework is broadly based on Lütkepohl (1987). The necessary and sufficient condition for the equality of mean squared errors associated with the two competing methods in the bivariate VMA(1) case is provided. It is argued that the condition of equality of predictors as stated in Lütkepohl (1987), although necessary and sufficient for the equality of the predictors, is sufficient (but not necessary) for the equality of mean squared errors. <p><p><p>Furthermore, it is shown that the same forecasting accuracy for the two predictors can be achieved using specific assumptions on the parameters of the VMA(1) structure. <p><p><p>Finally, an empirical application that involves the problem of forecasting the Italian monetary aggregate M1 on the basis of annual time series ranging from 1948 until 1998, prior to the creation of the European Economic and Monetary Union (EMU), is presented to show the relevance of the topic. In the empirical application, the framework is further generalized to deal with heteroskedastic and cross-correlated innovations. <p><p><p>Chapter 4 deals with a cointegration analysis applied to the empirical investigation of fiscal sustainability. The focus is on a particular country: Poland. The choice of Poland is not random. First, the motivation stems from the fact that fiscal sustainability is a central topic for most of the economies of Eastern Europe. Second, this is one of the first countries to start the transition process to a market economy (since 1989), providing a relatively favorable institutional setting within which to study fiscal sustainability (see Green, Holmes and Kowalski, 2001). The emphasis is on the feasibility of a permanent deficit in the long-run, meaning whether a government can continue to operate under its current fiscal policy indefinitely.<p><p>The empirical analysis to examine debt stabilization is made up by two steps. <p><p>First, a Bayesian methodology is applied to conduct inference about the cointegrating relationship between budget revenues and (inclusive of interest) expenditures and to select the cointegrating rank. This task is complicated by the conceptual difficulty linked to the choice of the prior distributions for the parameters relevant to the economic problem under study (Villani, 2005).<p><p>Second, Bayesian inference is applied to the estimation of the normalized cointegrating vector between budget revenues and expenditures. With a single cointegrating equation, some known results concerning the posterior density of the cointegrating vector may be used (see Bauwens, Lubrano and Richard, 1999). <p><p>The priors used in the paper leads to straightforward posterior calculations which can be easily performed.<p>Moreover, the posterior analysis leads to a careful assessment of the magnitude of the cointegrating vector. Finally, it is shown to what extent the likelihood of the data is important in revising the available prior information, relying on numerical integration techniques based on deterministic methods.<p> / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
47

Méthodes de Monte Carlo du second ordre et d’inférence bayésienne pour l’évaluation des risques microbiologiques et des bénéfices nutritionnels dans la transformation des légumes / Second order Monte Carlo and Bayesian inference methods for assessing microbiological risks and nutritional benefits in transformation of vegetable

Rigaux, Clémence 14 February 2013 (has links)
L'objectif du travail est de mettre en place des méthodes d'évaluation des risques microbiologiques et des bénéfices nutritionnels lors de la transformation des légumes, en vue d'une analyse risque-bénéfice. Le risque (industriel) considéré est l'altération des conserves de haricots verts due à la bactérie thermophile Geobacillus stearothermophilus, et le bénéfice nutritionnel est la teneur en vitamine C des haricots verts appertisés. Des paramètres de référence ont d'abord été acquis, par une méta-analyse par approche bayésienne pour la partie risque. Les paramètres de résistance thermique D à 121.1°C et pH 7, zT et zpH de G.stearothermophilus ont ainsi été estimés respectivement à 3.3 min, 9.1°C et 4.3 unités pH en moyenne en milieu aqueux. Les modèles risque et bénéfice ont ensuite été analysés par la méthode de simulation de Monte Carlo à deux dimensions, permettant une propagation séparée de la variabilité et de l'incertitude. Les pertes en vitamine C prédites par le modèle entre la matière première et les légumes appertisés sont de 86% en moyenne, et le taux de non-stabilité à 55°C prédit est de 0.5% en moyenne, globalement en accord avec la réalité. Une analyse risque-bénéfice a ensuite visé à optimiser le bénéfice tout en gardant le risque à un niveau acceptable, par exploration de scénarios d'interventions possibles basés sur les résultats d'analyses de sensibilité. Enfin, un modèle d'évaluation des risques dus à la bactérie pathogène Bacillus cereus dans une purée de courgettes a été confronté à des données de contamination dans des produits incubés, par le biais d'une inférence bayésienne. / The aim of this work is to set up microbiological risk and nutritional benefit assessment methods in the transformation of vegetables, in view of a risk-benefit analysis. The considered (industrial) risk is the alteration of green bean cans due to thermophilic bacteria Geobacillus stearothermophilus, and the nutritional benefit is the vitamin C content in appertized green beans. Reference parameters have first been acquired, by a meta-analysis using Bayesian inference for the risk part. Thermal resistance parameters D at 121.1°C and pH 7, zT and zpH of G.stearothermophilus have been respectively estimated at 3.3 min, 9.1°C and 4.3 pH units on average in aqueous media. The risk and benefit models have then been analyzed by a two-dimensional Monte Carlo simulation method, allowing a separated propagation of uncertainty and variability. The vitamin C losses between fresh and appertized green beans predicted by the model are of 86% on average, and the predicted non-stability at 55°C rate is of 0.5% on average, in good accordance with reality. A risk-benefit analysis has then been carried out to optimize benefit while keeping risk at an acceptable level, by exploring possible intervention scenarios based on some sensibility analysis results. Finally, a risk analysis model involving pathogenic bacteria Bacillus cereus in a courgette puree has been confronted to incubated product contamination data, by means of a Bayesian inference.
48

Modélisation de la dynamique de population d une plante native (palmier babaçu) dans le cadre d'un projet de gestion durable au Brésil / Modeling population dynamics of native plant (babassu palm tree) as part of a sustainable management project in Brazil

Sirakov, Nikolay 13 December 2016 (has links)
Le palmier babaçu (Attalea speciosa Mart. ex Spreng.) est une plante native de la forêt amazonienne. La déforestation a pour impact qu'il apparaît dans des milieux ouverts désormais anthropisés (pâturages, et champs cultivés). Le babaçu fait partie des ressources " extractivistes " du Brésil : activité de cueillette suivie de commercialisation de produits non ligneux. Cette activité concerne des personnes parmi les plus démunies du pays d'où l'importance de gérer au mieux sa durabilité dans un contexte conflictuel. Force est de constater que les connaissances du fonctionnement durable de l'espèce au sein de ces milieux anthropisés font cruellement défaut: son cycle de vie est peu connu et sa dynamique de population non étudiée.Le travail de thèse est donc pionnier et s'inscrit au sein d'un projet interdisciplinaire Open Science de la fondation Agropolis. L'objectif est double : il consiste à produire un modèle de la dynamique de population du babaçu validé par une analyse in situ et à capitaliser les connaissances issues de divers milieux scientifiques (biologistes, écologues, mathématiciens, informaticiens et économistes français et brésiliens). Le modèle, à plus long terme, doit étayer les recommandations relatives à la gestion durable de l'espèce.L'approche retenue a consisté à expliciter au sein de divers modèles, les connaissances partagées sur l'espèce et les modèles mathématiques potentiels ainsi que sur le contexte sociétal. Ceci nous a permis de proposer un modèle d'observation conforme aux préconisations d'OBOE (Ontologie relative a la sémantique des observations scientifiques) permettant la mise en place du protocole d'acquisition des données. L'acquisition in situ a été réalisée par le partenariat franco-brésilien entre 2013 et 2016 au sein du territoire de la communauté de Benfica (Pará, Brésil). La pérennisation des données s'est faite après conception, au sein d'une base de données spatiales prenant en compte l'aspect socio-économique.Enfin, nous proposons un modèle matriciel aléatoire ayant pour entrée des variables agrégées au niveau des stades biologiques de l'espèce. Les probabilités de la matrice de transition entre les stades sont modélisées selon un modèle hiérarchique Dirichlet-Multinomial. L'intégration des informations a priori a été formalisée grâce à une approche bayésienne. L'estimation et la validation du modèle ont été effectuées avec des critères bayésiens.Des simulations basées sur les paramètres estimés constituent une première ébauche d'étude du comportement de l'espèce. / The babassu palm tree (Attalea speciosa Mart. ex Spreng.) is an endemic species of the amazonian forests. The deforestation highlights henceforth this palm tree in the anthropogenic open areas (pastures and cultivated fields). The babassu is one of the "extractive" resources in Brazil: gathering activity followed by marketing of non-timber products. This activity involves people among the most disadvantaged in the country thus the importance to better manage its sustainability in a context of conflict. It is clear that knowledge of sustainable functioning of the species within these manmade environments is sorely lacking: its life cycle is not well known and its population dynamics unstudied.This PhD work is pioneer and is a part of an Open Science interdisciplinary project of the Agropolis foundation. The objective is twofold it is to generate a model of population dynamics of the babassu palm tree validated by in situ analysis and capitalizing knowledge from various scientific communities (biologists, ecologists, mathematicians, computer scientists and economists from France and Brazil). In the long-term the model should support the recommendations for the sustainable management of the species.Our approach explicit within different models the shared knowledge about the species and the potential mathematical models as well as the societal context. This has allowed us to provide an observation model compliant with the recommendations ofOBOE (Ontology on a semantic scientific observations) for the development of data acquisition protocol. The acquisition was made in situ by the French-Brazilian partnership between 2013 and 2016 in the community of Benfica (Pará, Brazil). The perpetuation of the data was made after conception, within a spatial database taking into account the socio-economic aspect.Finally, we proposed a random matrix model having as input aggregated variables based on the biological stages of the species. The probabilities of the between stages transition matrix are modeled using a hierarchical Dirichlet-Multinomial model. The integration of prior information was formulated through a Bayesian approach. The estimation and model validation were performed with Bayesian criteria.Simulations based on the estimated parameters represent a first outline of the study of the species behavior.
49

Indicateurs biologiques de la qualité écologique des cours d’eau : variabilités et incertitudes associées / Ecological assessment of running waters using bio-indicators : associated variability and uncertainty

Marzin, Anahita 11 January 2013 (has links)
Evaluer, maintenir et restaurer les conditions écologiques des rivières nécessitent des mesures du fonctionnement de leurs écosystèmes. De par leur complexité, notre compréhension de ces systèmes est imparfaite. La prise en compte des incertitudes et variabilités liées à leur évaluation est donc indispensable à la prise de décision des gestionnaires. En analysant des données nationales (~ 1654 sites), les objectifs principaux de cette thèse étaient de (1) tester certaines hypothèses intrinsèques aux bio-indicateurs et (2) d'étudier les incertitudes de l'évaluation écologique associées à la variabilité temporelle des bio-indicateurs et à la prédiction des conditions de référence. (1) Ce travail met en évidence (i) le rôle prépondérant des facteurs environnementaux naturels dans la structuration des communautés aquatiques en comparaison des facteurs anthropiques (définis à l'échelle du bassin versant, du corridor riparien et du tronçon), (ii) les réponses contrastées des communautés aquatiques aux pressions humaines (dégradations hydro-morphologiques et de la qualité de l'eau) et (iii) plus généralement, les forts impacts des barrages et de l'altération de la qualité de l'eau sur les communautés aquatiques. (2) Une méthode Bayésienne a été développée pour estimer les incertitudes liées à la prédiction des conditions de référence d'un indice piscicole (IPR+). Les incertitudes prédictives de l'IPR+ dépendent du site considéré mais aucune tendance claire n'a été observée. Par comparaison, la variabilité temporelle de l'IPR+ est plus faible et semble augmenter avec l'intensité des perturbations anthropiques. Les résultats de ce travail confirment l'avantage d'indices multi-métriques basés sur des traits fonctionnels par rapport à ceux relatifs à la composition taxonomique. Les sensibilités différentes des macrophytes, poissons, diatomées et macro-invertébrés aux pressions humaines soulignent leur complémentarité pour l'évaluation des écosystèmes fluviaux. Néanmoins, de futures recherches sont nécessaires à une meilleure compréhension des effets d'interactions entre types de pressions et entre pressions humaines et environnement. / Sensitive biological measures of ecosystem quality are needed to assess, maintain or restore the ecological conditions of rivers. Since our understanding of these complex systems is imperfect, river management requires recognizing variability and uncertainty of bio-assessment for decision-making. Based on the analysis of national data sets (~ 1654 sites), the main goals of this work were (1) to test some of the assumptions that shape bio-indicators and (2) address the temporal variability and the uncertainty associated to prediction of reference conditions.(1) This thesis highlights (i) the predominant role of physiographic factors in shaping biological communities in comparison to human pressures (defined at catchment, riparian corridor and reach scales), (ii) the differences in the responses of biological indicators to the different types of human pressures (water quality, hydrological, morphological degradations) and (iii) more generally, the greatest biological impacts of water quality alterations and impoundments. (2) A Bayesian method was developed to estimate the uncertainty associated with reference condition predictions of a fish-based bio-indicator (IPR+). IPR+ predictive uncertainty was site-dependent but showed no clear trend related to the environmental gradient. By comparison, IPR+ temporal variability was lower and sensitive to an increase of human pressure intensity. This work confirmed the advantages of multi-metric indexes based on functional metrics in comparison to compositional metrics. The different sensitivities of macrophytes, fish, diatoms and macroinvertebrates to human pressures emphasize their complementarity in assessing river ecosystems. Nevertheless, future research is needed to better understand the effects of interactions between pressures and between pressures and the environment.
50

Analyse de signaux d'arrêts cardiaques en cas d'intervention d'urgence avec défibrillateur automatisé : optimisation des temps de pause péri-choc et prédiction d'efficacité de défibrillation / Analysis of cardiac arrest signals in emergency response with automated defibrillator : Peri-shock pauses optimization and prediction of the efficiency of defibrillation

Ménétré, Sarah 02 November 2011 (has links)
L'arrêt cardiaque est principalement d'étiologie cardio-vasculaire. Dans le contexte actuel des arrêts cardiaques extrahospitaliers, 20 à 25% des victimes présentent une fibrillation ventriculaire. Environ 3 à 5% des personnes sont sauvées sans séquelle neurologique. La survie à un arrêt cardiaque extrahospitalier dépend d'une prise en charge précoce et rapide de la victime. Les premiers témoins actifs réalisant la réanimation cardio-pulmonaire combinée à l'utilisation d'un défibrillateur sont ainsi un maillon important pour sauver la victime.Notre objectif principal est d'améliorer le taux de survie à un arrêt cardiaque extrahospitalier. Une première voie d'investigation est de proposer un fonctionnement de défibrillateur optimal combinant judicieusement les différents modules de détection embarqués (détection de fibrillation ventriculaire, détection de massage cardiaque, détection d'interférences électromagnétiques) afin de réduire les temps de pause péri-choc durant la procédure de réanimation. En effet, pendant ces temps, dits « hands-off » en anglais, aucun geste de secours n'est administré au patient qui, lui, voit d'une part sa pression de perfusion coronarienne chuter, d'autre part la probabilité de succès des tentatives de défibrillation décroître. C'est pourquoi une deuxième voie d'investigation porte sur la prédiction de l'efficacité de choc. Dans ce contexte, nous proposons de combiner des paramètres de l'électrocardiogramme dans les domaines temporel, fréquentiel et de la dynamique non-linéaire. Un classifieur bayésien utilisant le modèle de mélange de gaussiennes a été appliqué aux vecteurs de paramètres les plus prédicteurs de l'issue de la défibrillation et l'algorithme Espérance-Maximisation a permis de mener à bien la procédure d'apprentissage des paramètres du modèle probabiliste représentant les distributions conditionnelles de classe.L'ensemble des méthodes proposées a permis d'atteindre des résultats prometteurs pour à la fois réduire les temps de pause péri-choc et prédire l'efficacité de défibrillation et ainsi espérer améliorer le taux de survie à un arrêt cardiaque / The cardiac arrest is mainly of cardiovascular etiology. In the actual context of out-of-hospital cardiac arrests, 20 to 25% of the victims present a ventricular fibrillation. About 3 to 5% of the victims are saved without neurological damage. The chance of surviving a cardiac arrest outside an hospital depends on the early and fast support of the victim. The first active witnesses performing cardiopulmonary resuscitation combined with the use of a defibrillator are an important link to save the victim.Our main objective is to improve survival rate in out-of-hospital cardiac arrest cases. A first way of investigation is to propose an optimal functioning of defibrillator combining wisely the different processes of detection embedded (ventricular fibrillation detection, chest compressions detection, electromagnetic interferences detection), in order to reduce the peri-shock pauses during the resuscitation procedure. In fact, during these pauses, known as "hands-off" pauses, no emergency action is provided to the patient, what is correlated to a drop of the coronary pression, but also to a decrease of the chance of successful defibrillation. That is the reason why, a second way of investigation is based on the prediction of the efficiency of defibrillation. In this context, we propose to use a combination of parameters extracted from electrocardiogram in time, frequency and non-linear dynamics domains. A bayesian classifier using a gaussian mixture model was applied to the vectors of parameters, which are the most predictor of the defibrillation outcome and the algorithm Expectation-Maximization allowed to learn the parameters of the probabilistic model representing the class conditional distributions.All of the proposed methods allowed to reach promising results for both reducing the peri-shock pauses and predicting the efficiency of defibrillation in hope to improve the survival rate in cardiac arrest cases

Page generated in 0.4824 seconds