• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 16
  • 7
  • Tagged with
  • 52
  • 52
  • 28
  • 18
  • 14
  • 13
  • 12
  • 12
  • 12
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Misbehaviors detection schemes in mobile ad hoc networks / Une approche décentralisée pour la détection de comportements malveillants dans les réseaux MANETs

Rmayti, Mohammad 30 September 2016 (has links)
Avec l’évolution des besoins d’utilisateurs, plusieurs technologies de réseaux sans fil ont été développées. Parmi ces technologies, nous trouvons les réseaux mobiles ad hoc (MANETs) qui ont été conçus pour assurer la communication dans le cas où le déploiement d’une infrastructure réseaux est coûteux ou inapproprié. Dans ces réseaux, le routage est une fonction primordiale où chaque entité mobile joue le rôle d’un routeur et participe activement dans le routage. Cependant, les protocoles de routage ad hoc tel qu’ils sont conçus manquent de contrôle de sécurité. Sur un chemin emprunté, un nœud malveillant peut violemment perturber le routage en bloquant le trafic. Dans cette thèse, nous proposons une solution de détection des nœuds malveillants dans un réseau MANET basée sur l’analyse comportementale à travers les filtres bayésiens et les chaînes de Markov. L’idée de notre solution est d’évaluer le comportement d’un nœud en fonction de ses échanges avec ses voisins d’une manière complètement décentralisée. Par ailleurs, un modèle stochastique est utilisé afin de prédire la nature de comportement d’un nœud et vérifier sa fiabilité avant d’emprunter un chemin. Notre solution a été validée via de nombreuses simulations sur le simulateur NS-2. Les résultats montrent que la solution proposée permet de détecter avec précision les nœuds malveillants et d’améliorer la qualité de services de réseaux MANETs / With the evolution of user requirements, many network technologies have been developed. Among these technologies, we find mobile ad hoc networks (MANETs) that were designed to ensure communication in situations where the deployment of a network infrastructure is expensive or inappropriate. In this type of networks, routing is an important function where each mobile entity acts as a router and actively participates in routing services. However, routing protocols are not designed with security in mind and often are very vulnerable to node misbehavior. A malicious node included in a route between communicating nodes may severely disrupt the routing services and block the network traffic. In this thesis, we propose a solution for detecting malicious nodes in MANETs through a behavior-based analysis and using Bayesian filters and Markov chains. The core idea of our solution is to evaluate the behavior of a node based on its interaction with its neighbors using a completely decentralized scheme. Moreover, a stochastic model is used to predict the nature of behavior of a node and verify its reliability prior to selecting a path. Our solution has been validated through extensive simulations using the NS-2 simulator. The results show that the proposed solution ensures an accurate detection of malicious nodes and improve the quality of routing services in MANETs
42

Essays in dynamic macroeconometrics

Bañbura, Marta 26 June 2009 (has links)
The thesis contains four essays covering topics in the field of macroeconomic forecasting.<p><p>The first two chapters consider factor models in the context of real-time forecasting with many indicators. Using a large number of predictors offers an opportunity to exploit a rich information set and is also considered to be a more robust approach in the presence of instabilities. On the other hand, it poses a challenge of how to extract the relevant information in a parsimonious way. Recent research shows that factor models provide an answer to this problem. The fundamental assumption underlying those models is that most of the co-movement of the variables in a given dataset can be summarized by only few latent variables, the factors. This assumption seems to be warranted in the case of macroeconomic and financial data. Important theoretical foundations for large factor models were laid by Forni, Hallin, Lippi and Reichlin (2000) and Stock and Watson (2002). Since then, different versions of factor models have been applied for forecasting, structural analysis or construction of economic activity indicators. Recently, Giannone, Reichlin and Small (2008) have used a factor model to produce projections of the U.S GDP in the presence of a real-time data flow. They propose a framework that can cope with large datasets characterised by staggered and nonsynchronous data releases (sometimes referred to as “ragged edge”). This is relevant as, in practice, important indicators like GDP are released with a substantial delay and, in the meantime, more timely variables can be used to assess the current state of the economy.<p><p>The first chapter of the thesis entitled “A look into the factor model black box: publication lags and the role of hard and soft data in forecasting GDP” is based on joint work with Gerhard Rünstler and applies the framework of Giannone, Reichlin and Small (2008) to the case of euro area. In particular, we are interested in the role of “soft” and “hard” data in the GDP forecast and how it is related to their timeliness.<p>The soft data include surveys and financial indicators and reflect market expectations. They are usually promptly available. In contrast, the hard indicators on real activity measure directly certain components of GDP (e.g. industrial production) and are published with a significant delay. We propose several measures in order to assess the role of individual or groups of series in the forecast while taking into account their respective publication lags. We find that surveys and financial data contain important information beyond the monthly real activity measures for the GDP forecasts, once their timeliness is properly accounted for.<p><p>The second chapter entitled “Maximum likelihood estimation of large factor model on datasets with arbitrary pattern of missing data” is based on joint work with Michele Modugno. It proposes a methodology for the estimation of factor models on large cross-sections with a general pattern of missing data. In contrast to Giannone, Reichlin and Small (2008), we can handle datasets that are not only characterised by a “ragged edge”, but can include e.g. mixed frequency or short history indicators. The latter is particularly relevant for the euro area or other young economies, for which many series have been compiled only since recently. We adopt the maximum likelihood approach which, apart from the flexibility with regard to the pattern of missing data, is also more efficient and allows imposing restrictions on the parameters. Applied for small factor models by e.g. Geweke (1977), Sargent and Sims (1977) or Watson and Engle (1983), it has been shown by Doz, Giannone and Reichlin (2006) to be consistent, robust and computationally feasible also in the case of large cross-sections. To circumvent the computational complexity of a direct likelihood maximisation in the case of large cross-section, Doz, Giannone and Reichlin (2006) propose to use the iterative Expectation-Maximisation (EM) algorithm (used for the small model by Watson and Engle, 1983). Our contribution is to modify the EM steps to the case of missing data and to show how to augment the model, in order to account for the serial correlation of the idiosyncratic component. In addition, we derive the link between the unexpected part of a data release and the forecast revision and illustrate how this can be used to understand the sources of the<p>latter in the case of simultaneous releases. We use this methodology for short-term forecasting and backdating of the euro area GDP on the basis of a large panel of monthly and quarterly data. In particular, we are able to examine the effect of quarterly variables and short history monthly series like the Purchasing Managers' surveys on the forecast.<p><p>The third chapter is entitled “Large Bayesian VARs” and is based on joint work with Domenico Giannone and Lucrezia Reichlin. It proposes an alternative approach to factor models for dealing with the curse of dimensionality, namely Bayesian shrinkage. We study Vector Autoregressions (VARs) which have the advantage over factor models in that they allow structural analysis in a natural way. We consider systems including more than 100 variables. This is the first application in the literature to estimate a VAR of this size. Apart from the forecast considerations, as argued above, the size of the information set can be also relevant for the structural analysis, see e.g. Bernanke, Boivin and Eliasz (2005), Giannone and Reichlin (2006) or Christiano, Eichenbaum and Evans (1999) for a discussion. In addition, many problems may require the study of the dynamics of many variables: many countries, sectors or regions. While we use standard priors as proposed by Litterman (1986), an<p>important novelty of the work is that we set the overall tightness of the prior in relation to the model size. In this we follow the recommendation by De Mol, Giannone and Reichlin (2008) who study the case of Bayesian regressions. They show that with increasing size of the model one should shrink more to avoid overfitting, but when data are collinear one is still able to extract the relevant sample information. We apply this principle in the case of VARs. We compare the large model with smaller systems in terms of forecasting performance and structural analysis of the effect of monetary policy shock. The results show that a standard Bayesian VAR model is an appropriate tool for large panels of data once the degree of shrinkage is set in relation to the model size. <p><p>The fourth chapter entitled “Forecasting euro area inflation with wavelets: extracting information from real activity and money at different scales” proposes a framework for exploiting relationships between variables at different frequency bands in the context of forecasting. This work is motivated by the on-going debate whether money provides a reliable signal for the future price developments. The empirical evidence on the leading role of money for inflation in an out-of-sample forecast framework is not very strong, see e.g. Lenza (2006) or Fisher, Lenza, Pill and Reichlin (2008). At the same time, e.g. Gerlach (2003) or Assenmacher-Wesche and Gerlach (2007, 2008) argue that money and output could affect prices at different frequencies, however their analysis is performed in-sample. In this Chapter, it is investigated empirically which frequency bands and for which variables are the most relevant for the out-of-sample forecast of inflation when the information from prices, money and real activity is considered. To extract different frequency components from a series a wavelet transform is applied. It provides a simple and intuitive framework for band-pass filtering and allows a decomposition of series into different frequency bands. Its application in the multivariate out-of-sample forecast is novel in the literature. The results indicate that, indeed, different scales of money, prices and GDP can be relevant for the inflation forecast.<p> / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
43

Essays on aggregation and cointegration of econometric models

Silvestrini, Andrea 02 June 2009 (has links)
This dissertation can be broadly divided into two independent parts. The first three chapters analyse issues related to temporal and contemporaneous aggregation of econometric models. The fourth chapter contains an application of Bayesian techniques to investigate whether the post transition fiscal policy of Poland is sustainable in the long run and consistent with an intertemporal budget constraint.<p><p><p>Chapter 1 surveys the econometric methodology of temporal aggregation for a wide range of univariate and multivariate time series models. <p><p><p>A unified overview of temporal aggregation techniques for this broad class of processes is presented in the first part of the chapter and the main results are summarized. In each case, assuming to know the underlying process at the disaggregate frequency, the aim is to find the appropriate model for the aggregated data. Additional topics concerning temporal aggregation of ARIMA-GARCH models (see Drost and Nijman, 1993) are discussed and several examples presented. Systematic sampling schemes are also reviewed.<p><p><p>Multivariate models, which show interesting features under temporal aggregation (Breitung and Swanson, 2002, Marcellino, 1999, Hafner, 2008), are examined in the second part of the chapter. In particular, the focus is on temporal aggregation of VARMA models and on the related concept of spurious instantaneous causality, which is not a time series property invariant to temporal aggregation. On the other hand, as pointed out by Marcellino (1999), other important time series features as cointegration and presence of unit roots are invariant to temporal aggregation and are not induced by it.<p><p><p>Some empirical applications based on macroeconomic and financial data illustrate all the techniques surveyed and the main results.<p><p>Chapter 2 is an attempt to monitor fiscal variables in the Euro area, building an early warning signal indicator for assessing the development of public finances in the short-run and exploiting the existence of monthly budgetary statistics from France, taken as "example country". <p><p><p>The application is conducted focusing on the cash State deficit, looking at components from the revenue and expenditure sides. For each component, monthly ARIMA models are estimated and then temporally aggregated to the annual frequency, as the policy makers are interested in yearly predictions. <p><p><p>The short-run forecasting exercises carried out for years 2002, 2003 and 2004 highlight the fact that the one-step-ahead predictions based on the temporally aggregated models generally outperform those delivered by standard monthly ARIMA modeling, as well as the official forecasts made available by the French government, for each of the eleven components and thus for the whole State deficit. More importantly, by the middle of the year, very accurate predictions for the current year are made available. <p><p>The proposed method could be extremely useful, providing policy makers with a valuable indicator when assessing the development of public finances in the short-run (one year horizon or even less). <p><p><p>Chapter 3 deals with the issue of forecasting contemporaneous time series aggregates. The performance of "aggregate" and "disaggregate" predictors in forecasting contemporaneously aggregated vector ARMA (VARMA) processes is compared. An aggregate predictor is built by forecasting directly the aggregate process, as it results from contemporaneous aggregation of the data generating vector process. A disaggregate predictor is a predictor obtained from aggregation of univariate forecasts for the individual components of the data generating vector process. <p><p>The econometric framework is broadly based on Lütkepohl (1987). The necessary and sufficient condition for the equality of mean squared errors associated with the two competing methods in the bivariate VMA(1) case is provided. It is argued that the condition of equality of predictors as stated in Lütkepohl (1987), although necessary and sufficient for the equality of the predictors, is sufficient (but not necessary) for the equality of mean squared errors. <p><p><p>Furthermore, it is shown that the same forecasting accuracy for the two predictors can be achieved using specific assumptions on the parameters of the VMA(1) structure. <p><p><p>Finally, an empirical application that involves the problem of forecasting the Italian monetary aggregate M1 on the basis of annual time series ranging from 1948 until 1998, prior to the creation of the European Economic and Monetary Union (EMU), is presented to show the relevance of the topic. In the empirical application, the framework is further generalized to deal with heteroskedastic and cross-correlated innovations. <p><p><p>Chapter 4 deals with a cointegration analysis applied to the empirical investigation of fiscal sustainability. The focus is on a particular country: Poland. The choice of Poland is not random. First, the motivation stems from the fact that fiscal sustainability is a central topic for most of the economies of Eastern Europe. Second, this is one of the first countries to start the transition process to a market economy (since 1989), providing a relatively favorable institutional setting within which to study fiscal sustainability (see Green, Holmes and Kowalski, 2001). The emphasis is on the feasibility of a permanent deficit in the long-run, meaning whether a government can continue to operate under its current fiscal policy indefinitely.<p><p>The empirical analysis to examine debt stabilization is made up by two steps. <p><p>First, a Bayesian methodology is applied to conduct inference about the cointegrating relationship between budget revenues and (inclusive of interest) expenditures and to select the cointegrating rank. This task is complicated by the conceptual difficulty linked to the choice of the prior distributions for the parameters relevant to the economic problem under study (Villani, 2005).<p><p>Second, Bayesian inference is applied to the estimation of the normalized cointegrating vector between budget revenues and expenditures. With a single cointegrating equation, some known results concerning the posterior density of the cointegrating vector may be used (see Bauwens, Lubrano and Richard, 1999). <p><p>The priors used in the paper leads to straightforward posterior calculations which can be easily performed.<p>Moreover, the posterior analysis leads to a careful assessment of the magnitude of the cointegrating vector. Finally, it is shown to what extent the likelihood of the data is important in revising the available prior information, relying on numerical integration techniques based on deterministic methods.<p> / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
44

Méthodes de Monte Carlo du second ordre et d’inférence bayésienne pour l’évaluation des risques microbiologiques et des bénéfices nutritionnels dans la transformation des légumes / Second order Monte Carlo and Bayesian inference methods for assessing microbiological risks and nutritional benefits in transformation of vegetable

Rigaux, Clémence 14 February 2013 (has links)
L'objectif du travail est de mettre en place des méthodes d'évaluation des risques microbiologiques et des bénéfices nutritionnels lors de la transformation des légumes, en vue d'une analyse risque-bénéfice. Le risque (industriel) considéré est l'altération des conserves de haricots verts due à la bactérie thermophile Geobacillus stearothermophilus, et le bénéfice nutritionnel est la teneur en vitamine C des haricots verts appertisés. Des paramètres de référence ont d'abord été acquis, par une méta-analyse par approche bayésienne pour la partie risque. Les paramètres de résistance thermique D à 121.1°C et pH 7, zT et zpH de G.stearothermophilus ont ainsi été estimés respectivement à 3.3 min, 9.1°C et 4.3 unités pH en moyenne en milieu aqueux. Les modèles risque et bénéfice ont ensuite été analysés par la méthode de simulation de Monte Carlo à deux dimensions, permettant une propagation séparée de la variabilité et de l'incertitude. Les pertes en vitamine C prédites par le modèle entre la matière première et les légumes appertisés sont de 86% en moyenne, et le taux de non-stabilité à 55°C prédit est de 0.5% en moyenne, globalement en accord avec la réalité. Une analyse risque-bénéfice a ensuite visé à optimiser le bénéfice tout en gardant le risque à un niveau acceptable, par exploration de scénarios d'interventions possibles basés sur les résultats d'analyses de sensibilité. Enfin, un modèle d'évaluation des risques dus à la bactérie pathogène Bacillus cereus dans une purée de courgettes a été confronté à des données de contamination dans des produits incubés, par le biais d'une inférence bayésienne. / The aim of this work is to set up microbiological risk and nutritional benefit assessment methods in the transformation of vegetables, in view of a risk-benefit analysis. The considered (industrial) risk is the alteration of green bean cans due to thermophilic bacteria Geobacillus stearothermophilus, and the nutritional benefit is the vitamin C content in appertized green beans. Reference parameters have first been acquired, by a meta-analysis using Bayesian inference for the risk part. Thermal resistance parameters D at 121.1°C and pH 7, zT and zpH of G.stearothermophilus have been respectively estimated at 3.3 min, 9.1°C and 4.3 pH units on average in aqueous media. The risk and benefit models have then been analyzed by a two-dimensional Monte Carlo simulation method, allowing a separated propagation of uncertainty and variability. The vitamin C losses between fresh and appertized green beans predicted by the model are of 86% on average, and the predicted non-stability at 55°C rate is of 0.5% on average, in good accordance with reality. A risk-benefit analysis has then been carried out to optimize benefit while keeping risk at an acceptable level, by exploring possible intervention scenarios based on some sensibility analysis results. Finally, a risk analysis model involving pathogenic bacteria Bacillus cereus in a courgette puree has been confronted to incubated product contamination data, by means of a Bayesian inference.
45

Modélisation de la dynamique de population d une plante native (palmier babaçu) dans le cadre d'un projet de gestion durable au Brésil / Modeling population dynamics of native plant (babassu palm tree) as part of a sustainable management project in Brazil

Sirakov, Nikolay 13 December 2016 (has links)
Le palmier babaçu (Attalea speciosa Mart. ex Spreng.) est une plante native de la forêt amazonienne. La déforestation a pour impact qu'il apparaît dans des milieux ouverts désormais anthropisés (pâturages, et champs cultivés). Le babaçu fait partie des ressources " extractivistes " du Brésil : activité de cueillette suivie de commercialisation de produits non ligneux. Cette activité concerne des personnes parmi les plus démunies du pays d'où l'importance de gérer au mieux sa durabilité dans un contexte conflictuel. Force est de constater que les connaissances du fonctionnement durable de l'espèce au sein de ces milieux anthropisés font cruellement défaut: son cycle de vie est peu connu et sa dynamique de population non étudiée.Le travail de thèse est donc pionnier et s'inscrit au sein d'un projet interdisciplinaire Open Science de la fondation Agropolis. L'objectif est double : il consiste à produire un modèle de la dynamique de population du babaçu validé par une analyse in situ et à capitaliser les connaissances issues de divers milieux scientifiques (biologistes, écologues, mathématiciens, informaticiens et économistes français et brésiliens). Le modèle, à plus long terme, doit étayer les recommandations relatives à la gestion durable de l'espèce.L'approche retenue a consisté à expliciter au sein de divers modèles, les connaissances partagées sur l'espèce et les modèles mathématiques potentiels ainsi que sur le contexte sociétal. Ceci nous a permis de proposer un modèle d'observation conforme aux préconisations d'OBOE (Ontologie relative a la sémantique des observations scientifiques) permettant la mise en place du protocole d'acquisition des données. L'acquisition in situ a été réalisée par le partenariat franco-brésilien entre 2013 et 2016 au sein du territoire de la communauté de Benfica (Pará, Brésil). La pérennisation des données s'est faite après conception, au sein d'une base de données spatiales prenant en compte l'aspect socio-économique.Enfin, nous proposons un modèle matriciel aléatoire ayant pour entrée des variables agrégées au niveau des stades biologiques de l'espèce. Les probabilités de la matrice de transition entre les stades sont modélisées selon un modèle hiérarchique Dirichlet-Multinomial. L'intégration des informations a priori a été formalisée grâce à une approche bayésienne. L'estimation et la validation du modèle ont été effectuées avec des critères bayésiens.Des simulations basées sur les paramètres estimés constituent une première ébauche d'étude du comportement de l'espèce. / The babassu palm tree (Attalea speciosa Mart. ex Spreng.) is an endemic species of the amazonian forests. The deforestation highlights henceforth this palm tree in the anthropogenic open areas (pastures and cultivated fields). The babassu is one of the "extractive" resources in Brazil: gathering activity followed by marketing of non-timber products. This activity involves people among the most disadvantaged in the country thus the importance to better manage its sustainability in a context of conflict. It is clear that knowledge of sustainable functioning of the species within these manmade environments is sorely lacking: its life cycle is not well known and its population dynamics unstudied.This PhD work is pioneer and is a part of an Open Science interdisciplinary project of the Agropolis foundation. The objective is twofold it is to generate a model of population dynamics of the babassu palm tree validated by in situ analysis and capitalizing knowledge from various scientific communities (biologists, ecologists, mathematicians, computer scientists and economists from France and Brazil). In the long-term the model should support the recommendations for the sustainable management of the species.Our approach explicit within different models the shared knowledge about the species and the potential mathematical models as well as the societal context. This has allowed us to provide an observation model compliant with the recommendations ofOBOE (Ontology on a semantic scientific observations) for the development of data acquisition protocol. The acquisition was made in situ by the French-Brazilian partnership between 2013 and 2016 in the community of Benfica (Pará, Brazil). The perpetuation of the data was made after conception, within a spatial database taking into account the socio-economic aspect.Finally, we proposed a random matrix model having as input aggregated variables based on the biological stages of the species. The probabilities of the between stages transition matrix are modeled using a hierarchical Dirichlet-Multinomial model. The integration of prior information was formulated through a Bayesian approach. The estimation and model validation were performed with Bayesian criteria.Simulations based on the estimated parameters represent a first outline of the study of the species behavior.
46

Indicateurs biologiques de la qualité écologique des cours d’eau : variabilités et incertitudes associées / Ecological assessment of running waters using bio-indicators : associated variability and uncertainty

Marzin, Anahita 11 January 2013 (has links)
Evaluer, maintenir et restaurer les conditions écologiques des rivières nécessitent des mesures du fonctionnement de leurs écosystèmes. De par leur complexité, notre compréhension de ces systèmes est imparfaite. La prise en compte des incertitudes et variabilités liées à leur évaluation est donc indispensable à la prise de décision des gestionnaires. En analysant des données nationales (~ 1654 sites), les objectifs principaux de cette thèse étaient de (1) tester certaines hypothèses intrinsèques aux bio-indicateurs et (2) d'étudier les incertitudes de l'évaluation écologique associées à la variabilité temporelle des bio-indicateurs et à la prédiction des conditions de référence. (1) Ce travail met en évidence (i) le rôle prépondérant des facteurs environnementaux naturels dans la structuration des communautés aquatiques en comparaison des facteurs anthropiques (définis à l'échelle du bassin versant, du corridor riparien et du tronçon), (ii) les réponses contrastées des communautés aquatiques aux pressions humaines (dégradations hydro-morphologiques et de la qualité de l'eau) et (iii) plus généralement, les forts impacts des barrages et de l'altération de la qualité de l'eau sur les communautés aquatiques. (2) Une méthode Bayésienne a été développée pour estimer les incertitudes liées à la prédiction des conditions de référence d'un indice piscicole (IPR+). Les incertitudes prédictives de l'IPR+ dépendent du site considéré mais aucune tendance claire n'a été observée. Par comparaison, la variabilité temporelle de l'IPR+ est plus faible et semble augmenter avec l'intensité des perturbations anthropiques. Les résultats de ce travail confirment l'avantage d'indices multi-métriques basés sur des traits fonctionnels par rapport à ceux relatifs à la composition taxonomique. Les sensibilités différentes des macrophytes, poissons, diatomées et macro-invertébrés aux pressions humaines soulignent leur complémentarité pour l'évaluation des écosystèmes fluviaux. Néanmoins, de futures recherches sont nécessaires à une meilleure compréhension des effets d'interactions entre types de pressions et entre pressions humaines et environnement. / Sensitive biological measures of ecosystem quality are needed to assess, maintain or restore the ecological conditions of rivers. Since our understanding of these complex systems is imperfect, river management requires recognizing variability and uncertainty of bio-assessment for decision-making. Based on the analysis of national data sets (~ 1654 sites), the main goals of this work were (1) to test some of the assumptions that shape bio-indicators and (2) address the temporal variability and the uncertainty associated to prediction of reference conditions.(1) This thesis highlights (i) the predominant role of physiographic factors in shaping biological communities in comparison to human pressures (defined at catchment, riparian corridor and reach scales), (ii) the differences in the responses of biological indicators to the different types of human pressures (water quality, hydrological, morphological degradations) and (iii) more generally, the greatest biological impacts of water quality alterations and impoundments. (2) A Bayesian method was developed to estimate the uncertainty associated with reference condition predictions of a fish-based bio-indicator (IPR+). IPR+ predictive uncertainty was site-dependent but showed no clear trend related to the environmental gradient. By comparison, IPR+ temporal variability was lower and sensitive to an increase of human pressure intensity. This work confirmed the advantages of multi-metric indexes based on functional metrics in comparison to compositional metrics. The different sensitivities of macrophytes, fish, diatoms and macroinvertebrates to human pressures emphasize their complementarity in assessing river ecosystems. Nevertheless, future research is needed to better understand the effects of interactions between pressures and between pressures and the environment.
47

Analyse de signaux d'arrêts cardiaques en cas d'intervention d'urgence avec défibrillateur automatisé : optimisation des temps de pause péri-choc et prédiction d'efficacité de défibrillation / Analysis of cardiac arrest signals in emergency response with automated defibrillator : Peri-shock pauses optimization and prediction of the efficiency of defibrillation

Ménétré, Sarah 02 November 2011 (has links)
L'arrêt cardiaque est principalement d'étiologie cardio-vasculaire. Dans le contexte actuel des arrêts cardiaques extrahospitaliers, 20 à 25% des victimes présentent une fibrillation ventriculaire. Environ 3 à 5% des personnes sont sauvées sans séquelle neurologique. La survie à un arrêt cardiaque extrahospitalier dépend d'une prise en charge précoce et rapide de la victime. Les premiers témoins actifs réalisant la réanimation cardio-pulmonaire combinée à l'utilisation d'un défibrillateur sont ainsi un maillon important pour sauver la victime.Notre objectif principal est d'améliorer le taux de survie à un arrêt cardiaque extrahospitalier. Une première voie d'investigation est de proposer un fonctionnement de défibrillateur optimal combinant judicieusement les différents modules de détection embarqués (détection de fibrillation ventriculaire, détection de massage cardiaque, détection d'interférences électromagnétiques) afin de réduire les temps de pause péri-choc durant la procédure de réanimation. En effet, pendant ces temps, dits « hands-off » en anglais, aucun geste de secours n'est administré au patient qui, lui, voit d'une part sa pression de perfusion coronarienne chuter, d'autre part la probabilité de succès des tentatives de défibrillation décroître. C'est pourquoi une deuxième voie d'investigation porte sur la prédiction de l'efficacité de choc. Dans ce contexte, nous proposons de combiner des paramètres de l'électrocardiogramme dans les domaines temporel, fréquentiel et de la dynamique non-linéaire. Un classifieur bayésien utilisant le modèle de mélange de gaussiennes a été appliqué aux vecteurs de paramètres les plus prédicteurs de l'issue de la défibrillation et l'algorithme Espérance-Maximisation a permis de mener à bien la procédure d'apprentissage des paramètres du modèle probabiliste représentant les distributions conditionnelles de classe.L'ensemble des méthodes proposées a permis d'atteindre des résultats prometteurs pour à la fois réduire les temps de pause péri-choc et prédire l'efficacité de défibrillation et ainsi espérer améliorer le taux de survie à un arrêt cardiaque / The cardiac arrest is mainly of cardiovascular etiology. In the actual context of out-of-hospital cardiac arrests, 20 to 25% of the victims present a ventricular fibrillation. About 3 to 5% of the victims are saved without neurological damage. The chance of surviving a cardiac arrest outside an hospital depends on the early and fast support of the victim. The first active witnesses performing cardiopulmonary resuscitation combined with the use of a defibrillator are an important link to save the victim.Our main objective is to improve survival rate in out-of-hospital cardiac arrest cases. A first way of investigation is to propose an optimal functioning of defibrillator combining wisely the different processes of detection embedded (ventricular fibrillation detection, chest compressions detection, electromagnetic interferences detection), in order to reduce the peri-shock pauses during the resuscitation procedure. In fact, during these pauses, known as "hands-off" pauses, no emergency action is provided to the patient, what is correlated to a drop of the coronary pression, but also to a decrease of the chance of successful defibrillation. That is the reason why, a second way of investigation is based on the prediction of the efficiency of defibrillation. In this context, we propose to use a combination of parameters extracted from electrocardiogram in time, frequency and non-linear dynamics domains. A bayesian classifier using a gaussian mixture model was applied to the vectors of parameters, which are the most predictor of the defibrillation outcome and the algorithm Expectation-Maximization allowed to learn the parameters of the probabilistic model representing the class conditional distributions.All of the proposed methods allowed to reach promising results for both reducing the peri-shock pauses and predicting the efficiency of defibrillation in hope to improve the survival rate in cardiac arrest cases
48

Modélisation conjointe des connaissances multi-points de vue d'un système industriel et de son système de soutien pour l'évaluation des stratégies de maintenance / Multi-point of view knowledge modelling of an industrial system and of its enabler system : a new approach to assessing maintenance strategies

Medina Oliva, Gabriela 12 December 2011 (has links)
Par rapport aux exigences de plus en plus importantes relatives au Maintien en Condition Opérationnelle d'un système industriel, le processus de maintenance joue un rôle fondamental pour l'amélioration de la disponibilité, de la productivité, etc. Pour essayer de contrôler au mieux ces performances, les responsables de maintenance doivent donc être capables de choisir les stratégies de maintenance et les ressources à mettre en oeuvre les plus adaptées aux besoins. Dans un objectif d'aide à la prise de décisions en maintenance, les travaux présentés dans ce mémoire ont pour objet de proposer une méthodologie pour l'élaboration d'un modèle support permettant par simulation d'évaluer les différentes stratégies. La valeur ajoutée de la méthodologie réside dans l'unification, à base de modèles relationnels probabilistes (PRM), des différents types de connaissance nécessaires à la construction de ce modèle d'évaluation. Ce dernier est ainsi construit à partir de motifs génériques et modulables représentatifs des variables décisionnels du système industriel (système principal) et de son système de maintenance. Ces motifs, par instanciation, facilitent la construction des modèles d'applications spécifiques. Cette méthodologie, issue du projet ANR SKOOB, est testée sur le cas applicatif de la maintenance d'un système de production de ferment. / Nowadays, the importance of the maintenance function has increased, due to the requirements on the maintain in operational conditions phase (MCO) of the system-of-interest (SI). As well as for the relevant role of maintenance in improving availability, performance efficiency, total plant availability, etc. To control performances, maintenance managers should be able to make some choices about the maintenance strategies and the resources that can fulfil the requirements. Within this context, we propose a methodology to formalize a model allowing to perform simulation to assess maintenance strategies. The scientific contribution of our work is that this approach unify by using a probabilistic relational model (PRM), different kind of knowledge needed to assess maintenance strategies. Knowledge is presented as generic and modular patterns based on PRM. These patterns integrate relevant decisional variables of the system of interest and of its maintenance system. This approach eases the modeling phase for a specific application. This methodology is one of the results of the project ANR SKOOB. This approach was tested on an industrial case for the maintenance of a harvest production process
49

Indicateurs biologiques de la qualité écologique des cours d'eau : variabilités et incertitudes associées

Marzin, Anahita 11 January 2013 (has links) (PDF)
Evaluer, maintenir et restaurer les conditions écologiques des rivières nécessitent des mesures du fonctionnement de leurs écosystèmes. De par leur complexité, notre compréhension de ces systèmes est imparfaite. La prise en compte des incertitudes et variabilités liées à leur évaluation est donc indispensable à la prise de décision des gestionnaires. En analysant des données nationales (~ 1654 sites), les objectifs principaux de cette thèse étaient de (1) tester certaines hypothèses intrinsèques aux bio-indicateurs et (2) d'étudier les incertitudes de l'évaluation écologique associées à la variabilité temporelle des bio-indicateurs et à la prédiction des conditions de référence. (1) Ce travail met en évidence (i) le rôle prépondérant des facteurs environnementaux naturels dans la structuration des communautés aquatiques en comparaison des facteurs anthropiques (définis à l'échelle du bassin versant, du corridor riparien et du tronçon), (ii) les réponses contrastées des communautés aquatiques aux pressions humaines (dégradations hydro-morphologiques et de la qualité de l'eau) et (iii) plus généralement, les forts impacts des barrages et de l'altération de la qualité de l'eau sur les communautés aquatiques. (2) Une méthode Bayésienne a été développée pour estimer les incertitudes liées à la prédiction des conditions de référence d'un indice piscicole (IPR+). Les incertitudes prédictives de l'IPR+ dépendent du site considéré mais aucune tendance claire n'a été observée. Par comparaison, la variabilité temporelle de l'IPR+ est plus faible et semble augmenter avec l'intensité des perturbations anthropiques. Les résultats de ce travail confirment l'avantage d'indices multi-métriques basés sur des traits fonctionnels par rapport à ceux relatifs à la composition taxonomique. Les sensibilités différentes des macrophytes, poissons, diatomées et macro-invertébrés aux pressions humaines soulignent leur complémentarité pour l'évaluation des écosystèmes fluviaux. Néanmoins, de futures recherches sont nécessaires à une meilleure compréhension des effets d'interactions entre types de pressions et entre pressions humaines et environnement.
50

Statistique bayésienne et applications en génétique des populations

Blum, Michael G B 03 December 2012 (has links) (PDF)
Les approches statistiques en génétique des populations visent deux objectifs distincts qui sont la description des données et la possibilité d'inférer les processus évolutifs qui ont généré les patrons observés. Le premier chapitre de ce manuscrit décrit nos apports théoriques et méthodologiques concernant le calcul bayésien approché (Approximate Bayesian Computation) qui permet de réaliser l'objectif d'inférence des processus évolutifs. Je décris des résultats asymptotiques qui permettent de décrire des propriétés statistiques du calcul bayésien approché. Ces résultats mettent en évidence à la fois l'intérêt des méthodes dites avec ajustement qui reposent sur des équations de régression et aussi l'intérêt de réduire la dimension des descripteurs statistiques utilisés dans le calcul bayésien approché. Je présente ensuite une méthode originale de calcul bayésien approché qui permet de manière conjointe d'effectuer des ajustements et de réduire la dimension des descripteurs statistiques. Une comparaison des différentes méthodes de réduction de dimension clos le premier chapitre. Le deuxième chapitre est consacré à l'objectif de description des données et se place plus particulièrement dans un cadre spatial. Les méthodes statistiques proposées reposent sur le concept d'isolement par la distance qui est une forme particulière de l'autocorrélation spatiale où la corrélation entre individus décroit avec la distance. Une approche originale de krigeage nous permet de caractériser des patrons d'isolement par la distance non-stationnaire où la manière avec laquelle la corrélation entre individus décroit avec la distance dépend de l'espace. Une deuxième extension que nous proposons est celle d'isolement par la distance anisotrope que nous caractérisons et testons à partir d'une équation de régression. La conclusion de ce manuscrit met l'accent sur les problèmes d'interprétation des résultats statistiques, l'importance de l'échantillonnage et la nécessité de tester l'adéquation des modèles aux données. Je conclus par des perspectives qui se proposent de faire passer l'analyse statistique bayésienne à l'échelle des données massives produites en génétique.

Page generated in 0.0957 seconds