• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 503
  • 220
  • 99
  • 4
  • 3
  • 1
  • Tagged with
  • 827
  • 342
  • 198
  • 126
  • 121
  • 120
  • 109
  • 95
  • 91
  • 90
  • 88
  • 83
  • 80
  • 76
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
431

Développement d'algorithmes de détection et d'identification gamma : application à la spectrométrie gamma embarquée / Embedded gamma spectrometry : development of gamma detection and identification algorithms

Wilhelm, Emilien 24 November 2016 (has links)
Depuis le début des années 1980, le Commissariat à l’Énergie Atomique développe et met en oeuvre un système de spectrométrie gamma aéroportée, appelé HELINUCTM. Ce système, composé de détecteurs NaI(Tl) d’un volume de 16 L, est utilisé afin d’établir un état des lieux radiologique des sites survolés. Les principales missions du système HELINUC consistent en la réalisation de contrôles environnementaux, l’intervention en situation de crise et la recherche de sources ponctuelles. La réalisation de ces missions nécessite le développement de méthodes d’analyse adaptées. L’approche considérée dans cette thèse repose sur une rupture conceptuelle de l’analyse des spectres par rapport aux méthodes utilisées jusqu’alors au CEA : l’analyse ne repose plus sur une considération individuelle et séquentielle des mesures aéroportées, mais sur une considération globale et simultanée de celles-ci. L’étude et le développement de méthodes statistiques adaptées à la quantification des radionucléides naturels et du 137Cs (de 600 keV à 3 MeV), à l’estimation de la contamination en 241Am (basse énergie, inférieure à100 keV) en cas de crise radiologique et la détection de sources ponctuelles (moyenne énergie, entre 100 keV et600 keV) permettent d’améliorer la précision sur les activités déterminées en vol et la détection de sources de faibles activités. / Since the beginning of 1980’s, the CEA has been developing an airborne gamma spectrometry (AGS) system called HELINUCTM using large volume (16 L) NaI(Tl) detectors. HELINUC is used to produce radioactivity mapping of the soil. The different missions of HELINUC are environmental control of radioactivity, nuclear emergency response and research of orphan sources. The continuous development of analysis methods is then required.The approach considered in this thesis is based on a conceptual break from the analysis of spectra compared to the methods used at the CEA until now: the analysis does not rely on an individual and sequential consideration of airborne measurements, but on an overall and simultaneous consideration of them. The study and development of statistical methods for the quantification of natural radionuclides and 137Cs (from 600 keV to 3 MeV), for the estimation of 241Am contamination (low energy, inferior to 100 keV) in case of radiological emergency and for the detection of orphan sources (medium energy, between 100 keV and 600 keV) improve the accuracy of activities estimation and detection of low activities sources.
432

Schemes and Strategies to Propagate and Analyze Uncertainties in Computational Fluid Dynamics Applications / Schémas et stratégies pour la propagation et l’analyse des incertitudes dans la simulation d’écoulements

Geraci, Gianluca 05 December 2013 (has links)
Ce manuscrit présente des contributions aux méthodes de propagation et d’analyse d’incertitude pour des applications en Mécanique des Fluides Numérique. Dans un premier temps, deux schémas numériques innovantes sont présentées: une approche de type ”Collocation”, et une autre qui est basée sur une représentation de type ”Volumes Finis” dans l’espace stochastique. Dans les deux, l’élément clé est donné par l’introduction d’une représentation de type ”Multirésolution” dans l’espace stochastique. L’objectif est à la fois de réduire le nombre de dimensions et d’appliquer un algorithme d’adaptation de maillage qui puisse être utilisé dans l’espace couplé physique/stochastique pour des problèmes non-stationnaires. Pour finir, une stratégie d’optimisation robuste est proposée, qui est basée sur une analyse de décompositionde la variance et des moments statistiques d’ordre plus élevé. Dans ce cas, l’objectif est de traiter des problèmes avec un grand nombre d’incertitudes. / In this manuscript, three main contributions are illustrated concerning the propagation and the analysis of uncertainty for computational fluid dynamics (CFD) applications. First, two novel numerical schemes are proposed : one based on a collocation approach, and the other one based on a finite volume like representation in the stochastic space. In both the approaches, the key element is the introduction of anon-linear multiresolution representation in the stochastic space. The aim is twofold : reducing the dimensionality of the discrete solution and applying a time-dependent refinement/coarsening procedure in the combined physical/stochastic space. Finally, an innovative strategy, based on variance-based analysis, is proposed for handling problems with a moderate large number of uncertainties in the context of the robust design optimization. Aiming to make more robust this novel optimization strategies, the common ANOVA-like approach is also extended to high-order central moments (up to fourth order). The new approach is more robust, with respect to the original variance-based one, since the analysis relies on new sensitivity indexes associated to a more complete statistic description.
433

Modélisation statistique de la distribution des grands carnivores en Europe / Statistical modelling of large carnivores' distribution in Europe

Louvrier, Julie 27 November 2018 (has links)
Les grands carnivores recolonisent l’Europe grâce à une augmentation des forêts et des populations d'ongulés sauvages ainsi que des mesures de conservation. Or, les carnivores entrent en interactions avec les activités humaines telles que l’élevage. Quantifier leur distribution peut aider à situer les impacts sur ces activités. Ces espèces sont très mobiles, difficiles à observer et vivent à de faibles densités. La modélisation de leur distribution présente plusieurs défis en raison 1) de leur détectabilité imparfaite, 2) de leur distribution dynamique dans le temps et 3) du suivi à grande échelle basé sur la collecte de données opportunistes sans mesure formelle de l'effort d'échantillonnage. Dans cette thèse, nous nous sommes concentrés sur deux espèces de grands carnivores, le loup et le lynx boréal, pour développer les méthodologies liées à la modélisation de la distribution d’espèces. Nous avons exploré l’application des modèles d’occupancy dans le contexte du suivi des grands carnivores en Europe. Ces modèles établissent le lien entre la présence d’une espèce et l’environnement dans le but d’établir la proportion d'une zone d'étude que l’espèce occupe, tout en prenant en compte une détectabilité imparfaite.Plus précisément, nous avons d'abord évalué la dynamique de la distribution des loups en France de 1994 à 2016, tout en prenant en compte leur détection imparfaite. Nous avons montré l'importance de prendre en compte l’effort d'échantillonnage variant dans le temps et dans l'espace à l’aide de de modèles d’occupancy dynamique.Deuxièmement, comme des faux positifs peuvent être présents lors de la surveillance d'espèces rares, nous avons développé un modèle dynamique d’occupancy qui tenait compte simultanément des faux négatifs et des faux positifs pour analyser conjointement des données qui contenaient à la fois des détections certaines et des détections incertaines. L'analyse des données sur le lynx boréal dans les pays alpins a suggéré que l'incorporation de détections incertaines produisait des estimations des paramètres écologiques plus précises.Troisièmement, nous avons développé un modèle qui prenait en compte l'hétérogénéité de la détection tout en traitant les faux positifs. En appliquant notre nouvelle approche au loup en France, nous avons démontré que l'hétérogénéité de la détection du loup était principalement due à un effort d'échantillonnage hétérogène dans l'espace.Quatrièmement, pour traiter des sources de données multiples, nous avons développé un modèle de processus ponctuel de Poisson qui permettait l'inclusion de différentes sources de données lors de la construction des SDMs. Nous avons montré comment la combinaison des données sur la distribution permettait d’optimiser un suivi en répondant à la question de savoir quelle(s) source(s) d'information apporterait l’essentiel de l’information lors du suivi du lynx en Norvège.Cinquièmement, pour comprendre les mécanismes sous-jacents de la colonisation des loups en France, nous avons développé un cadre statistique pour estimer l'occupation spatio-temporelle et la dynamique des effectifs en utilisant le cadre de diffusion écologique. Nous avons montré le potentiel de notre approche pour prédire la distribution future potentielle du loup à court terme, un élément qui pourrait contribuer à cibler des zones de gestion ou se concentrer sur des zones de conflit potentiel.Dans l'ensemble, nos travaux montrent que les données opportunistes peuvent être analysées à l'aide de modèles de distribution d’espèces qui prennent en compte les contraintes liées au type de suivi utilisé pour produire les données. Nos approches peuvent être utilisées par les gestionnaires pour optimiser la surveillance des grands carnivores, cibler des zones de présence potentielles et contribuer à proposer des mesures destinées à atténuer les conflits. / Large carnivores are recovering in Europe, due to an increasing forest cover, ungulate population and conservation measures. Tthis return poses challenges as carnivores can interact with livestock farming. Assessing their distributions can help to predict and mitigate conflicts with human activities. Because large carnivores are highly mobile, elusive and live at very low density, modeling their distributions presents several challenges due to 1) their imperfect detectability, 2) their dynamic ranges over time and 3) their monitoring at large scales consisting of opportunistic data without a formal measure of the sampling effort. In this thesis, we focused on two carnivore species, wolves (Canis lupus) and Eurasian lynx (Lynx lynx), to develop the methodological aspects related to the modelling of species distributions. We considered the application of occupancy models in the context of monitoring large carnivores in Europe. These models allow the establishment of a link between the species’ presence and environmental covariates while accounting for imperfect detectability, in order to establish the proportion of a study area occupied by the species.We first assessed wolf range dynamics in France from 1994 to 2016, while accounting for species imperfect detection and showed the importance of accounting for time- and space-varying sampling effort using dynamic site-occupancy models.Second, acknowledging that false positives may occur when monitoring rare species, we showcased a dynamic occupancy model that simultaneously accounts for false negatives and positives to jointly analyze data that include both unambiguous detections and ambiguous detections. The analysis of data on the Eurasian lynx in Alpine countries suggested that incorporating ambiguous detections produced more precise estimates of the ecological parameters.Third, we developed a model accounting for heterogeneity in detection while dealing with false positives. Applying our new approach to a case study with grey wolves in France, we demonstrated that heterogeneity in wolf detection was due to a heterogeneous sampling effort across space.Fourth, to deal with multiple data sources, we developed a Poisson point process approach which allows the inclusion of different data sources when building SDMs. By doing so, we also answered the question about which source(s) of information would provide most of the information when monitoring the lynx in Norway.Fifth and finally, to understand the underlying mechanisms of the colonization of wolves in France, we developed a statistical framework for estimating spatiotemporal occupancy and abundance dynamics using the ecological diffusion framework. We demonstrated the potential of our approach to predict the potential future distribution of wolves in the short term, an element that could contribute to target management areas or focus on areas of potential conflict.Overall our work shows that opportunistic data can be analyzed with species distribution models that control for issues linked to the type of monitoring used to produce the data. Our approaches have the potential for being used by decision-makers to optimize the monitoring of large carnivores and to target sites where carnivores are likely to occur and mitigate conflicts.
434

Apprentissage par renforcement pour la généralisation des approches automatiques dans la conception des systèmes de dialogue oral / Statistical methods for a oral human-machine dialog system

Pinault, Florian 24 November 2011 (has links)
Les systèmes de dialogue homme machine actuellement utilisés dans l’industrie sont fortement limités par une forme de communication très rigide imposant à l’utilisateur de suivre la logique du concepteur du système. Cette limitation est en partie due à leur représentation de l’état de dialogue sous la forme de formulaires préétablis.Pour répondre à cette difficulté, nous proposons d’utiliser une représentation sémantique à structure plus riche et flexible visant à permettre à l’utilisateur de formuler librement sa demande.Une deuxième difficulté qui handicape grandement les systèmes de dialogue est le fort taux d’erreur du système de reconnaissance vocale. Afin de traiter ces erreurs de manière quantitative, la volonté de réaliser une planification de stratégie de dialogue en milieu incertain a conduit à utiliser des méthodes d’apprentissage par renforcement telles que les processus de décision de Markov partiellement observables (POMDP). Mais un inconvénient du paradigme POMDP est sa trop grande complexité algorithmique. Certaines propositions récentes permettent de réduire la complexité du modèle. Mais elles utilisent une représentation en formulaire et ne peuvent être appliqués directement à la représentation sémantique riche que nous proposons d’utiliser.Afin d’appliquer le modèle POMDP dans un système dont le modèle sémantique est complexe, nous proposons une nouvelle façon de contrôler sa complexité en introduisant un nouveau paradigme : le POMDP résumé à double suivi de la croyance. Dans notre proposition, le POMDP maitre, complexe, est transformé en un POMDP résumé, plus simple. Un premier suivi de croyance (belief update) est réalisé dans l’espace maitre (en intégrant des observations probabilistes sous forme de listes nbest). Et un second suivi de croyance est réalisé dans l’espace résumé, les stratégies obtenues sont ainsi optimisées sur un véritable POMDP.Nous proposons deux méthodes pour définir la projection du POMDP maitre en un POMDP résumé : par des règles manuelles et par regroupement automatique par k plus proches voisins. Pour cette dernière, nous proposons d’utiliser la distance d’édition entre graphes, que nous généralisons pour obtenir une distance entre listes nbest.En outre, le couplage entre un système résumé, reposant sur un modèle statistique par POMDP, et un système expert, reposant sur des règles ad hoc, fournit un meilleur contrôle sur la stratégie finale. Ce manque de contrôle est en effet une des faiblesses empêchant l’adoption des POMDP pour le dialogue dans l’industrie.Dans le domaine du renseignement d’informations touristiques et de la réservation de chambres d’hôtel, les résultats sur des dialogues simulés montrent l’efficacité de l’approche par renforcement associée à un système de règles pour s’adapter à un environnement bruité. Les tests réels sur des utilisateurs humains montrent qu’un système optimisé par renforcement obtient cependant de meilleures performances sur le critère pour lequel il a été optimisé. / Dialog managers (DM) in spoken dialogue systems make decisions in highly uncertain conditions, due to errors from the speech recognition and spoken language understanding (SLU) modules. In this work a framework to interface efficient probabilistic modeling for both the SLU and the DM modules is described and investigated. Thorough representation of the user semantics is inferred by the SLU in the form of a graph of frames and, complemented with some contextual information, is mapped to a summary space in which a stochastic POMDP dialogue manager can perform planning of actions taking into account the uncertainty on the current dialogue state. Tractability is ensured by the use of an intermediate summary space. Also to reduce the development cost of SDS an approach based on clustering is proposed to automatically derive the master-summary mapping function. A implementation is presented in the Media corpus domain (touristic information and hotel booking) and tested with a simulated user.
435

Dynamiques spatio-temporelles d'espèces démersales clés du golfe du Lion : bénéfices potentiels d’aires marines protégées / Spatio-temporal dynamics of demersal exploited species in the Gulf of Lions : potential usefulness of Marine Protected Areas

Morfin, Marie 18 October 2013 (has links)
Les espèces démersales représentent 50% des captures des pêcheries françaises du golfe du Lion, dont la plupart sont pleinement exploitées, voir surexploitées depuis plusieurs décennies. Cette thèse évalue la pertinence d'aires marines protégées (AMPs) comme outil de gestion et de conservation de ces populations. Jusqu'à présent de telles zones ont été uniquement mises en place le long des côtes pour protéger des espèces très peu mobiles. Le problème est plus complexe pour les espèces vivant en haute mer car leur habitat est plus large et plus diffus. Pour ce faire, la distribution spatiale de 12 espèces démersales exploitées clés ont été étudiées de 1994 à 2010, à l'aide d'observations scientifiques et d'outils statistiques ad hoc. Une approche géostatistique a permis de détecter des structures d'auto-corrélation spatiale pour l'ensemble des espèces, et de produire des cartes de distributions annuelles de chaque espèce. Ces distributions sont apparues très stables sur les dix-sept années, mis à part un phénomène d'expansion/ rétraction avec le niveau d'abondance totale sur la région. Par ailleurs une approche par modèle linéaire généralisé a révélé des associations importantes de ces espèces à un habitat stable dans le temps. Ces résultats sont en accord avec la théorie du bassin de MacCall selon laquelle l'association d'une espèce à un habitat est densité-dépendant, et l'augmentation de la densité d'individus dans une zone serait à l'origine de la colonisation d'habitats sub-optimaux. Protéger l'habitat optimal d'une espèce permettrait alors de constituer un habitat «source», si la zone est judicieusement choisie ; en effet le report de l'effort de pêche à l'extérieur de l'AMP peut au contraire rendre cette mesure inefficace voir délétère. Par ailleurs les populations adultes occupaient généralement des zones plus concentrées et incluses dans l'aire de répartition des juvéniles. Ces zones communes d'habitats essentiels (reproduction et nourriceries) peuvent être potentiellement intéressantes à protéger dans un cadre monospécifique. L'hétérogénéité observée des répartitions d'une espèce à l'autre implique l'instauration de zones très clairsemées, et rend la gestion difficile dans une cadre pluri-spécifique. Une zone de taille raisonnable a tout de même été identifiée, représentant 20% de la population de chaque espèce et représentative de la diversité des habitats de cette région. / Demersal species represent 50% of French fisheries catches in theGulf of Lions, most of which are fully exploited, or overfished for decades. This thesis evaluates the relevance of marine protected areas (MPAs) as a tool for conservation and management of these populations. So far these areas have been implemented only along the coast to protect the very few mobile species. The problem is more complex for deep sea species because their habitat is broader and more diffuse. To do this, the spatial distribution of 12 key demersal species exploited were studied from 1994 to 2010, with scientific observations and ad hoc statistical tools. A geostatistical approach allowed to detect spatial autocorrelation structures for all species, and produce maps of annual distributions of each species. These distributions appeared very stable over 17 years, apart from a phenomenon of expansion/ contraction with the level of total abundance in the region. In addition, a generalized linear model approach revealed significant associations of these species to a temporally stable habitat. These results are consistent with MacCall basin theory, according which habitat suitability is a density-dependent thus the increase of individuals in an area make them colonize sub-optimal habitats. An optimal habitat under protection could thus be "source" habitat, if the area is carefully chosen. Indeed reporting the fishing effort outside the MPA can instead make this measure ineffective or deleterious. The adult population were generally in more concentrated areas and included in the spatial range of juveniles. These common areas of essential habitat (breeding and nursery) may be potentially interesting to protect a single species . However, the heterogeneity of distributions of a species to another involves the introduction of very sparse areas, making the management difficult. However an area of ​​reasonable size has been identified, covering 20% ​​of the population of each species and representative of the diversity of bottom habitats in the region.
436

Segmentation d'images ultrasonores basée sur des statistiques locales avec une sélection adaptative d'échelles / Ultrasound image segmentation using local statistics with an adaptative scale selection

Yang, Qing 15 March 2013 (has links)
La segmentation d'images est un domaine important dans le traitement d'images et un grand nombre d'approches différentes ent été développées pendant ces dernières décennies. L'approche des contours actifs est un des plus populaires. Dans ce cadre, cette thèse vise à développer des algorithmes robustes, qui peuvent segmenter des images avec des inhomogénéités d'intensité. Nous nous concentrons sur l'étude des énergies externes basées région dans le cadre des ensembles de niveaux. Précisément, nous abordons la difficulté de choisir l'échelle de la fenêtre spatiale qui définit la localité. Notre contribution principale est d'avoir proposé une échelle adaptative pour les méthodes de segmentation basées sur les statistiques locales. Nous utilisons l'approche d'Intersection des Intervalles de Confiance pour définir une échelle position-dépendante pour l'estimation des statistiques image. L'échelle est optimale dans le sens où elle donne le meilleur compromis entre le biais et la variance de l'approximation polynomiale locale de l'image observée conditionnellement à la segmentation actuelle. De plus, pour le model de segmentation basé sur une interprétation Bahésienne avec deux noyaux locaux, nous suggérons de considérer leurs valeurs séparément. Notre proposition donne une segmentation plus lisse avec moins de délocalisations que la méthode originale. Des expériences comparatives de notre proposition à d'autres méthodes de segmentation basées sur des statistiques locales sont effectuées. Les résultats quantitatifs réalisés sur des images ultrasonores de simulation, montrent que la méthode proposée est plus robuste au phénomène d'atténuation. Des expériences sur des images réelles montrent également l'utilité de notre approche. / Image segmentation is an important research area in image processing and a large number of different approaches have been developed over the last few decades. The active contour approach is one of the most popular among them. Within this framework, this thesis aims at developing robust algorithms, which can segment images with intensity inhomogeneities. We focus on the study of region-based external energies within the level set framework. We study the use of local image statistics for the design of external energies. Precisely, we address the difficulty of choosing the scale of the spatial window that defines locality. Our main contribution is to propose an adaptive scale for local region-based segmen¬tation methods. We use the Intersection of Confidence Intervals approach to define this pixel-dependent scale for the estimation of local image statistics. The scale is optimal in the sense that it gives the best trade-off between the bias and the variance of a Local Polynomial Approximation of the observed image conditional on the current segmenta¬tion. Additionally, for the segmentation model based on a Bayesian interpretation with two local kernels, we suggest to consider their values separately. Our proposition gives a smoother segmentation with less mis-localisations Chan the original method.Comparative experiments of our method to other local region-based segmentation me¬thods are carried out. The quantitative results, on simulated ultrasound B-mode images, show that the proposed scale selection strategy gives a robust solution to the intensity inhomogeneity artifact of this imaging modality. More general experiments on real images also demonstrate the usefulness of our approach.
437

Analysis of variation of mid-upper arm circumference and weight-for-height in children for the assessment of malnutrition in populations and individuals

Grellety Bosviel, Emmanuel 06 February 2019 (has links) (PDF)
Death from hunger and starvation can be avoided with appropriate diagnosis and treatment if the necessary knowledge and resources are available. The current definitions of acute malnutrition are based either upon a weight-for-height Z-score (WHZ) below -2 standard deviations of the international reference population (World Health Organization 2006 Growth Standards) or a mid-upper arm circumference (MUAC) lower than 125 mm. These indicators are used independently to define the sum of moderate and severe acute malnutrition, commonly referred to as global acute malnutrition (GAM). Severe acute malnutrition (SAM) is defined as the children with WHZ < -3 SD or MUAC <115 mm. These cut-off points are used both to estimate the prevalence of malnutrition and also to identify those children who should be admitted for individual treatment of their acute malnutrition.However, the ramifications of the new WHO standards and the introduction of the absolute MUAC as an additional criterion have not been sufficiently explored. There appears to have been little detailed analysis of the variation of MUAC in children using these new standards. Thus, there is insufficient information available for predicting changes in patient load due to the addition of an absolute MUAC cut-off, the degree of overlap between the criteria and the factors that affect the selection of malnourished children using the two criteria, WHZ and MUACNevertheless, because of the ease of use of MUAC and strong advocacy based mainly the relative sensitivity and specificity of WHZ and MUAC in predicting long-term all-cause mortality in the community, many organizations and some governments are now moving from using MUAC to screen children in the community and elsewhere to MUAC-only programs with abandonment of using WHZ altogether.A better understanding of the relationship between these measures is important as differences can have significant implications on the decision to intervene in a nutritional crises, assessment of potential program size, resource requirements and outcome, selection of children admitted for treatment and the strategy which will have the greatest influence upon mortality and the other poor outcomes of being malnourished. To this end my thesis included the following studies which explored the variation of MUAC and WHZ in children for the assessment of malnutrition.In my first study, I examined the direction and degree of discrepancy between MUAC and WHZ of children aged 6-59 months in 1,832 anthropometric surveys from 47 countries, mainly in Africa. The results show that using MUAC or WHZ, 16.3% of children were identified with GAM and 3.5% with SAM. The proportion of overlap between the two indicators was 28.2% for GAM (15-38.5%) and 16.5 % for SAM (6.1-29.8%). Overlap for individual countries was especially low for SAM. The numbers of children diagnosed by either criterion varied dramatically by country: the difference between the relative case-load using WHZ and MUAC for GAM varied from minus 57% to plus 72%. For SAM, in four of the 38 countries, less than 25% of severely malnourished children would be identified and admitted for treatment if a MUAC-only admission policy were being used. For all countries examined, the discrepancies were not adequately explained by any single hypothesis. My second study was in three parts. Each part examined the veracity of the assertion that MUAC is a better indicator of mortality than WHZ. 1) I analysed individual data from 76,887 children admitted to a range of treatment programmes to determine the mortality rates associated with SAM. 2) I conducted an exhaustive search of the literature to identify reports of children diagnosed by WHZ or MUAC with their respective mortality rates.3) I analysed the effect of case load using the prevalence data published in the first study with Case Fatality Rates (CFRs) derived from the empirical data, the literature data and theoretical simulations. We found that mathematical coupling caused a reversal of significance generating Simpson’s paradox so that the interpretation of the relative mortality rates of WHZ and MUAC is unsafe when children with both criteria are included in each group being compared. The analysis suggests that children with SAM identified by WHZ <-3 and admitted for treatment are at as least as high a risk of death as children in treatment with MUAC<115cm and probably at higher risk. Review of 21 datasets that compared WHZ and MUAC mortality rates show problems with interpretation of the reported CFRs in each of the studies; inconsistencies greatly limit analysis, comparability and interpretation. Caseload is a more important determinant of the number of SAM related child deaths than the relative CFR to give the number of SAM attributable deaths. Where most of the children are identified as SAM using WHZ, rather than MUAC, it is estimated that fewer than half of all SAM related deaths will be identified using a MUAC-only programme.In my third study, I have conducted a Monte Carlo simulation of anthropometric surveys and imposed random errors of measurement on the data in order to examine the effect of measurement error. The results show that there is an increase in the standard deviation with each of the errors, that the spread becomes exponentially greater with the magnitude of the sort of error that occur in real life situations and that the effect of an increase in standard deviation (SD) that appears to be fairly trivial has a major effect upon the reported prevalence of the condition. I show that even within quite a narrow range of SDs (from 0.8 to 1.2) the proportion of children <-2 WHZ can increase from 6% to 15% - which would move the population from one of “acceptable” prevalence to an acute emergency situation. The corresponding SAM would increase from about 1% to nearly 5%. If one was to use such a survey to estimate the current case-load of SAM children the difference would be five-fold. However, this range of SDs is generally thought to represent a “good survey”. When larger and more complex surveys are considered, for example those included in the WHO database or the DHS surveys, the SD is frequently greater than 1.2 leading to give a higher reported prevalence of malnutrition than may be the actual prevalence. In my fourth study, I performed a secondary analysis of the surveys collected in my first study in order to examine the change in reliability of such surveys over time. I analysed the statistical distributions of the derived anthropometric parameters from 1,843 surveys conducted by 19 agencies between 1986 and 2015. The results show that with the introduction of standardised guidelines and software by 2003 and their more general application from 2007 the mean standard deviation, kurtosis and skewness of the parameters used to assess nutritional status have each moved to now approximate the distribution of the WHO standards when the exclusion of outliers from analysis is based upon the SMART flagging procedure. Where WHO flags, that only exclude data incompatible with life, are used the quality of anthropometric surveys has improved and the results now approach those seen with SMART flags and the WHO standards distribution. Agencies vary in their uptake and adherence to standard guidelines. Those agencies that fully implement the guidelines achieve the most consistently reliable results.In conclusion, well-defined and internationally accepted criteria to assess anthropometric survey quality should be universally applied and reported if the surveys are to be reliable, credible and form the basis for appropriate intervention. Using WHZ-only or MUAC-only estimates of prevalence will underestimate the burden of acute malnutrition. Such a program policy would result in between 300,000 and 600,000 SAM deaths occurring in children each year who have no possibility of being treated. WHZ and MUAC are complementary indicators, it is only by using both criteria to identify SAM and admit children for treatment that we will move towards reducing avoidable SAM- related mortality in most countries. This will only be realised when we can conveniently identify children with a low WHZ in community screening programs. / Doctorat en Sciences de la santé Publique / info:eu-repo/semantics/nonPublished
438

Comparaison d'estimateurs de la variance du TMLE

Boulanger, Laurence 09 1900 (has links)
No description available.
439

Image processing for on-line analysis of electron microscope images : automatic Recognition of Reconstituted Membranes / Analyse automatique d'images en microscopie électronique : identification et classification des membranes artificielles

Karathanou, Argyro 25 November 2009 (has links)
Les techniques d'analyse des images présentées dans cette thèse sont élaborées dans le cadre du Projet Européen dédié au développement d'une plateforme automatique pour l'évaluation de la cristallisation des protéines membranaires. Un grand nombre d'échantillons est simultanément produit et évalué par microscopie électronique en transmission (MET). Pour rendre cette tache automatique, une analyse en ligne des images acquises est indispensable ; des régions d'intérêt essentielles pour le pilotage du microscope sont progressivement sélectionnées afin d'évaluer les cristaux de protéines a fort grossissement.L'observation de l'échantillon à moyen grossissement fournit des informations nécessaires pour la caractérisation du succès de la cristallisation 2D. Les objets résultants, et en particulier le gris. De plus, ces membranes sont pratiquement transparentes aux électrons et donc, apparaissent faiblement contrastées.Cette thèse présente un ensemble de techniques de traitement d'images pour leur analyse à moyen grossissement (5-15 nm/pixel). La contribution originale de ce travail est située sur i) une évaluation statistique des contours en mesurant la corrélation entre les niveaux de gris proche du contour et un filtre de gradient pour réduire le sur segmentation, ii) la reconnaissance des objets de l'image, iii) une étude préliminaire de classification. Cette chaîne est en cours de validation sur un prototype. / The image analysis techniques presented in the présent thesis have been developed as part of a European projeet dedicated to the development of an automatic membrane protein crystallization pipeline. A large number of samples is simultaneously produced and assessed by transmission electron microscope (TEM) screening. Automating this fast step implicates an on-fine analysis of acquired images to assure the microscope control by selecting the regions to be observed at high magnification and identify the components for specimen characterization.The observation of the sample at medium magnification provides the information that is essential to characterize the success of the 2D crystallization. The resulting objects, and especially the artificial membranes, are identifiable at this scale. These latter present only a few characteristic signatures, appearing in an extremely noisy context with gray-level fluctuations. Moreover they are practically transparent to electrons yielding low contrast. This thesis presents an ensemble of image processing techniques to analyze medium magnification images (5-15 nm/pixel). The original contribution of this work lies in: i) a statistical evaluation of contours by measuring the correlation between gray-levels of neighbouring pixels to the contour and a gradient signal for over-segmentation reduction, ii) the recognition of foreground entities of the image and iii) an initial study for their classification. This chain has been already tested on-line on a prototype and is currently evaluated.
440

Une modélisation de la résistance en flexion du pin maritime utilisé en construction / A modeling of timber bending strength in maritime pine

Grazide, Cecile 02 December 2014 (has links)
Dans le cas du bois massif, les résistances en flexion et en traction peuvent être altérées par la présence de défauts. Les nœuds et la distorsion du fil qui en découle, sont les causes de la diminution du rendement mécanique des sections de poutres de structure. A ce jour, l’effet de ces défauts sur la perte de résistance de l’élément de structure ne peut être quantifié avec exactitude. Le classement mécanique du bois de structure n’est alors pas optimal et ne permet pas de valoriser les éléments de fortes résistances. La présente étude a pour objectif d’étudier l’influence de la nodosité sur le rendement mécanique de poutres en Pin Maritime dans le but d’en améliorer son classement mécanique. Cette étude s’appuie sur une base de données recensant les propriétés mécaniques et physiques de poutres de grandes dimensions ainsi que les propriétés géométriques des nœuds présents sur ces éléments. Différents outils statistiques sont utilisés afin de définir les variables explicatives et leurs pouvoirs prédictifs sur la résistance mécanique de ces composants structurels. De ces analyses, il ressort que certaines caractéristiques propres aux nœuds sont significatives et permettent d’améliorer la prédiction de la résistance. Des modélisations éléments finis de tronçons de poutres présentant un nœud sont proposées pour justifier la présence de ces paramètres dans les modèles prédictifs et afin de compléter cette base de données par des propriétés mécaniques. Ces modélisations numériques, accompagnées d’un critère de ruine, permettent d’établir des courbes de performances mécaniques en présence d’un nœud. Ces données numériques sont comparées aux résultats expérimentaux afin de vérifier la fiabilité de l’approche proposée. / The bending and tensile strengths of timber can be reduced by the presence of heterogeneities. The knots and the local slope of grain in the surrounding area are the most relevant. Nowadays, the effect of knots reduces the stiffness and the strength of structural elements. The Timber grading is not optimized and does not promote the strongest beams for a timber engineering use. The goal of this study is to evaluate the influence of knots on the bending strength of beams in Maritime Pine, order to improve their timber grading. This work is focused on a database, which takes into account the mechanical and the physical properties of beams and specific geometrical parameters relative to knots detected in elements. Several statistical tools like neural networks are used to define the explanatory variables and their predictive powers of the bending strength. From these analyses, it is shown that some variables characterizing the knots are pertinent and allow the improvement of the prediction of the strength. To justify the presence of these variables in the predictive equations, finite element simulations of single knot are proposed. These numerical computations associated to a fracture criterion allow the establishment of strength performance curves due to the presence of knot in an elementary loaded volume (tension and bending configurations). These numerical data are compared to the experimental results in the aim to verify the reliability of the finite element approach.

Page generated in 0.0343 seconds