191 |
Ondes scélérates et statistiques extrêmes dans les systèmes optiques fibrésHammani, Kamal 14 October 2011 (has links) (PDF)
Ce mémoire présente des travaux portant sur les ondes aux statistiques extrêmes qui représentent un sujet extrêmement attractif en optique depuis qu'une comparaison avec les vagues scélérates océaniques a été proposée fin 2007. Nous décrivons donc les mécanismes de formations de ces structures extrêmes dans le cadre de la propagation guidée de la lumière dans les fibres optiques. Dans une première partie, nous commençons par explorer les ondes scélérates optiques dans les supercontinuums générés par instabilité modulationnelle d'ordre 4 et proposons une méthode de stabilisation basée sur l'utilisation de deux germes continus. Puis, nous continuons avec une étude approfondie sur les amplificateurs Raman à fibre où des conditions d'apparitions des structures géantes sont déterminées. En effet, en présence d'une pompe partiellement incohérente comme le laser Raman fibré, un gain quasi-instantané et un faible walk-off mènent à des statistiques extrêmes. Cela a pu être vérifié que le signal soit continu ou impulsionnel et dans le cadre d'un amplificateur paramétrique basé sur l'instabilité modulationnelle d'ordre 2 incohérente. Dans la dernière partie, un système turbulent est étudié en fonction de l'incohérence ce qui nous a permis d'identifier trois régimes avec, en particulier, le second où il existe des quasi-solitons intermittents. Enfin, nous nous intéressons à des structures non-linéaires appelées Breathers d'Akhmediev, qui présentent des cycles de compression-décompression, et portons notre attention sur leur limite asymptotique : le soliton de Peregrine. Ce dernier est vu comme un prototype très intéressant des vagues scélérates. Nos études expérimentales, menées aux longueurs d'ondes des communications optiques et utilisant différentes méthodes de caractérisations spectro-temporelles, sont complétées par des études numériques et analytiques.
|
192 |
An econometric study of international trade flowsLinnemann, Hans. January 1966 (has links)
Thesis--Netherlands School of Economics. / Label mounted on t.p.: New York, Humanities Press. Bibliographical footnotes.
|
193 |
Méthodes statistiques pour la fouille de données dans les bases de données de génomique / Statistical methods for data mining in genomics databases (Gene Set En- richment Analysis)Charmpi, Konstantina 03 July 2015 (has links)
Cette thèse est consacrée aux tests statistiques, visant à comparer un vecteur de données numériques, indicées par l'ensemble des gènes du génome humain, à un certain ensemble de gènes, connus pour être associés par exemple à un type donné de cancer. Parmi les méthodes existantes, le test Gene Set Enrichment Analysis est le plus utilisé. Néanmoins, il a deux inconvénients. D'une part, le calcul des p-valeurs est coûteux et peu précis. D'autre part, il déclare de nombreux résultats significatifs, dont une majorité n'ont pas de sens biologique. Ces deux problèmes sont traités, par l'introduction de deux procédures statistiques nouvelles, les tests de Kolmogorov-Smirnov pondéré et doublement pondéré. Ces deux tests ont été appliqués à des données simulées et réelles, et leurs résultats comparés aux procédures existantes. Notre conclusion est que, au-delà leurs avantages mathématiques et algorithmiques, les tests proposés pourraient se révéler, dans de nombreux cas, plus informatifs que le test GSEA classique, et traiter efficacement les deux problèmes qui ont motivé leur construction. / Our focus is on statistical testing methods, that compare a given vector of numeric values, indexed by all genes in the human genome, to a given set of genes, known to be associated to a particular type of cancer for instance. Among existing methods, Gene Set Enrichment Analysis is the most widely used. However it has several drawbacks. Firstly, the calculation of p-values is very much time consuming, and insufficiently precise. Secondly, like most other methods, it outputs a large number of significant results, the majority of which are not biologically meaningful. The two issues are addressed here, by two new statistical procedures, the Weighted and Doubly Weighted Kolmogorov-Smirnov tests. The two tests have been applied both to simulated and real data, and compared with other existing procedures. Our conclusion is that, beyond their mathematical and algorithmic advantages, the WKS and DWKS tests could be more informative in many cases, than the classical GSEA test and efficiently address the issues that have led to their construction.
|
194 |
Statistical Models for the analysis of ASL and BOLD Magnetic Resonance modalities to study brain function and disease / Modèles statistiques pour l'analyse des modalités d'imagerie par résonance magnétique ASL et BOLD pour étudier le fonctionnement et les maladies cérébralesFrau Pascual, Aina 19 December 2016 (has links)
Les modalités d'imagerie fonctionnelle et de perfusion sont étroitement liées car les deux mesurent, directement ou indirectement, le débit sanguin cérébral. D’une part, en utilisant le contraste BOLD (Blood-Oxygen-Level-Dependent), l'imagerie fonctionnelle par résonance magnétique (IRMf) exploite les propriétés magnétiques du sang (oxy et désoxyhémoglobine) pour y mesurer les changements locaux de concentration en oxygène: ce couplage neurovasculaire permet de déduire le fonctionnement du cerveau à partir des images IRMf. D’autre part, l'IRM de perfusion reflète le fonctionnement du système vasculaire cérébral en mesurant directement le débit sanguin cérébral. En particulier, l’IRM du marquage de l’eau artérielle (ASL) n'a pas besoin d'agents de contraste: le traceur est remplacé par des spins de protons endogènes d'eau. Habituellement l’ASL est utilisée pour mesurer la perfusion basale au repos. Toutefois, ces dernières années, il a également été utilisé comme une modalité d'imagerie fonctionnelle (comme fASL) en mesurant les variations de perfusion cérébrale induites par la réalisation de tâches cognitives. Contrairement à l'IRMf standard basée sur le contraste BOLD, les résultats sont quantitatifs, ce qui rend ce type de données intéressantes pour son utilisation dans la recherche clinique.Cette thèse porte sur l’étude de la modalité fASL et sur le développement de nouvelles méthodes pour l'analyser. Comme précédemment réalisé pour les données BOLD, un cadre bayésien est développé pour l'analyse des données fASL. Il fournit un moyen de modéliser les valeurs d'activation et les fonctions de réponse hémodynamique et de perfusion en tant que variables probabilistes dans l’approche de Détection-Estimation Conjointe. Les modèles bayésiens utilisent une connaissance a priori pour l'estimation des paramètres inconnus à travers la spécification de distributions de probabilité. Dans ce travail, nous exploitons cette fonction pour incorporer au modèle des informations physiologiques, afin de rendre l'estimation plus robuste. En particulier, nous utilisons des modèles physiologiques basés sur le modèle de ballon pour obtenir un lien entre les réponses hémodynamiques et de perfusion, puis nous utilisons ce lien dans une distribution a priori pour régulariser l'estimation des réponses. En utilisant information physiologique a priori, une solution de type Markov Chain Monte Carlo (MCMC) a été proposée pour l'estimation des quantités contenues dans le signal IRMf. Étant donné que le coût de calcul de cet algorithme est très élevé, nous reformulons le problème pour utiliser une approche variationnelle (VEM) qui fournit un algorithme beaucoup plus rapide avec des résultats similaires. Dans ce cadre, l'introduction d'information a priori et de contraintes est également plus simple.Ces méthodes ont été évaluées sur deux ensembles de données différentes en utilisant des paradigmes événementiels et du bloc, pour des tâches cognitives très simples. Nous montrons les bonnes performances des méthodes proposées par rapport aux méthodes standards, au niveau des sujets et du groupe. Les résultats expérimentaux montrent que les probabilités a priori physiologiques améliorent l'estimation d'une fonction de réponse de perfusion. Ces résultats démontrent également que le contraste BOLD a une meilleure sensibilité pour la détection de l'activité cérébrale évoquée que fASL, bien que la fASL donne une activation plus localisée, ce qui est conforme à la littérature existante. A partir de ces résultats, nous discutons l'impact de la modélisation de la corrélation spatiale, ainsi que l'impact de l'estimation des réponses temporelles.Ce travail propose de nouvelles contributions méthodologiques pour l'étude de la fASL, et les met en perspective avec les techniques existantes. Ainsi, nous proposons de nouveaux outils pour la communauté neuroscientifique, mis en œuvre en python dans le package PyHRF, pour étudier et comprendre le fonctionnement du cerveau. / Functional and perfusion imaging modalities are closely related since they both measure, directly or indirectly, blood flow in the brain. Functional Magnetic Resonance Imaging (fMRI) using the blood oxygen level dependent (BOLD) contrast exploits the magnetic properties of blood (oxy- and deoxyhemoglobin) to measure local changes in blood oxygen concentration in the brain. The neurovascular coupling allows us to infer brain function from fMRI images. Perfusion MRI images the cerebral vascular system by directly measuring blood flow. In particular, Arterial Spin Labeling (ASL) does not need contrast agents; it uses spins of endogenous water protons as a tracer instead. Usually ASL is used to probe the basal perfusion at rest. However, in the recent years, it has also been used as a functional imaging modality (as fASL) by tracking task-related perfusion changes. In contrast to the standard BOLD fMRI, results are quantitative, making this type of data attractive for use in clinical research.This thesis focuses on the investigation of the fASL modality and the development of new methods to analyze it. As previously done for BOLD data, a Bayesian framework is proposed for the analysis of fASL data. It provides a way of modeling activation values and both hemodynamic and perfusion response functions as probabilistic variables in the so-called joint detection estimation (JDE) framework. Bayesian models use a priori knowledge in the estimation of unknown parameters through the specification of probability distributions. In this work, we exploit this feature to incorporate physiological information to make the estimation more robust. In particular, we use physiological models based on the balloon model to derive a link between hemodynamic and perfusion responses and we turn this link into a prior distribution to regularize the estimation of the responses. A Markov Chain Monte Carlo solution with prior physiological knowledge has been first proposed for the estimation of the quantities contained in the fMRI signal. Since the computational cost of this algorithm is very high, we then reformulate the problem to use a variational expectation maximization approach that provides a much faster algorithm with similar results. The use of priors and constraints in this setting is also more straightforward.These methods have been evaluated on two different datasets using event-related and block designs with very simple experimental tasks. We show the performance of the methods investigated in comparison to standard methods at the subject and group levels. Experimental results show the utility of using physiological priors for improving the recovery of a perfusion response function. They also demonstrate that BOLD fMRI achieves better sensitivity to detect evoked brain activity as compared to fASL although fASL gives a more localized activation, which is in line with the existing literature. From the results, we discuss the impact of the modelling of spatial correlation, as well as the impact of the estimation of temporal responses.This work proposes new methodological contributions in the study of a relatively new fMRI modality that is functional ASL, and puts it into perspective with the existing techniques. Thus, we provide new tools for the neuroscientific community to study and understand brain function. These tools have been implemented in python in the PyHRF package.
|
195 |
Intégration des incertitudes liées à la production et à son effacement sur les méthodes de planification des réseaux / Integration of uncertainties related to production and its curtailment on network planning methodsGarry, Aurel 15 September 2016 (has links)
Dans le domaine de la distribution d’électricité, l’arrivée progressive de production décentralisée rend certains réseaux de distribution exportateurs de puissance, au point où des investissements sont nécessaires pour permettre l’évacuation de la puissance produite. La progression de l’instrumentation des réseaux permet au distributeur d’obtenir des informations de plus en plus riches sur la production décentralisée et la question d’intégrer celles-ci dans les procédés de planification français se pose. À partir de relevés de production, on vérifie que les situations de référence utilisées pour dimensionner le réseau présentent un risque d’occurrence suffisant pour nécessiter des investissements. Si des solutions offrant de la flexibilité sont utilisées, celles-ci peuvent être intégrées au processus de planification. Une étude technico-économique est nécessaire et des méthodes sont proposées pour estimer les fréquences de forte production et la dispersion possible pour un ou plusieurs producteurs. Des modèles simples de loi jointe sont proposés. Le cas pratique de l’effacement de production est testé sur des réseaux considérés réalistes. À partir des relevés réels et des modèles, l’effacement est comparé à l’option d’investir au niveau du poste source. Des abaques de décision sont tracés permettant une projection rapide du distributeur. Par ailleurs dans une optique d’utilisation de l’effacement pour gérer des contraintes intra-réseau, une méthode de calcul de load flow probabilisé est proposée ; celle-ci permet d’estimer rapidement la quantité d’effacement requise et de réaliser un comparatif économique entre plusieurs options. / In the field of electricity distribution, some grids are more and more frequently exporters due to the gradual arrival of decentralized generation. Some grid investments are required to allow the evacuation of the power generated. As more and more information about decentralized production are available for the DSO, the question of integrating them into the planning processes arises.From data of energy production, it appears that the current situations tested for sizing the grid are likely to be reached on a several years basis. If consumption or production flexibilities are used, these can be integrated into the planning process. A technical and economic study is needed and methods are proposed to estimate the frequencies of high production and possible dispersion for one or more producers. Simple models of joint distribution are proposed.The practical case of curtailing production has been tested on networks with realistic scenarios of producers arrival. From actual data and previous models, curtailment and reinforcement are compared on a technico-economic basis. A abacus is plotted as a simple decision tool for the DSO. The question of using curtailment to defer or avoid intra-grid investment has also been investigated ; a calculation method of probabilistic load flow is proposed; it gives a quick and accurate estimation of the energy to curtail in order to avoid a constraint.
|
196 |
Analyse de sensibilité et réduction de dimension. Application à l'océanographie / Sensitivity analysis and model reduction : application to oceanographyJanon, Alexandre 15 November 2012 (has links)
Les modèles mathématiques ont pour but de décrire le comportement d'un système. Bien souvent, cette description est imparfaite, notamment en raison des incertitudes sur les paramètres qui définissent le modèle. Dans le contexte de la modélisation des fluides géophysiques, ces paramètres peuvent être par exemple la géométrie du domaine, l'état initial, le forçage par le vent, ou les coefficients de frottement ou de viscosité. L'objet de l'analyse de sensibilité est de mesurer l'impact de l'incertitude attachée à chaque paramètre d'entrée sur la solution du modèle, et, plus particulièrement, identifier les paramètres (ou groupes de paramètres) og sensibles fg. Parmi les différentes méthodes d'analyse de sensibilité, nous privilégierons la méthode reposant sur le calcul des indices de sensibilité de Sobol. Le calcul numérique de ces indices de Sobol nécessite l'obtention des solutions numériques du modèle pour un grand nombre d'instances des paramètres d'entrée. Cependant, dans de nombreux contextes, dont celui des modèles géophysiques, chaque lancement du modèle peut nécessiter un temps de calcul important, ce qui rend inenvisageable, ou tout au moins peu pratique, d'effectuer le nombre de lancements suffisant pour estimer les indices de Sobol avec la précision désirée. Ceci amène à remplacer le modèle initial par un emph{métamodèle} (aussi appelé emph{surface de réponse} ou emph{modèle de substitution}). Il s'agit d'un modèle approchant le modèle numérique de départ, qui nécessite un temps de calcul par lancement nettement diminué par rapport au modèle original. Cette thèse se centre sur l'utilisation d'un métamodèle dans le cadre du calcul des indices de Sobol, plus particulièrement sur la quantification de l'impact du remplacement du modèle par un métamodèle en terme d'erreur d'estimation des indices de Sobol. Nous nous intéressons également à une méthode de construction d'un métamodèle efficace et rigoureux pouvant être utilisé dans le contexte géophysique. / Mathematical models seldom represent perfectly the reality of studied systems, due to, for instance, uncertainties on the parameters that define the system. In the context of geophysical fluids modelling, these parameters can be, e.g., the domain geometry, the initial state, the wind stress, the friction or viscosity coefficients. Sensitivity analysis aims at measuring the impact of each input parameter uncertainty on the model solution and, more specifically, to identify the ``sensitive'' parameters (or groups of parameters). Amongst the sensitivity analysis methods, we will focus on the Sobol indices method. The numerical computation of these indices require numerical solutions of the model for a large number of parameters' instances. However, many models (such as typical geophysical fluid models) require a large amount of computational time just to perform one run. In these cases, it is impossible (or at least not practical) to perform the number of runs required to estimate Sobol indices with the required precision. This leads to the replacement of the initial model by a emph{metamodel} (also called emph{response surface} or emph{surrogate model}), which is a model that approximates the original model, while having a significantly smaller time per run, compared to the original model. This thesis focuses on the use of metamodel to compute Sobol indices. More specifically, our main topic is the quantification of the metamodeling impact, in terms of Sobol indices estimation error. We also consider a method of metamodeling which leads to an efficient and rigorous metamodel, which can be used in the geophysical context.
|
197 |
Approches statistiques pour la détection de changements en IRM de diffusion : application au suivi longitudinal de pathologies neuro-dégénératives / Statistical approaches for change detection in diffusion MRI : application to the longitudinal follow-up of neuro-degenerative pathologiesGrigis, Antoine 25 September 2012 (has links)
L'IRM de diffusion (IRMd) est une modalité d'imagerie médicale qui suscite un intérêt croissant dans la recherche en neuro-imagerie. Elle permet d'apporter in vivo des informations nouvelles sur les micro-structures locales des tissus. En chaque point d'une acquisition d'IRMd, la distribution des directions de diffusion des molécules d'eau est modélisée par un tenseur de diffusion. La nature multivariée de ces images requiert la conception de nouvelles méthodes de traitement adaptées. Le contexte de cette thèse est l'analyse automatique de changements longitudinaux intra-patient avec pour application le suivi de pathologies neuro-dégénératives. Notre recherche a ainsi porté sur le développement de nouveaux modèles et tests statistiques permettant la détection automatique de changements sur des séquences temporelles d'images de diffusion. Cette thèse a ainsi permis une meilleure prise en compte de la nature tensorielle des modèles d'ordre 2 (tests statistiques sur des matrices définies positives), une extension vers des modèles d'ordre supérieur et une gestion plus fine des voisinages sur lesquels les tests sont menés, avec en particulier la conception de tests statistiques sur des faisceaux de fibres. / Diffusion MRI is a new medical imaging modality of great interest in neuroimaging research. This modality enables the characterization in vivo of local micro-structures. Tensors have commonly been used to model the diffusivity profile at each voxel. This multivariate data set requires the design of new dedicated image processing techniques. The context of this thesis is the automatic analysis of intra-patient longitudinal changes with application to the follow-up of neuro-degenerative pathologies. Our research focused on the development of new models and statistical tests for the automatic detection of changes in temporal sequences of diffusion images. Thereby, this thesis led to a better modeling of second order tensors (statistical tests on positive definite matrices), to an extension to higher-order models, and to the definition of refined neighborhoods on which tests are conducted, in particular the design of statistical tests on fiber bundles.
|
198 |
Learning to Recognize Actions with Weak Supervision / Reconnaissance d'actions de manière faiblement superviséeChesneau, Nicolas 23 February 2018 (has links)
L'accroissement rapide des données numériques vidéographiques fait de la compréhension automatiquedes vidéos un enjeu de plus en plus important. Comprendre de manière automatique une vidéo recouvrede nombreuses applications, parmi lesquelles l'analyse du contenu vidéo sur le web, les véhicules autonomes,les interfaces homme-machine. Cette thèse présente des contributions dans deux problèmes majeurs pourla compréhension automatique des vidéos : la détection d'actions supervisée par des données web, et la localisation d'actions humaines.La détection d'actions supervisées par des données web a pour objectif d'apprendre à reconnaître des actions dans des contenus vidéos sur Internet, sans aucune autre supervision. Nous proposons une approche originaledans ce contexte, qui s'appuie sur la synergie entre les données visuelles (les vidéos) et leur description textuelle associée, et ce dans le but d'apprendre des classifieurs pour les événements sans aucune supervision. Plus précisément, nous télechargeons dans un premier temps une base de données vidéos à partir de requêtes construites automatiquement en s'appuyant sur la description textuelle des événéments, puis nous enlevons les vidéos téléchargées pour un événement, et dans laquelle celui-ci n'apparaït pas. Enfin, un classifieur est appris pour chaque événement. Nous montrons l'importance des deux étapes principales, c'est-à-dire la créations des requêtes et l'étape de suppression des vidéos, par des résutatsquantitatifs. Notre approche est évaluée dans des conditions difficiles, où aucune annotation manuelle n'est disponible, dénotées EK0 dans les challenges TrecVid. Nous obtenons l'état de l'art sur les bases de donnéesMED 2011 et 2013.Dans la seconde partie de notre thèse, nous nous concentrons sur la localisation des actions humaines, ce qui implique de reconnaïtre à la fois les actions se déroulant dans la vidéo, comme par exemple "boire" ou "téléphoner", et leur étendues spatio-temporelles. Nous proposons une nouvelle méthode centrée sur la personne, traquant celle-ci dans les vidéos pour en extraire des tubes encadrant le corps entier, même en cas d'occultations ou dissimulations partielles. Deux raisons motivent notre approche. La première est qu'elle permet de gérer les occultations et les changements de points de vue de la caméra durant l'étape de localisation des personnes, car celle-ci estime la position du corps entier à chaque frame. La seconde est que notre approche fournit une meilleure grille de référence que les tubes humains standards (c'est-à-dire les tubes qui n'encadrent que les parties visibles) pour extraire de l'information sur l'action. Le coeur de notre méthode est un réseau de neurones convolutionnel qui apprend à générer des propositions de parties du corps humain. Notre algorithme de tracking connecte les détections temporellement pour extraire des tubes encadrant le corps entier. Nous évaluons notre nouvelle méthode d'extraction de tubes sur une base de données difficile, DALY, et atteignons l'état de l'art. / With the rapid growth of digital video content, automaticvideo understanding has become an increasingly important task. Video understanding spansseveral applications such as web-video content analysis, autonomous vehicles, human-machine interfaces (eg, Kinect). This thesismakes contributions addressing two major problems in video understanding:webly-supervised action detection and human action localization.Webly-supervised action recognition aims to learn actions from video content on the internet, with no additional supervision. We propose a novel approach in this context, which leverages thesynergy between visual video data and the associated textual metadata, to learnevent classifiers with no manual annotations. Specifically, we first collect avideo dataset with queries constructed automatically from textual descriptionof events, prune irrelevant videos with text and video data, and then learn thecorresponding event classifiers. We show the importance of both the main steps of our method, ie,query generation and data pruning, with quantitative results. We evaluate this approach in the challengingsetting where no manually annotated training set is available, i.e., EK0 in theTrecVid challenge, and show state-of-the-art results on MED 2011 and 2013datasets.In the second part of the thesis, we focus on human action localization, which involves recognizing actions that occur in a video, such as ``drinking'' or ``phoning'', as well as their spatial andtemporal extent. We propose a new person-centric framework for action localization that trackspeople in videos and extracts full-body human tubes, i.e., spatio-temporalregions localizing actions, even in the case of occlusions or truncations.The motivation is two-fold. First, it allows us to handle occlusions and camera viewpoint changes when localizing people, as it infers full-body localization. Second, it provides a better reference grid for extracting action information than standard human tubes, ie, tubes which frame visible parts only.This is achieved by training a novel human part detector that scores visibleparts while regressing full-body bounding boxes, even when they lie outside the frame. The core of our method is aconvolutional neural network which learns part proposals specific to certainbody parts. These are then combined to detect people robustly in each frame.Our tracking algorithm connects the image detections temporally to extractfull-body human tubes. We evaluate our new tube extraction method on a recentchallenging dataset, DALY, showing state-of-the-art results.
|
199 |
Étude métrologique de solutions ioniques par spectrométrie Raman et analyses statistiques / Metrological study of ionic solutions by Raman spectrometry and statistical analysisKauffmann, Thomas H. 12 December 2016 (has links)
L’objectif de ce travail de recherche est d’étudier la possibilité d’utiliser la spectrométrie Raman dite "conventionnelle" pour l’analyse, voire le contrôle in situ de solutions ioniques et d'en déterminer les limites. Nous avons étudié différentes solutions salines, composées d'ions polyatomiques comme le nitrate (NO3-) donnant des raies Raman autour de 1000 cm-1, et d'ions halogénures (F-, Cl-, Br-, I-) qui ne possèdent pas de signature directe mais influencent de manière indirecte le spectre de l’eau. Les méthodologies proposées dans ce travail permettent une identification et une quantification des solutions salines et sont basées sur des analyses classiques de spectres à l'aide de pré-traitements (normalisation, correction de ligne de base). Les limites de détection des ions étudiés correspondent pour certains ions aux limites de potabilité de l’eau (nitrates et sulfates par exemple). D’autres substances restent impossibles à quantifier (nitrite, ammonium). Des méthodes statistiques ont ensuite été employées. Ainsi, l’analyse en composante principale (ACP) permet d’identifier la nature d’une solution saline, que l’ion présente une signature directe ou indirecte, et d'accéder aux arrangements moléculaires des ions avec l’eau. La régression PLS permet de quantifier les ions en solution à travers des modèles de prédiction. Cette méthode a été utilisée sur des solutions pures de nitrate et de chlorure avec des erreurs sur les prédictions en concentration 4 à 5 fois plus faibles que celles trouvées par les méthodes classiques. Ces méthodes statistiques ont également permis de descendre à des gammes de concentrations en ion Cl- beaucoup plus faibles (10-100 mM) / The objective of this research is to study the possibility of using conventional Raman spectroscopy for analysis, or in situ control of substances dissolved in water and to determine the limits of this technique. Several salt solutions were studied. Polyatomic ions such as nitrate (NO3-) give intense Raman lines around 1000 cm-1. Halide ions (F-, Cl-, Br-, I-) have no direct signature but indirectly affect the water spectrum. The methodology proposed in this work for identification and quantification of salt solutions is based on classical analysis of spectra using pre-treatment methods (normalization, baseline correction). The limits of detection of the studied ions correspond to the water potability limits. It is possible to go below the potability limits for nitrates and sulfates for example but it is impossible to reach them for some other substances (nitrite, ammonium). Then, statistical methods were used. Thus, the principal component analysis (PCA) allows to identify the nature of a salt solution (with direct or indirect signatures) and to acces to the molecular arrangements of ions with water. PLS regression quantifies the ions through predictive models. This method was used on pure solutions of nitrate and chloride with errors on the concentration predictions 4 to 5 times lower than those found by classical methods. Lower concentration ranges (10-100 mM) for the Cl- ion are reachable using these statistical methods
|
200 |
Goodness-of-fit tests in reliability : Weibull distribution and imperfect maintenance models / Tests d'adéquation en fiabilité : Loi de Weibull et modèles de maintenance imparfaiteKrit, Meryam 16 October 2014 (has links)
Ce travail porte sur les tests d'adéquation en fiabilité, à la fois pour les systèmes non réparables et les systèmes réparables. Les tests d'adéquation sont des outils efficaces pour vérifier la pertinence d'un modèle pour un jeu de données. Pour les systèmes non réparables, la loi exponentielle et la loi de Weibull sont les lois de durée de vie les plus utilisées en fiabilité. Une comparaison exhaustive des tests d'adéquation pour la loi exponentielle est présentée pour des données complètes et censurées, suivie par des recommandations d'utilisation de ces tests. La loi de Weibull à deux paramètres permet de modéliser des taux de hasard décroissants et croissants contrairement à la loi exponentielle qui suppose un taux de hasard constant. Cependant, il existe moins de tests d'adéquation à la loi de Weibull dans la littérature. Une revue exhaustive des tests existant est effectuée et deux familles de tests exacts sont preésentées. La première famille est la famille des tests basés sur la vraisemblance et la deuxième est la famille des tests basés sur la transformée de Laplace. Des propriétés asymptotiques des nouvelles statistiques de tests sont établies. Une comparaison complète des tests d'adéquation pour la loi de Weibull est effectuée. Des recommandations sur les tests les plus puissants sont données en fonction des caractéristiques du jeu de donnés testé. Pour les systèmes réparables, de nouveaux tests d'adéquation sont développés pour des modèles de maintenance imparfaite avec à la fois des maintenances correctives et des maintenances préventives déterministes. Ces tests sont exacts et peuvent être appliqués à des petits jeux de données. Finalement, des applications à de vrais jeux de données issus de l'industrie sont effectuées pour des systèmes réparables et des systèmes non réparables. / This work deals with goodness-of-fit (GOF) tests in reliability for both non repairable and repairable systems. GOF tests are efficient techniques to check the relevance of a model for a given data set. For non repairable systems, the Exponential and Weibull distributions are the most used lifetimes distributions in reliability. A comprehensive comparison study of the GOF tests for the Exponential distribution is presented for complete and censored samples followed by recommendations about the use of the tests. The two-parameter Weibull distribution allows decreasing and increasing failure rates unlike the Exponential distribution that makes the assumption of a constant hazard rate. Yet, there exist less GOF tests in the literature for the Weibull distribution. A comprehensive review of the existing GOF tests is done and two new families of exact GOF tests are introduced. The first family is the likelihood based GOF tests and the second is the family of tests based on the Laplace transform. Theoretical asymptotic properties of some new tests statistics are established. A comprehensive comparison study of the GOF tests for the Weibull distribution is done. Recommendations about the most powerful tests are given depending on the characteristics of the tested data sets. For repairable systems, new GOF tests are developed for imperfect maintenance models when both corrective maintenance and deterministic preventive maintenance are performed. These tests are exact and can be applied to small data sets. Finally, illustrative applications to real data sets from industry are carried out for repairable and non repairable systems.
|
Page generated in 0.0282 seconds