31 |
Estimação bayesiana para medidas de desempenho de testes diagnósticos.Pinho, Eloísa Moralles do 05 January 2006 (has links)
Made available in DSpace on 2016-06-02T20:05:58Z (GMT). No. of bitstreams: 1
DissEMP.pdf: 2351835 bytes, checksum: 336e30a60b741bebe39a08dc4f379ba0 (MD5)
Previous issue date: 2006-01-05 / In the medical area, diagnostic tests are used to classify a patient as positive or
negative with respect to a given disease. There are simple and more elaborate tests, each
one with a speci9ed rate of misclassi9cation.
To verify the accuracy of the medical tests, we could have comparisons with a "gold
stantard", here is a test with no error.
In many situations we could not have "gold standard", by ethical reasons or by chance
that the individual is disease free or by high costs of the test.
Joseph et al (1999) introduces a Bayesian approach that solves the lack of a gold
standard, by using latent variables. In this work, we introduce this Bayesian methodology
giving generalizations in the presence of covariates. A comparative study is made with
the presence or not of gold standard to check the accuracy of the medical tests. Some
diGerent proportions of patients without gold standard are considered in a simulation
study. Numerical examples are considered using the proposed methodology.
We conclude the dissertation assuming dependence among two or more tests. / Na área médica testes diagnósticos são usados para classi9car um paciente como positivo
ou negativo com relação a uma determinada condição ou moléstia. Existem testes
mais simples e outros mais elaborados, cada um fornecendo diferentes chances de erro de
classi9cação dos pacientes. Para quanti9car a precisão dos testes diagnósticos, podemos
compará-los com testes Padrão Ouro , termo utilizado para testes com satisfatória exatidão,
como biopsias, inspeções cirúrgicas e outros. Existem algumas condições que não
possuem testes considerados Padrão Ouro, outras até possuem, mas não é ético aplicá-los
em indivíduos sem a evidência da moléstia, ou ainda o seu uso pode ser inviável devido a
seu alto custo ou por oferecer risco ao paciente.
Joseph et al. (1999) [16] propõem a abordagem Bayesiana que supera o problema de
pacientes não veri9cados pelo teste Padrão Ouro introduzindo variáveis latentes. Apresentamos
também esta metodologia considerando a presença de covariáveis, que fornece
subsídios para a tomada de decisão médica. Um estudo comparativo é feito para situações
com ausência de Padrão Ouro para todos, alguns ou nenhum paciente, e assim, descrevemos
sobre a importância de se considerar uma porcentagem de pacientes veri9cados pelo
teste Padrão Ouro para melhores estimativas das medidas de desempenho dos testes diagnósticos.
Introduzimos um novo parâmetro que classsi9ca o grupo veri9cado ou não
veri9cado pelo teste Padrão Ouro. As metodologias propostas são demonstradas através
de exemplos numéricos. Como sugestão de continuidade, demonstramos a metodologia
para a veri9cação de dependência condicional entre testes diagnósticos.
|
32 |
Estimador de erro a posteriori baseado em recuperação do gradiente para o método dos elementos finitos generalizados / A posteriori error estimator based on gradient recovery for the generalized finite element methodRafael Marques Lins 11 May 2011 (has links)
O trabalho aborda a questão das estimativas a posteriori dos erros de discretização e particularmente a recuperação dos gradientes de soluções numéricas obtidas com o método dos elementos finitos (MEF) e com o método dos elementos finitos generalizados (MEFG). Inicialmente, apresenta-se, em relação ao MEF, um resumido estado da arte e conceitos fundamentais sobre este tema. Em seguida, descrevem-se os estimadores propostos para o MEF denominados Estimador Z e \"Superconvergent Patch Recovery\" (SPR). No âmbito do MEF propõe-se de modo original a incorporação do \"Singular Value Decomposition\" (SVD) ao SPR aqui mencionada como SPR Modificado. Já no contexto do MEFG, apresenta-se um novo estimador do erro intitulado EPMEFG, estendendo-se para aquele método as idéias do SPR Modificado. No EPMEFG, a função polinomial local que permite recuperar os valores nodais dos gradientes da solução tem por suporte nuvens (conjunto de elementos finitos que dividem um nó comum) e resulta da aplicação de um critério de aproximação por mínimos quadrados em relação aos pontos de superconvergência. O número destes pontos é definido a partir de uma análise em cada elemento que compõe a nuvem, considerando-se o grau da aproximação local do campo de deslocamentos enriquecidos. Exemplos numéricos elaborados com elementos lineares triangulares e quadrilaterais são resolvidos com o Estimador Z, o SPR Modificado e o EPMEFG para avaliar a eficiência de cada estimador. Essa avaliação é realizada mediante o cálculo dos índices de efetividade. / The paper addresses the issue of a posteriori estimates of discretization errors and particularly the recovery of gradients of numerical solutions obtained with the finite element method (FEM) and the generalized finite element method (GFEM). Initially, it is presented, for the MEF, a brief state of the art and fundamental concepts about this topic. Next, it is described the proposed estimators for the FEM called Z-Estimator and Superconvergent Patch Recovery (SPR). It is proposed, originally, in the ambit of the FEM, the incorporation of the \"Singular Value Decomposition (SVD) to SPR mentioned here as Modified SPR. On the other hand, in the context of GFEM, it is presented a new error estimator entitled EPMEFG in order to expand the ideas of Modified SPR to that method. In EPMEFG, the local polynomial function that allows to recover the nodal values of the gradients of the solution has for support clouds (set of finite elements that share a common node) and results from the applying of a criterion of least squares approximation in relation to the superconvergent points. The number of these points is defined from an analysis of each cloud\'s element, considering the degree of local approximation of the displacement field enriched. Numerical examples elaborated with linear triangular and quadrilateral elements are solved with the Z-Estimator, the Modified SPR and the EPMEFG to evaluate the efficiency of each estimator. This evaluation is done calculating the effectivity indexes.
|
33 |
Différents procédés statistiques pour détecter la non-stationnarité dans les séries de précipitationCharette, Kevin 04 1900 (has links)
Ce mémoire a pour objectif de déterminer si les précipitations convectives estivales simulées par le modèle régional canadien du climat (MRCC) sont stationnaires ou non à travers le temps. Pour répondre à cette question, nous proposons une méthodologie statistique de type fréquentiste et une de type bayésien. Pour l'approche fréquentiste, nous avons utilisé le contrôle de qualité standard ainsi que le CUSUM afin de déterminer si la moyenne a augmenté à travers les années. Pour l'approche bayésienne, nous avons comparé la distribution a posteriori des précipitations dans le temps. Pour ce faire, nous avons modélisé la densité \emph{a posteriori} d'une période donnée et nous l'avons comparée à la densité a posteriori d'une autre période plus éloignée dans le temps. Pour faire la comparaison, nous avons utilisé une statistique basée sur la distance d'Hellinger, la J-divergence ainsi que la norme L2. Au cours de ce mémoire, nous avons utilisé l'ARL (longueur moyenne de la séquence) pour calibrer et pour comparer chacun de nos outils. Une grande partie de ce mémoire sera donc dédiée à l'étude de l'ARL. Une fois nos outils bien calibrés, nous avons utilisé les simulations pour les comparer. Finalement, nous avons analysé les données du MRCC pour déterminer si elles sont stationnaires ou non. / The main goal of this master's thesis is to find whether the summer convective precipitations simulated by the Canadian Regional Climate Model (CRCM) are stationary over time or not. In order to answer that question, we propose both a frequentist and Bayesian statistical methodology. For the frequentist approach, we used standard quality control and the CUSUM to determine if the mean has increased over the years. For the Bayesian approach, we compared the posterior distributions of the precipitations over time. In order to do the comparison, we used a statistic based on the Hellinger's distance, the J-divergence and the L2 norm. In this master's thesis, we used the ARL (average run length) to calibrate each of our methods. Therefore, a big part of this thesis is about studying the actual property of the ARL. Once our tools are well calibrated, we used the simulation to compare them together. Finally, we studied the data from the CRCM to decide, whether or not, the data are stationary.
|
34 |
Pratiques innovantes d'exploitation des réseaux routiers en lien avec une mobilité durable : une nouvelle approche de l'évaluation / Innovative strategies for road network management and sustainable mobility : a new evaluation approachPrinceton, Judith 09 November 2011 (has links)
La gestion du trafic sur les réseaux routiers se heurte aux nouveaux enjeux du développement durable. L'objectif n'est plus seulement de proposer aux usagers des temps de parcours raisonnables. Il faut aussi limiter la consommation énergétique et les émissions des gaz à effet de serre et des polluants qui y sont associées, afin de garantir une meilleure qualité de vie pour les générations actuelle et futures. Les exigences en matière de sécurité routière sont également renforcées et visent à éliminer le nombre de tués sur les routes. Les exploitants ont donc recours à diverses stratégies, souvent innovantes, pour au moins approcher la situation idéale. Néanmoins, si les décideurs disposent d'une plus grande capacité à mettre en œuvre leurs programmes dans le domaine, ils ont également l'obligation d'en évaluer les performances à divers stades. Cette thèse analyse les nouvelles stratégies de gestion des réseaux autoroutiers en identifiant leurs domaines d'application ainsi que leurs impacts potentiels et réels. Les limites des méthodes existantes d'évaluation a priori et/ou a posteriori sont mises en évidence et une nouvelle approche est proposée. Celle-ci associe les trois principaux critères d'une mobilité durable à un seul concept: le niveau de service, largement employé par les exploitants de réseaux. La méthodologie a fait l'objet d'une validation sur différentes opérations. Par ailleurs, se basant sur les résultats obtenus sur un ensemble d'opérations d'affectation variable des voies au niveau européen, la thèse propose un outil d'aide au choix d'une stratégie d'exploitation d'un réseau en fonction de la configuration de l'infrastructure et du niveau de congestion. Cet outil se présente sous la forme d'un catalogue de cas-types applicable au réseau d'Ile-de-France. La nouvelle approche d'évaluation proposée dans cette thèse présente l'intérêt de pouvoir facilement s'intégrer aux outils de simulation du trafic. Les impacts d'une opération d'exploitation routière sur la congestion, la sécurité et l'environnement peuvent ainsi être fournis par ces simulateurs dans le cadre de l'évaluation a priori. L'intégration est également possible au niveau des systèmes des centres de gestion du trafic, pour l'évaluation a posteriori. Par ailleurs, la thèse identifie des pistes potentielles pour des investigations futures. Tout d'abord, la gravité des accidents pourrait être prise en compte dans l'approche d'évaluation proposée, qui considère pour l'instant tous les accidents corporels confondus en raison du manque de données. De même, seules quatre stratégies d'affectation variable des voies sont proposées dans le catalogue de cas-types. Celui-ci pourrait donc être étendu à l'ensemble des opérations d'exploitation en suivant la même méthodologie décrite dans la thèse / Traffic management is facing the new issues of the sustainable development concept. The objective is not only to guarantee acceptable travels times over the networks anymore. Energy consumption as well as associated greenhouse gaz and pollutant emissions must be reduced for a better quality of life for current and future generations. Standards in road safety have also been reinforced and aim at cutting off the number of accident fatalities. Thus, traffic operators use the most innovating strategies. Nevertheless, if decision-makers have greater possibilities to implement their programmes, they also are committed to assess their performance at different stages. This doctoral thesis analyses the new strategies in motorway network management by identifying their respective domains of application as well as their potential and real impacts. Limitations of existing a priori and a posteriori evaluation methods are highlighted and a new approach is proposed. It associates the three main criteria of sustainable mobility to one concept: the level of service, which is widely used by network operators. The methodology is validated on several operations. Besides, based on results obtained from the various lane management operations implemented all accross Europe, the thesis proposes a tool to help in choosing the appropriate strategy according to the motorway layout and congestion level. The tool is presented in the form of a catalog of typical cases for the Ile-de-France motorway network. The new evaluation approach proposed in this thesis may be easily integrated in the available traffic simulation tools. Hence, the impacts of a traffic management operation on congestion, safety and the environment may be obtained as output from those simulators in the framewok of an a priori evaluation. This integration is also possible in the traffic management center systems, for a posteriori evaluations. Besides, the thesis identifies potential subjects for future research. Firstly, accident severity could be considered in the proposed evaluation approach, which takes into account all injury accidents at once by now, due to a lack of data. Likewise, only four manged lane strategies are included in the catalog, which could be extended to all the existing traffic management operations through the same methodology described in the thesis
|
35 |
Estimations a posteriori pour l'équation de convection-diffusion-réaction instationnaire et applications aux volumes finis / A posteriori error estimates for the time-dependent convection-diffusion-reaction equation and application to the finite volume methodsChalhoub, Nancy 17 December 2012 (has links)
On considère l'équation de convection--diffusion--réaction instationnaire. On s'intéresse à la dérivation d'estimations d'erreur a posteriori pour la discrétisation de cette équation par la méthode des volumes finis centrés par mailles en espace et un schéma d'Euler implicite en temps. Les estimations, qui sont établies dans la norme d'énergie, bornent l'erreur entre la solution exacte et une solution post-traitée à l'aide de reconstructions $Hdiv$-conformes du flux diffusif et du flux convectif, et d'une reconstruction $H^1_0(Omega)$-conforme du potentiel. On propose un algorithme adaptatif qui permet d'atteindre une précision relative fixée par l'utilisateur en raffinant les maillages adaptativement et en équilibrant les contributions en espace et en temps de l'erreur. On présente également des essais numériques. Enfin, on dérive une estimation d'erreur a posteriori dans la norme d'énergie augmentée d'une norme duale de la dérivée en temps et de la partie antisymétrique de l'opérateur différentiel. Cette nouvelle estimation est robuste dans des régimes dominés par la convection et des bornes inférieures locales en temps et globales en espace sont également obtenues / We consider the time-dependent convection--diffusion--reaction equation. We derive a posteriori error estimates for the discretization of this equation by the cell-centered finite volume scheme in space and a backward Euler scheme in time. The estimates are established in the energy norm and they bound the error between the exact solution and a locally post processed approximate solution, based on $Hdiv$-conforming diffusive and convective flux reconstructions, as well as an $H^1_0(Omega)$-conforming potential reconstruction. We propose an adaptive algorithm which ensures the control of the total error with respect to a user-defined relative precision by refining the meshes adaptively while equilibrating the time and space contributions to the error. We also present numerical experiments. Finally, we derive another a posteriori error estimate in the energy norm augmented by a dual norm of the time derivative and the skew symmetric part of the differential operator. The new estimate is robust in convective-dominated regimes and local-in-time and global-in-space lower bounds are also derived
|
36 |
Algorithmes de géolocalisation à l’intérieur d’un bâtiment en temps différé / Post-processing algorithms for indoor localizationZoubert-Ousseni, Kersane 10 April 2018 (has links)
La géolocalisation indoor en temps réel a largement été étudiée ces dernières années, et de nombreuses applications y sont associées. Une estimation en temps différé de la trajectoire présente également un certain intérêt. La géolocalisation indoor en temps différé permet par exemple de développer des approches de type crowdsourcing qui tirent profit d'un grand nombre d'utilisateurs afin de récolter un grand nombre de mesures : la connaissance du trajet d'un utilisateur muni d'un smartphone permet par exemple d'alimenter une carte de fréquentation du bâtiment. Estimer la trajectoire de cet utilisateur ne nécessite pas de traitement en temps réel et peut s'effectuer en temps différé ce qui offre deux avantages. D'abord, l'approche temps réel estime une position courante uniquement avec les mesures présentes et passées, alors que l'approche temps différé permet d'avoir accès à l'ensemble des mesures et permet d'obtenir une trajectoire estimée plus régulière et plus précise qu'en temps réel. Par ailleurs, cette estimation peut se faire sur un serveur et n'a pas besoin d'être portée par un smartphone comme c'est le cas en temps réel, ce qui permet d'utiliser une puissance de calcul et un volume mémoire plus importants. L'objet de ces travaux de thèse est de proposer une estimation de la trajectoire d'un individu se déplaçant avec un smartphone recevant des mesures de puissance wifi ou bluetooth (RSS) et enregistrant des mesures inertielles (IMU). En premier lieu, sans la connaissance de la position des murs de la carte, un modèle paramétrique est proposé, basé sur un modèle de propagation d'onde adaptatif pour les mesures RSS ainsi que sur une modélisation par morceaux de la trajectoire inertielle, issue des mesures IMU. Les résultats obtenus en temps différé ont une moyenne d'erreur de 6.2m contre 12.5men temps réel. En second lieu, l'information des contraintes de déplacement induites par la présence des murs du bâtiment est ajoutée et permet d'affiner l'estimation de la trajectoire avec une technique particulaire, comme il est couramment utilisé dans la littérature. Cette seconde approche a permis de développer un lisseur particulaire ainsi qu'un estimateur du maximum a posteriori par l'algorithme de Viterbi. D'autres heuristiques numériques ont été présentées. Une première heuristique ajuste le modèle d'état de l'utilisateur, qui est initialement uniquement basé sur les mesures IMU, à partir du modèle paramétrique développé sans les murs. Une seconde heuristique met en œuvre plusieurs réalisations d'un filtre particulaire et définit deux scores basés sur les mesures RSS et sur la continuité de la trajectoire. Les scores permettent de sélectionner la meilleure réalisation du filtre. Un algorithme global, regroupant l'ensemble de ces approche permet d'obtenir une erreur moyenne de 3.6m contre 5.8m en temps réel. Enfin, un modèle d'apprentissage statistique basé sur des forêts aléatoires a permis de distinguer les trajectoires qui ont été correctement estimées en fonction d'un faible nombre de variables, en prévision d'une application au crowdsourcing. / Real time indoor geolocalization has recently been widely studied, and has many applications. Off-line (post-processing) trajectory estimation also presents some interest. Off-line indoor geolocalization makes it possible for instance to develop crowdsourcing approaches that take advantage of a large number of users to collect a large number of measurements: knowing the trajectory of a smartphone user makes it possible for instance to feed an attendance map. Estimating this trajectory does not need to be performed in real-time and can be performed off-line, two main benefits. Firstly, the real-time approach estimates a current position using present and past measurements only, when the off-line approach has access to the whole measurements, and makes it possible to obtain an estimated trajectory that is smoother and more accurate than with a real-time approach. Secondly, this estimation can be done on a server and does not need to be implemented in the smartphone as it is the case in the real-time approach, with the consequence that more computing power and size memory are available. The objective of this PhD is to provide an off-line estimation of the trajectory of a smartphone user receiving signal strength (RSS) of wifi or bluetooth measurements and collecting inertial measurements (IMU). In the beginning, without the floorplan of the building, a parametric model is proposed, based on an adaptive pathloss model for RSS measurements and on a piecewise parametrization for the inertial trajectory, obtained with IMU measurements. Results are an average error of 6.2mfor the off-line estimation against 12.5m for the real-time estimation. Then, information on displacement constraints induced by the walls is considered, that makes it possible to adjust the estimated trajectory by using a particle technique as often done in the state-of-the-art. With this second approach we developped a particle smoother and a maximum a posteriori estimator using the Viterbi algorithm. Other numerical heuristics have been introduced. A first heuristic makes use of the parametric model developed without the floorplan to adjust the state model of the user which was originally based on IMUalone. A second heuristic proposes to performseveral realization of a particle filter and to define two score functions based on RSS and on the continuity of the estimated trajectory. The scores are then used to select the best realization of the particle filter as the estimated trajectory. A global algorithm, which uses all of the aforementioned approaches, leads to an error of 3.6m against 5.8m in real-time. Lastly, a statistical machine learning model produced with random forests makes it possible to distinguish the correct estimated trajectories by only using few variables to be used in a crowdsourcing framework.
|
37 |
Modèles variationnels et bayésiens pour le débruitage d'images : de la variation totale vers les moyennes non-localesLouchet, Cécile 10 December 2008 (has links) (PDF)
Le modèle ROF (Rudin, Osher, Fatemi), introduit en 1992 en utilisant la variation totale comme terme de régularisation pour la restauration d'images, a fait l'objet de nombreuses recherches théoriques et numériques depuis. Dans cette thèse, nous présentons de nouveaux modèles inspirés de la variation totale mais construits par analogie avec une méthode de débruitage beaucoup plus récente et radicalement différente : les moyennes non locales (NL-means). Dans une première partie, nous transposons le modèle ROF dans un cadre bayésien, et montrons que l'estimateur associé à un risque quadratique (moyenne a posteriori) peut être calculé numériquement à l'aide d'un algorithme de type MCMC (Monte Carlo Markov Chain), dont la convergence est soigneusement contrôlée compte tenu de la dimension élevée de l'espace des images. Nous montrons que le débruiteur associé permet notamment d'éviter le phénomène de "staircasing", défaut bien connu du modèle ROF. Dans la deuxième partie, nous proposons tout d'abord une version localisée du modèle ROF et en analysons certains aspects : compromis biais-variance, EDP limite, pondération du voisinage, etc. Enfin, nous discutons le choix de la variation totale en tant que modèle a priori, en confrontant le point de vue géométrique (modèle ROF) au cadre statistique (modélisation bayésienne).
|
38 |
Optimal synthesis of sensor networks/Synthèse optimale de réseaux de capteursGerkens, Carine 02 October 2009 (has links)
To allow monitoring and control of chemical processes, a sensor network has to be installed. It must allow the estimation of all important variables of the process. However, all measurements are erroneous, it is not possible to measure every variable and some types of sensors are expensive.
Data reconciliation allows to correct the measurements, to estimate the values of unmeasured variables and to compute a posteriori uncertainties of all variables. However, a posteriori standard deviations are function of the number, the location and the precision of the measurement tools that are installed.
A general method to design the cheapest sensor network able to estimate all process key variables within a prescribed accuracy in the case of steady-state processes has been developed. That method uses a posteriori variances estimation method based on the analysis of the sensitivity matrix.
The goal function of the optimization problem depends on the annualized cost of the sensor network and on the accuracies that can be reached for the key variables. The problem is solved by means of a genetic algorithm.
To reduce the computing time, two parallelization techniques using the message passing interface have been examined: the global parallelization and the distributed genetic algorithms. Both methods have been tested on several examples.
To extend the method to dynamic processes, a dynamic data reconciliation method allowing to estimate a posteriori variances was necessary. Kalman filtering approach and orthogonal collocation-based moving horizon method have been compared. A posteriori variances computing has been developed using a similar method than the one used for the steady-state case. The method has been reconciled on several small examples.
On the basis of the variances estimation an observability criterion has been defined for dynamic systems so that the sensor network design algorithm could be modified for the dynamic case.
Another problem that sensor networks have to allow to solve is process faults detection and localisation. The method has been adapted to generate sensor networks that allow to detect and locate process faults among a list of faults in the case of steady-state processes./
Afin de permettre le suivi et le contrôle des procédés chimiques, un réseau de capteurs doit être installé. Il doit permettre l'estimation de toutes les variables importantes du procédé. Cependant, toutes les mesures sont entachées d'erreurs, toutes les variables ne peuvent pas être mesurées et certains types de capteurs sont onéreux.
La réconciliation de données permet de corriger les mesures, d'estimer les valeurs des variables non mesurées et de calculer les incertitudes a posteriori de toutes les variables. Cependant, les écarts-types a posteriori sont fonction du nombre, de la position et de la précision des instruments de mesure qui sont installés.
Une méthode générale pour réaliser le design du réseau de capteur le moins onéreux capable d'estimer toutes les variables clés avec une précision déterminée dans le cas des procédés stationnaires a été développée. Cette méthode utilise une technique d'estimation des variances a posteriori basée sur l'analyse de la matrice de sensibilité. La fonction objectif du problème d'optimisation dépend du coût annualisé du réseau de capteurs et des précisions qui peuvent être obtenues pour les variables clés. Le problème est résolu au moyen d'un algorithme génétique.
Afin de réduire le temps de calcul, deux techniques de parallélisation utilisant une interface de passage de messages (MPI) ont été examinées: la parallélisation globale et les algorithmes génétiques distribués. Les deux méthodes ont été testées sur plusieurs exemples.
Afin d'étendre la méthode aux procédés fonctionnant de manière dynamique, une méthode de réconciliation dynamique des données permettant le calcul des variances a posteriori est nécessaire. La méthode des filtres de Kalman et une technique de fenêtre mobile basée sur les collocations orthogonales ont été comparées. Le calcul des variances a posteriori a été développé grâce à une méthode similaire à celle utilisée dans le cas stationnaire. La méthode a été validée sur plusieurs petits exemples.
Grâce à la méthode d'estimation des variances a posteriori, un critère d'observabilité a été défini pour les systèmes dynamiques de sorte que l'algorithme de design de réseaux de capteurs a pu être adapté aux systèmes dynamiques.
Un autre problème que les réseaux de capteurs doivent permettre de résoudre est la détection et la localisation des erreurs de procédé. La méthode a été adaptée afin de générer des réseaux de capteurs permettant de détecter et de localiser les erreurs de procédé parmi une liste d'erreurs dans le cas des procédés fonctionnant de manière stationnaire.
|
39 |
Différents procédés statistiques pour détecter la non-stationnarité dans les séries de précipitationCharette, Kevin 04 1900 (has links)
Ce mémoire a pour objectif de déterminer si les précipitations convectives estivales simulées par le modèle régional canadien du climat (MRCC) sont stationnaires ou non à travers le temps. Pour répondre à cette question, nous proposons une méthodologie statistique de type fréquentiste et une de type bayésien. Pour l'approche fréquentiste, nous avons utilisé le contrôle de qualité standard ainsi que le CUSUM afin de déterminer si la moyenne a augmenté à travers les années. Pour l'approche bayésienne, nous avons comparé la distribution a posteriori des précipitations dans le temps. Pour ce faire, nous avons modélisé la densité \emph{a posteriori} d'une période donnée et nous l'avons comparée à la densité a posteriori d'une autre période plus éloignée dans le temps. Pour faire la comparaison, nous avons utilisé une statistique basée sur la distance d'Hellinger, la J-divergence ainsi que la norme L2. Au cours de ce mémoire, nous avons utilisé l'ARL (longueur moyenne de la séquence) pour calibrer et pour comparer chacun de nos outils. Une grande partie de ce mémoire sera donc dédiée à l'étude de l'ARL. Une fois nos outils bien calibrés, nous avons utilisé les simulations pour les comparer. Finalement, nous avons analysé les données du MRCC pour déterminer si elles sont stationnaires ou non. / The main goal of this master's thesis is to find whether the summer convective precipitations simulated by the Canadian Regional Climate Model (CRCM) are stationary over time or not. In order to answer that question, we propose both a frequentist and Bayesian statistical methodology. For the frequentist approach, we used standard quality control and the CUSUM to determine if the mean has increased over the years. For the Bayesian approach, we compared the posterior distributions of the precipitations over time. In order to do the comparison, we used a statistic based on the Hellinger's distance, the J-divergence and the L2 norm. In this master's thesis, we used the ARL (average run length) to calibrate each of our methods. Therefore, a big part of this thesis is about studying the actual property of the ARL. Once our tools are well calibrated, we used the simulation to compare them together. Finally, we studied the data from the CRCM to decide, whether or not, the data are stationary.
|
40 |
Une nouvelle formulation Galerkin discontinue pour équations de Maxwell en temps, a priori et a posteriori erreur estimation. / A new Galerkin Discontinuous Formulation for time dependent Maxwell's Equations, a priori and a posteriori Error estimate.Riaz, Azba 04 April 2016 (has links)
Dans la première partie de cette thèse, nous avons considéré les équations de Maxwell en temps et construit une formulation discontinue de Galerkin (DG). On a montré que cette formulation est bien posée et ensuite on a établi des estimateurs a priori pour cette formulation. On a obtenu des résultats numériques pour valider les estimateurs a priori obtenus théoriquement. Dans la deuxième partie de cette thèse, des estimateurs d'erreur a posteriori de cette formulation sont établis, pour le cas semi-discret et pour le système complètement discrétisé. Dans la troisième partie de cette thèse, on considére les équations de Maxwell en régime harmonique. On a développé une formulation discontinue de Galerkin mixte. On a établi des estimations d'erreur a posteriori pour cette formulation. / In the first part of this thesis, we have considered the time-dependent Maxwell's equations in second-order form and constructed discontinuous Galerkin (DG) formulation. We have established a priori error estimates for this formulation and carried out the numerical analysis to confirm our theoretical results. In the second part of this thesis, we have established a posteriori error estimates of this formulation for both semi discrete and fully discrete case. In the third part of the thesis we have considered the time-harmonic Maxwell's equations and we have developed mixed discontinuous Galerkin formulation. We showed the well posedness of this formulation and have established a posteriori error estimates.
|
Page generated in 0.1016 seconds