• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 103
  • 57
  • 5
  • Tagged with
  • 162
  • 96
  • 56
  • 38
  • 34
  • 28
  • 24
  • 24
  • 22
  • 20
  • 18
  • 15
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Trees on Geometrical Deformations to Model the Statistical Variability of Organs in Medical Images

Seiler, Christof 27 September 2012 (has links) (PDF)
Dans l'analyse d'images médicales, les déformations géométriques sont utilisées pour modéliser la variabilité entre les patients. Dans les applications orthopédiques, la variabilité géométrique est habituellement observable à différentes échelles. Dans le cas des os mandibulaires, par exemple, on observe des différences anatomiques entre le côté gauche et droit sur une échelle grossière, ou entre les dents sur une échelle plus fine. Chaque niveau de granularité contient des régions d'intérêt pour les applications cliniques. La difficulté est de relier les déformations géométriques avec les régions d'intérêt pour chaque type d'échelles. Dans cette thèse, nous présentons cette liaison par l'introduction du recalage difféomorphe et structuré. Le coeur de notre méthode est le paramétrage des déformations géométriques avec des arbres de transformations localement affines qui décrivent la variabilité entre les patients. En second lieu, nous modélisons statistiquement les paramètres de déformations dans une population par la formulation d'un modèle statistique génératif. Cette méthode nous permet d'intégrer des statistiques de déformations comme une probabilité a priori dans un cadre Bayésien et elle nous permet d'étendre le recalage classique d'un schéma grossier à un schéma fin avec une optimisation simultanée pour toutes les échelles. Nous validons notre approche sur plusieurs applications orthopédiques: la conception des implants pour une population, des simulations biomécaniques et la sélection d'allogreffes. L'amélioration de l'intelligibilité pour les cliniciens et de la précision obtenue fait de notre méthode un candidat prometteur pour des usages cliniques.
82

Validation des modèles statistiques tenant compte des variables dépendantes du temps en prévention primaire des maladies cérébrovasculaires

Kis, Loredana 07 1900 (has links)
L’intérêt principal de cette recherche porte sur la validation d’une méthode statistique en pharmaco-épidémiologie. Plus précisément, nous allons comparer les résultats d’une étude précédente réalisée avec un devis cas-témoins niché dans la cohorte utilisé pour tenir compte de l’exposition moyenne au traitement : – aux résultats obtenus dans un devis cohorte, en utilisant la variable exposition variant dans le temps, sans faire d’ajustement pour le temps passé depuis l’exposition ; – aux résultats obtenus en utilisant l’exposition cumulative pondérée par le passé récent ; – aux résultats obtenus selon la méthode bayésienne. Les covariables seront estimées par l’approche classique ainsi qu’en utilisant l’approche non paramétrique bayésienne. Pour la deuxième le moyennage bayésien des modèles sera utilisé pour modéliser l’incertitude face au choix des modèles. La technique utilisée dans l’approche bayésienne a été proposée en 1997 mais selon notre connaissance elle n’a pas été utilisée avec une variable dépendante du temps. Afin de modéliser l’effet cumulatif de l’exposition variant dans le temps, dans l’approche classique la fonction assignant les poids selon le passé récent sera estimée en utilisant des splines de régression. Afin de pouvoir comparer les résultats avec une étude précédemment réalisée, une cohorte de personnes ayant un diagnostique d’hypertension sera construite en utilisant les bases des données de la RAMQ et de Med-Echo. Le modèle de Cox incluant deux variables qui varient dans le temps sera utilisé. Les variables qui varient dans le temps considérées dans ce mémoire sont iv la variable dépendante (premier évènement cérébrovasculaire) et une des variables indépendantes, notamment l’exposition / The main interest of this research is the validation of a statistical method in pharmacoepidemiology. Specifically, we will compare the results of a previous study performed with a nested case-control which took into account the average exposure to treatment to : – results obtained in a cohort study, using the time-dependent exposure, with no adjustment for time since exposure ; – results obtained using the cumulative exposure weighted by the recent past ; – results obtained using the Bayesian model averaging. Covariates are estimated by the classical approach and by using a nonparametric Bayesian approach. In the later, the Bayesian model averaging will be used to model the uncertainty in the choice of models. To model the cumulative effect of exposure which varies over time, in the classical approach the function assigning weights according to recency will be estimated using regression splines. In order to compare the results with previous studies, a cohort of people diagnosed with hypertension will be constructed using the databases of the RAMQ and Med-Echo. The Cox model including two variables which vary in time will be used. The time-dependent variables considered in this paper are the dependent variable (first stroke event) and one of the independent variables, namely the exposure.
83

Analyse bayésienne et élicitation d’opinions d’experts en analyse de risques et particulièrement dans le cas de l’amiante chrysotile

Pietrocatelli, Simon 12 1900 (has links)
L’appréciation de la puissance cancérogène des fibres d’amiante chrysotile repose en grande partie sur des jugements subjectifs et incertains des experts et des analystes en raison des résultats hétérogènes et équivoques d’études épidémiologiques et toxicologiques sérieuses. L’approche probabiliste bayésienne en évaluation de risques peut formaliser l’impact des jugements subjectifs et de leurs incertitudes sur les estimations de risques, mais elle est encore peu utilisée en santé publique. Le présent travail examine la possibilité d’appliquer l’approche bayésienne dans une récente élicitation d’opinions d’experts pour estimer la toxicité du chrysotile, le degré de consensus et de divergence, ainsi que les niveaux d’incertitude des experts. Les estimations des experts concordaient assez bien sur la différence de toxicité entre chrysotile et amphiboles pour les mésothéliomes. Pour le cancer du poumon, les évaluations probabilistes étaient bien plus disparates. Dans ce cas, les jugements des experts semblaient influencés à différents degrés par des biais heuristiques, surtout les heuristiques d’affect et d’ancrage liés à la controverse du sujet et à l’hétérogénéité des données. Une méthodologie rigoureuse de préparation des experts à l’exercice d’élicitation aurait pu réduire l’impact des biais et des heuristiques sur le panel. / Characterizing the carcinogenic potency of chrysotile asbestos fibres relies a great deal on subjective and uncertain judgements by experts and analysts, given heterogeneous and equivocal results of important epidemiological and toxicological studies. The probabilistic Bayesian approach in risk assessments quantifies these subjective judgements and their uncertainties, along with their impact on risk estimations, but it is rarely used in the public health context. This report examines how the Bayesian approach could have been applied to a recent elicitation of experts’ opinions to estimate the toxicity of chrysotile asbestos, the degree of convergence and divergence, as well as the uncertainty levels of these experts. The experts’ estimations on the relative toxicity of chrysotile and amphibole asbestos were similar in the case of mesothelioma. However, in the case of lung cancer, the heterogeneity of the studies resulted in diverging and incompatible probabilistic evaluations. The experts’ judgements seemed influenced by heuristic biases, particularly the affect and anchor heuristics associated with a controversial topic and to heterogeneous data. If the elicitation process had been prepared following a rigorous methodology, these heuristics and biases could have been mitigated.
84

Nouvelles paramétrisations de réseaux Bayésiens et leur estimation implicite - Famille exponentielle naturelle et mélange infini de Gaussiennes

Jarraya Siala, Aida 26 October 2013 (has links) (PDF)
L'apprentissage d'un réseau Bayésien consiste à estimer le graphe (la structure) et les paramètres des distributions de probabilités conditionnelles associées à ce graphe. Les algorithmes d'apprentissage de réseaux Bayésiens utilisent en pratique une approche Bayésienne classique d'estimation a posteriori dont les paramètres sont souvent déterminés par un expert ou définis de manière uniforme Le coeur de cette thèse concerne l'application aux réseaux Bayésiens de plusieurs avancées dans le domaine des Statistiques comme l'estimation implicite, les familles exponentielles naturelles ou les mélanges infinis de lois Gaussiennes dans le but de (1) proposer de nouvelles formes paramétriques, (2) estimer des paramètres de tels modèles et (3) apprendre leur structure.
85

Influence des facteurs émotionnels sur la résistance au changement dans les organisations

Menezes, Ilusca Lima Lopes de January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
86

Capture de mouvement par mesure de distances dans un réseau corporel hétérogène

Aloui, Saifeddine 05 February 2013 (has links) (PDF)
La capture de mouvement ambulatoire est un sujet en plein essor pour des applications aussi diverses que le suivi des personnes âgées, l'assistance des sportifs de haut niveau, la réhabilitation fonctionnelle, etc. Ces applications exigent que le mouvement ne soit pas contraint par un système externe, qu'il puisse être réalisé dans différentes situations, y compris en extérieur, que l'équipement soit léger et à un faible coût, qu'il soit réellement ambulatoire et sans procédure complexe de calibration.Actuellement, seuls les systèmes utilisant un exosquelette ou bien des modules inertiels (souvent combinés avec des modules magnétiques) permettent d'effectuer de la capture de mouvement de façon ambulatoire. Le poids de l'exosquelette est très important et il impose des contraintes sur les mouvements de la personne, ce qui le rend inutilisable pour certaines applications telles que le suivi de personnes âgées. La technologie inertielle est plus légère. Elle permet d'effectuer la capture du mouvement sans contrainte sur l'espace de mesure ou sur les mouvements réalisés. Par contre, elle souffre de dérives des gyromètres, et le système doit être recalibré.L'objectif de cette thèse est de développer un système de capture de mouvement de chaînes articulées, bas-coût et temps réel, réellement ambulatoire, ne nécessitant pas d'infrastructure de capture spécifique, permettant une utilisation dans de nombreux domaines applicatifs (rééducation, sport, loisirs, etc.).On s'intéresse plus particulièrement à des mesures intra-corporelles. Ainsi, tous les capteurs sont placés sur le corps et aucun dispositif externe n'est utilisé. Outre un démonstrateur final permettant de valider l'approche proposée, on s'astreint à développer également des outils qui permettent de dimensionner le système en termes de technologie, nombre et position des capteurs, mais également à évaluer différents algorithmes de fusion des données. Pour ce faire, on utilise la borne de Cramer-Rao.Le sujet est donc pluridisciplinaire. Il traite des aspects de modélisation et de dimensionnement de systèmes hybrides entièrement ambulatoires. Il étudie des algorithmes d'estimation adaptés au domaine de la capture de mouvement corps entier en traitant les problématiques d'observabilité de l'état et en tenant compte des contraintes biomécaniques pouvant être appliquées. Ainsi, un traitement adapté permet de reconstruire en temps réel la posture du sujet à partir de mesures intra-corporelles, la source étant également placée sur le corps.
87

Analyse de changements multiples : une approche probabiliste utilisant les réseaux bayésiens

Bali, Khaled 12 1900 (has links)
La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée. / Software maintenance is one of the most important phases in the software life cycle. After the development and deployment phases, maintenance is a continuous phase that lasts until removing the software from operation. It is then the most costly phase. Indeed, those costs are due to the difficulty of implementing different changes in the system and to manage their impacts. In this context, much research work has targeted the problem of change impact analysis/prediction. The existent approaches require many inputs that are difficult to extract. In this Master thesis, we propose a probabilistic approach that uses Bayesian classifiers to predict the change impact. These classifiers are trained with historical data about changes. The consider the relations between the elements of a system (input), and the dependencies between the occurred changes (output). More precisely, a complex change in a system is divided into a set of elementary changes. For each type of elementary change, we create a classifier. To predict the impact of complex change, the individual decisions of each classifier are combined using different strategies. We evaluate our approach in two scenarios. In the first, we extract the learning data from the oldest versions of the same system. In the second scenario, the learn data comes from other systems to create the classifiers. This second scenario is interesting because it allows us to use our approach on systems without change histories. Our approach showed that it can predict the impact of elementary changes. The best results are obtained using the classifiers based on conceptual relations. For the prediction of complex changes by the combination of elementary decisions, the results are encouraging considering the few used inputs. More specifically, the voting method and the OR method predict better complex changes when the number of case to analyze is large. Otherwise, using the method Noisy-Or or its modified version is recommended when the number of cases is small.
88

Différents procédés statistiques pour détecter la non-stationnarité dans les séries de précipitation

Charette, Kevin 04 1900 (has links)
Ce mémoire a pour objectif de déterminer si les précipitations convectives estivales simulées par le modèle régional canadien du climat (MRCC) sont stationnaires ou non à travers le temps. Pour répondre à cette question, nous proposons une méthodologie statistique de type fréquentiste et une de type bayésien. Pour l'approche fréquentiste, nous avons utilisé le contrôle de qualité standard ainsi que le CUSUM afin de déterminer si la moyenne a augmenté à travers les années. Pour l'approche bayésienne, nous avons comparé la distribution a posteriori des précipitations dans le temps. Pour ce faire, nous avons modélisé la densité \emph{a posteriori} d'une période donnée et nous l'avons comparée à la densité a posteriori d'une autre période plus éloignée dans le temps. Pour faire la comparaison, nous avons utilisé une statistique basée sur la distance d'Hellinger, la J-divergence ainsi que la norme L2. Au cours de ce mémoire, nous avons utilisé l'ARL (longueur moyenne de la séquence) pour calibrer et pour comparer chacun de nos outils. Une grande partie de ce mémoire sera donc dédiée à l'étude de l'ARL. Une fois nos outils bien calibrés, nous avons utilisé les simulations pour les comparer. Finalement, nous avons analysé les données du MRCC pour déterminer si elles sont stationnaires ou non. / The main goal of this master's thesis is to find whether the summer convective precipitations simulated by the Canadian Regional Climate Model (CRCM) are stationary over time or not. In order to answer that question, we propose both a frequentist and Bayesian statistical methodology. For the frequentist approach, we used standard quality control and the CUSUM to determine if the mean has increased over the years. For the Bayesian approach, we compared the posterior distributions of the precipitations over time. In order to do the comparison, we used a statistic based on the Hellinger's distance, the J-divergence and the L2 norm. In this master's thesis, we used the ARL (average run length) to calibrate each of our methods. Therefore, a big part of this thesis is about studying the actual property of the ARL. Once our tools are well calibrated, we used the simulation to compare them together. Finally, we studied the data from the CRCM to decide, whether or not, the data are stationary.
89

Capturer les interactions écologiques en microcosme sous pression chimique à travers le prisme de la modélisation / Capturing ecological interactions within a microcosm under chemical pressure through the prism of modelling

Lamonica, Dominique 08 April 2016 (has links)
L'évaluation du risque lié aux contaminants est généralement basée sur des données collectées au cours d'essais monospécifiques (à une seule espèce). Par conséquent, les interactions entre espèces, bien qu'elles structurent les écosystèmes, ne sont pas prises en compte. Pour explorer les effets des contaminants sur la dynamique des espèces en interaction, cette thèse vise à modéliser le fonctionnement d'un microcosme de laboratoire de deux litres incluant trois espèces, la daphnie Daphnia magna, la lentille d'eau Lemna minor et la microalgue Pseudokirchneriella subcapitata, exposées à une contamination par le cadmium. La dynamique des trois espèces ainsi que leurs interactions et les effets du cadmium ont été décrits par un modèle mécaniste basé sur des équations différentielles ordinaires couplées. Les principaux processus intervenant dans ce microcosme de trois espèces ont donc été formalisés, notamment la croissance et la survie des daphnies, la croissance et la sédimentation des algues, la croissance des lentilles, le broutage des algues par les daphnies, la compétition interspécifique entre algues et lentilles et les effets du cadmium sur ces différents processus. Les paramètres du modèle ont été estimés par inférence bayésienne, en utilisant simultanément toutes les données issues de différentes expérimentations en laboratoire, réalisées au cours de la thèse spécialement pour cette étude / Contaminant risk assessment is generally based on data collected during single species bioassays (including only one species). As a consequence, interactions between species that occur in ecosystems are not taken into account. To investigate the effects of contaminants on interacting species dynamics, this thesis aims at modelling the functioning of a 2-L laboratory microcosm with three species, the daphnid Daphnia magna, the duckweed Lemna minor and the microalgae Pseudokirchneriella subcapitata, exposed to cadmium contamination. We modelled the dynamics of the three species, their interactions and the effects of cadmium using a mechanistic model based on coupled ordinary differential equations. The main processes occurring in this three-species microcosm were thus formalized, including growth and survival of daphnids, growth and settling of algae, growth of duckweeds, grazing of algae by daphnids, interspecific competition between the algae and duckweeds, and the effects of cadmium on these processes. We estimated model parameters by Bayesian inference, using simultaneously all the data issued from multiple laboratory experiments specifically conducted for this study during the thesis
90

Méthode et outils pour l'identification de défauts des bâtiments connectés performants / Method and tools for fault detection in smart high-performance buildings

Josse, Rozenn 13 November 2017 (has links)
Ces travaux de thèse portent sur le développement d’une nouvelle méthodologie pour l’identification de défauts de bâtiments performants et connectés afin d'aider à la garantie de performances. Nous avons dans un premier temps resitué nos travaux dans le contexte énergétique actuel en montrant le rôle majeur des bâtiments dans la réduction des consommations énergétiques. Nous avons ensuite présenté notre méthodologie en argumentant sur les techniques à utiliser avant d’effectuer un choix final. Cette méthodologie se compose de deux blocs principaux : le premier vise à réduire les incertitudes liées à l'occupant et à l'environnement et le second étudie l'écart entre la simulation et la mesure par une analyse de sensibilité couplée à un algorithme bayésien. Nous l'avons ensuite implémentée dans un outil que nous avons nommé REFATEC. Nous avons alors soumis notre méthodologie à différents tests dans des conditions idéales afin d’éprouver sa précision et son temps d’exécution. Cette étape a montré que la méthodologie est efficace mais montre quelques faiblesses dans le cas d’une saison estivale ou d’un défaut très localisé. Enfin, nous l’avons mise en situation face à un cas réel afin de traiter les nombreuses questions que soulèvent l’utilisation de mesures in-situ dans la perspective de la garantie de performances et de la détection de défauts, avec notamment la fiabilité des mesures et les incertitudes encore nombreuses qui doivent être traitées. / This thesis deals with the development of a new methodology for fault detection within smart high-performance buildings helping the performance guarantee. We first have placed our work in the current energy context by focusing on the major role of buildings in the decrease of energy consumption. Then we introduced our methodology and we argued about various techniques that could be used before making a choice. This methodology is made up of two main parts : the former reduces the uncertainties due to the occupant and the environment and the latter studies the gap between simulation and measurements thanks to a sensitivity analysis coupled with a bayesian algorithm. Then we implemented it within a tool that we named REFATEC. We carried out various tests in controlled conditions in order to evaluate its precision and its calculation time. This step showed that our methodology is effective but it has some difficulties when the studied period is during summer or when the faults are very located. is a very located fault. Eventually we confronted our methodology to a real case where we faced numerous questions that appear when dealing with measurements, especially their reliability and the uncertainties that still need to be taken care of, in the perspective of performance guarantee and fault detection.

Page generated in 0.0449 seconds