Spelling suggestions: "subject:"deméthodes"" "subject:"etméthodes""
151 |
Développement d'une méthodologie d'analyse du traitement orthopédique de la dysplasie de la hancheGrenier, Victor 27 January 2024 (has links)
La dysplasie acétabulaire est une pathologie causant de l'instabilité articulaire et une réduction de la superficie de chargement au niveau de la hanche. Celle-ci augmente le risque de développement précoce d'ostéoarthrose, causant de la douleur et menant à la perte de la fonction articulaire. La dysplasie est conventionnellement traitée par ostéotomie péri-acétabulaire, mais les effets précis de cette correction sur la biomécanique intra-articulaire restent à être élucidées. À l'aide de la méthode de simulation par éléments discrets, la distribution de pression articulaire a été évaluée de manière pré et post opératoire chez 9 patients dysplasiques. Différentes mesures orthopédiques évaluant le degré de correction acétabulaire ont été acquises et plusieurs scores numériques évaluant la surcharge articulaire ont été calculés. Des corrélations entre ces mesures et ces scores ont ensuite été effectués. Il a été noté que les mesures d'angle centre-externe latéral, d'index acétabulaire et d'index d'extrusion de la tête fémorale sont corrélés avec l'augmentation de l'aire de contact moyen durant la marche (p < 0.05, R² de 0.22 à 0.50). L'influence significative de la méthode de reconstruction cartilagineuse (distributions d'épaisseurs moyennes saine vs. dysplasique) et du profil de marche utilisé (phase d'appui moyen sain vs. dysplasique) a été remarqué auprès de la majorité des métriques évaluées. Ces résultats, ainsi que les facteurs qui les influencent, peuvent servir à assister la planification chirurgicale, effectuer des validations in-vitro d'optimisation d'ostéotomie péri-acétabulaire et, par la suite, guider la conception de nouveaux traitements. / Acetabular dysplasia causes articular instability and the reduction of the loading area in the hip. This causes the early onset of osteoarthritis which leads to pain and the eventual loss of articular function. Acetabular dysplasia is commonly treated by periacetabular osteotomy, but the precise effects of this correction on intra-articular biomechanics is not yet well known. Using discrete element analysis, pressure distribution has been calculated in the dysplastic hips of 9 patients before and after periacetabular osteotomy. A variety of radiographic measurements and numerical metrics have been evaluated in order to quantify the degree of acetabular correction and excessive loading. Correlations between these measures and metrics have been established in order to reveal any causal effects. In particular, the corrections of the lateral center-edge angle, acetabular index and femoral head extrusion index are correlated to the rise of average contact area during gait (p-value < 0.05, R² = 0.22 to 0.50). Additionally, the influence of cartilage layer reconstruction method (population-based healthy vs. dysplastic thicknesses) and loading parameters (healthy vs. dysplastic gait profiles) was significant for a majority of evaluated metrics. These results and influencing factors can help to assist with surgical planning, provide a basis for in-vitro validation of surgical optimization and act as a standard for designing new orthopedic treatments for acetabular dysplasia.
|
152 |
Vers des cubes matriciels supportant l’analyse spatiale à la volée dans un contexte décisionnelPlante, Mathieu 20 April 2018 (has links)
Depuis l’avènement du SOLAP, la problématique consistant à produire des analyses spatiales à la volée demeure entière. Les travaux précédents se sont tournés vers l’analyse visuelle et le calcul préalable afin d’obtenir des résultats en moins de 10 secondes. L’intégration des données matricielles dans les cubes SOLAP possède un potentiel inexploré pour le traitement à la volée des analyses spatiales. Cette recherche vise à explorer les avantages et les considérations à exploiter les cubes matriciels afin de produire des analyses spatiales à la volée dans un contexte décisionnel. Elle contribue à l’évolution du cadre théorique de l’intégration des données matricielles dans les cubes en ajoutant notamment la notion de couverture matricielle au cube afin de mieux supporter les analyses spatiales matricielles. Elle identifie des causes de la consommation excessive de ressources pour le traitement de ces analyses et propose des pistes d’optimisation basées sur l’exploitation des dimensions matricielles géométriques.
|
153 |
Inférence spatio-temporelle en présence de valeurs extrêmesCompaore, Kiswendsida Julien 26 March 2024 (has links)
Titre de l'écran-titre (visionné le 10 octobre 2023) / Ce mémoire étudie les impacts qu'a une mauvaise spécification de la loi du champ aléatoire latent dans un modèle spatio-temporel. Précisement les impacts sur les estimations et l'inférence d'une mauvaise spécification dans un modèle Poisson log-normal spatio-temporel ont été investigués. La mauvaise spécification correspond à la présence de valeurs très extrêmes pour une distribution Poisson log-normale. Un modèle pour tenir compte de ces valeurs extrêmes a été proposé. L'amélioration des estimations avec ce modèle alternatif est mise en évidence par une étude de simulation Monte Carlo. L'ajustement des modèles impliqués dans cette étude fait intervenir des intégrations en grandes dimensions pour évaluer la vraisemblance. Le package R TMB met en oeuvre une solution, en l'occurence l'approximation de Laplace, à ce problème. / This thesis studies the impact of a misspecification of the latent random field distribution in a spatio-temporal model. Specifically, the impact on estimates and inference of misspecification in a space-time log-normal Poisson model has been investigated. The misspecification corresponds to the presence of very extreme values for a log-normal Poisson distribution. A model to account for these extreme values was proposed. The improvement in estimates with this alternative model is demonstrated by a Monte Carlo simulation study. The fitting of the models involved in this study involves high-dimensional integrations to evaluate the likelihood. The R package TMB implements a solution to this problem: the Laplace approximation.
|
154 |
Caractérisation statistique des propriétés du roc intact obtenues à partir d'essais de laboratoire pour deux projets miniers canadiensBoudreau, Catherine 21 June 2024 (has links)
La conception des ouvrages miniers souterrains repose sur une caractérisation géotechnique du massif rocheux. Lors des essais en laboratoire sur le roc intact, les données géotechniques sont amassées suivant les recommandations prescrites par la Société internationale de mécanique des roches (SIMR) (Brown, 1981). Bien que les essais en laboratoire sur le roc intact soient effectués selon les recommandations de la SIMR, ils ne sont pas réalisés d’une manière optimale quant au nombre de spécimens testés, à la localisation des essais, à la temporalité des essais, aux critères de rejet de certains spécimens testés et à l’utilisation des résultats dans la définition du critère de Hoek-Brown. Avec le coût élevé des essais en laboratoire, il est primordial d’optimiser les campagnes d’essais en laboratoire et de s’assurer d’utiliser et de maximiser l’information provenant des résultats tout en s’assurant de leur représentativité. À l’aide de deux études de cas réalisées sur des sites miniers québécois, ce mémoire a pour objectif global d’effectuer la caractérisation statistique de paramètres géomécaniques dans le but d’optimiser les campagnes d’essais et de de maximiser l’information obtenue par l’entremise d’essais en laboratoire sur le roc intact. Les analyses statistiques permettront de mieux quantifier la connaissance des propriétés du roc intact dans le cadre d’un projet minier. Elles permettront également d’optimiser le nombre d’essais à réaliser tout en s’assurant de la représentativité des résultats. Finalement, elles permettront d’identifier plus efficacement de nouvelles cibles de caractérisation.
|
155 |
Implantation d'une méthode agile de développement logiciel en entreprise : une culture accueillant le changementTremblay, Richard 13 April 2018 (has links)
Depuis quelques années, les méthodes agiles ont émergées et semblent prometteuses. Ce mémoire relate les travaux réalisés dans le but de procéder à l’implantation d’une méthode agile de développement en entreprise. Afin de distinguer les approches agiles, nous débutons par un rappel des approches traditionnelles. Nous établissons quelles sont les caractéristiques de ces approches, les différents modèles et leurs limitations. Nous analysons ensuite l’offre des approches agiles. Nous définissons en quoi consiste l’agilité et quelles sont les caractéristiques communes de ces approches. Nous présentons quelques méthodes, plus particulièrement : Extreme Programming, Scrum et Crystal Clear. Finalement, nous relatons l’expérience d’une implantation en entreprise afin de vérifier sa facilité d’application. Nous concluons que ces approches adaptatives sont plus efficaces que les approches prédictives lorsqu’elles sont utilisées dans un contexte propice. / In recent years, agile methods have emerged and appear promising. This memoirs describes the work carried out in order to proceed with the implementation of an agile method development in business. To distinguish the agile approaches, we begin with a recap of traditional approaches. We establish what are the characteristics of these approaches, the various models and their limitations. We then analyze the proposal of agile approaches. We define what constitutes agility and what are the common characteristics of these approaches. We present some methods, in particular: Extreme Programming, Scrum and Crystal Clear. Finally, we talk about the experience of an establishment of the agile method into a business in order to verify its ease of implementation. We conclude that these adaptive approaches are more effective then predictive approaches when used in the right context.
|
156 |
Méthode d'analyse de l'association de sites de variants rares avec plusieurs traitsRochette, Mélissa 26 March 2024 (has links)
Titre de l'écran-titre (visionné le 23 octobre 2023) / Les études d'association pangénomique (genome-wide association studies (GWAS)) ont permis de trouver des associations entre des variants et des maladies. Certains sites de variants ont été observés comme associés avec plusieurs maladies simultanément. Ce phénomène se nomme la pléiotropie. Ce phénomène est d'importance pour les problèmes psychiatriques (P. H. Lee et al., 2020). Également, les associations spécifiques à un sexe entre une maladie et un variant sont un sujet d'importance dans les études récentes. Plusieurs méthodes ont été proposées pour identifier les effets pléiotropiques de sites de variants communs. Pour les sites de variants rares, la méthode MTAR de Luo et al. (2020) s'est montré plus efficace que les méthodes existantes. MTAR teste l'effet pléiotropique de gènes sur un ensemble de traits. Cette méthode permet de savoir si un site de variants rares, tel qu'un gène, est associé à plusieurs traits simultanément. Toutefois, MTAR ne permet pas de déterminer quel sous-ensemble de traits est associé avec ce variant. MTAR ne permet également pas de découvrir des effets spécifiques à un sexe. Nous proposons donc une nouvelle méthode statistique permettant de répondre à ces deux failles, soit 1) déterminer le sous-ensemble de traits ou maladies associées à un site de variants rares et 2) déterminer les effets spécifiques à un sexe pour un site de variants rares. Une analyse de simulation a été réalisée pour évaluer la sensibilité et la spécificité. Les résultats sont acceptables. Une étude avec des données réelles a été réalisée. Il s'agit de données cas-témoins génétiques avec des personnes atteintes de la schizophrénie, des personnes atteintes de la bipolarité et des personnes n'étant pas atteinte de l'une ou l'autre de ces maladies. Pour chacune des deux maladies, nous étudions les effets spécifiques selon le sexe des gènes composés de variants rares sur la probabilité d'avoir la maladie. Pour la schizophrénie, 113 gènes composés de SNPs rares sont significativement associés à cette maladie. Aucune association spécifique au sexe n'a été détecté. Pour la bipolarité, 171 gènes composés de SNPs rares sont associés significativement à cette maladie. Des associations spécifiques selon le sexe ont été détectées. 21 gènes sont associés à la bipolarité spécifiquement chez les individus de sexe féminin et 24 gènes, spécifiquement chez ceux de sexe masculin. / Genome-wide association studies (GWAS) have discovered associations between variants and diseases. Some variant sites have been observed to be associated with multiple diseases. This phenomenon is called pleiotropy. This phenomenon is of importance for psychiatric problems (P. H. Lee et al., 2020). Also, associations between a disease and a variant for a particular sex are a subject of importance in recent studies. Several statistical methods have been proposed to identify pleiotropic effects of common sites. For rare variant sites, the MTAR method of Luo et al. (2020) has been shown to be more efficient than existing methods. MTAR tests the pleiotropic effect of genes on multiple traits. MTAR allows us to know if a rare variant site, such as a gene, is associated with multiple trait simultaneously. However, MTAR does not allow us to determine which subset of traits is associated with this variant. MTAR also does not reveal gender specific effects. We therefore propose a new statistical method making it possible to respond to these two flaws, either 1) determining the subset of traits or diseases associated with a rare variant sites and 2) determining the sex-specific effect for rare variant sites on a disease or a trait. A simulation analysis was performed to assess sensitivity and specificity. The results are reasonable. A study with real data have been realised. These are case-control data with people with schizophrenia, people with bipolar disorder, and people without either of these conditions. For each of the two diseases, we studied the specific effects by sex of genes with rare SNPs on the probability to have the disease. For schizophrenia, 113 genes with rare SNPs are significantly associated with this disease. No gender specific association was detected. For bipolarity, 171 genes with rare SNPs are significantly associated with this disease. Specific associations by sex have been detected. 21 genes are associated with bipolarity specifically for female genders and 24 genes specifically for male genders.
|
157 |
Schéma stepped wedge : modélisation et analyse de donnéesMessaoudi, Ghizlane 27 January 2024 (has links)
Ce mémoire a pour objectif principal de présenter des méthodes pour analyser les données provenant d'un essai clinique stepped wedge. On introduit des méthodes qui traitent les données individuelles ainsi que les données agrégées. Chaque méthode est illustrée avec des données provenant d'un essai clinique qui porte sur l'implantation d'un programme de formation à la prise de décision partagée dans une équipe interprofessionnelle. L'objectif secondaire de ce mémoire est d'évaluer la performance des tests de comparaison des deux traitements étudiés dans un stepped wedge à l'aide des méthodes de Monte Carlo. À cette n, des simulations ont été réalisées sous le logiciel R. Les résultats indiquent qu'il n'y a pas une méthode qui est supérieure à l'autre. Le choix de la méthode dépend du contexte de l'étude. / This research paper aims initially to present methods to analyse data from a stepped wedged clinical trial. We introduce methods that process both individual and aggregated data. Each method is exposed using data taken from a clinical trial based on the implementation of shared decision-making training program within an interprofessional team. As its secondary objective, this research paper provides a performance assessment on the comparison tests of two treatments studied within a stepped wedge using the Monte Carlo methods. On this note, simulations were executed using the R software. The results indicate that there is no method that is universally superior to the other. The choice of method depends on the context of the study
|
158 |
Comparaison d'approches d'ajustement pour les facteurs confondants dans le cadre d'études observationnelles à l'aide de données administrativesBenasseur, Imane 27 January 2024 (has links)
Les méthodes du score de propension (PS) sont populaires pour estimer l’effet d’une exposition sur une issue à l’aide de données observationnelles. Cependant, leur mise en place pour l’analyse de données administratives soulève des questions concernant la sélection des covariables confondantes et le risque de covariables confondantes non mesurées. Notre objectif principal consiste à comparer différentes approches d’ajustement pour les covariables confondantes pou réliminer les biais dans le cadre d’études observationnelles basées sur des données administratives. Quatre méthodes de sélection de covariables seront comparées à partir de simulations, à savoir le score de propension à hautes dimensions (hdPS), le score de propension à hautes dimensions modifié (hdPS_0), le LASSO adapté pour l’issue (OAL) et l’estimation ciblée collaborative et évolutive par maximum de vraisemblance (SC-TMLE). Pour hdPS, hdPS_0et OAL, quatre approches d’ajustement sont considérées : 1) la pondération par l’inverse de probabilité de traitement (IPTW), 2) l’appariement, 3) l’appariement pondéré et 4) l’ajustement pour le score de propension. Des simulations avec 1000 observations et 100 covariables potentiellement confondantes ont été réalisées. Les résultats indiquent que la performance des méthodes d’ajustement varie d’un scénario à l’autre, mais l’IPTW, a réussi globalement à réduire le plus le biais et l’erreur quadratique moyenne parmi toutes les méthodes d’ajustement. De surcroît, aucune des méthodes de sélection de covariables ne semble vraiment arriver à corriger le biais attribuable aux covariables confondantes non mesurées. Enfin, la robustesse de l’algorithme hdPS peut être beaucoup améliorée, en éliminant l’étape 2 (hdPS_0). / Propensity score methods (PS) are common for estimating the effect of an exposure on an outcome using observational data. However, when analyzing administrative data, the applicationof PS methods raises questions regarding how to select confounders, and how to adjust forunmeasured ones. Our objective is to compare different methods for confounding adjustmentin the context of observational studies based on administrative data. Four methods for selecting confounders were compared using simulation studies: High-dimensional propensity score(hdPS), modified hdPS (hdPS_0), Outcome-adaptive Lasso (OAL) and Scalable collaborativetargeted maximum likelihood (SC-TMLE). For hdPS, hdPS_0 and OAL, four PS adjustmentapproaches were considered : 1) inverse probability of treatment weighting (IPTW), 2) matching, 3) matching weights and 4) covariate adjustment in the outcome model. Simulations basedon synthetically generated data with 1000 observations and 100 potential confounders havebeen realized. The results indicate that the performance of the adjustment methods variesfrom one scenario to another, but the IPTW, has globally succeeded in reducing the bias andthe mean square error. Moreover, no method for selecting confounders, seem to be able toadjust for unmeasured confounders. Finally, the robustness of the hdPS algorithm can begreatly improved, by eliminating step 2 (hdPS_0).
|
159 |
Domain Theory 101 : an ideal exploration of this domainRicaud, Loïc 02 February 2024 (has links)
Les problèmes logiciels sont frustrants et diminuent l’expérience utilisateur. Par exemple, la fuite de données bancaires, la publication de vidéos ou de photos compromettantes peuvent affecter gravement une vie. Comment éviter de telles situations ? Utiliser des tests est une bonne stratégie, mais certains bogues persistent. Une autre solution est d’utiliser des méthodes plus mathématiques, aussi appelées méthodes formelles. Parmi celles-ci se trouve la sémantique dénotationnelle. Elle met la sémantique extraite de vos logiciels préférés en correspondance avec des objets mathématiques. Sur ceux-ci, des propriétés peuvent être vérifiées. Par exemple, il est possible de déterminer, sous certaines conditions, si votre logiciel donnera une réponse. Pour répondre à ce besoin, il est nécessaire de s’intéresser à des théories mathématiques suffisamment riches. Parmi les candidates se trouvent le sujet de ce mémoire : la théorie des domaines. Elle offre des objets permettant de modéliser formellement les données et les instructions à l’aide de relations d’ordre. Cet écrit présente les concepts fondamentaux tout en se voulant simple à lire et didactique. Il offre aussi une base solide pour des lectures plus poussées et contient tout le matériel nécessaire à sa lecture, notamment les preuves des énoncés présentés. / Bugs in programs are definitively annoying and have a negative impact on the user experience. For example, leaks of bank data or leaks of compromising videos or photos have a serious effect on someone’s life. How can we prevent these situations from happening? We can do tests, but many bugs may persist. Another way is to use mathematics, namely formal methods. Among them, there is denotational semantics. It links the semantics of your favorite program to mathematical objects. On the latter, we can verify properties, e.g., absence of bugs. Hence, we need a rich theory in which we can express the denotational semantics of programs. Domain Theory is a good candidate and is the main subject of this master thesis. It provides mathematical objects for data and instructions based on order relations. This thesis presents fundamental concepts in a simple and pedagogical way. It is a solid basis for advanced readings as well as containing all the needed knowledge for its reading, notably proofs for all presented statements.
|
160 |
Stratégie d'échantillonnage des mesures LIBS in situ de la teneur en or dans des échantillons miniers : optimisation par analyse statistiqueNguegang Kamwa, Blandine 27 January 2024 (has links)
Au Québec, 19 mines d'or produisent plus de 1.8 milliard dollars canadiens d'or annuellement. Dans ces mines, des centaines d'échantillons de roches sont collectées quotidiennement, et envoyées au laboratoire afin de déterminer leurs concentrations en or. Étant donné que les résultats du laboratoire ne sont disponibles qu'après 24 à 48 heures, il s'en suit un impact direct négatif sur les activités minières. Les avancées technologiques des dernières années laissent croire que la spectroscopie sur plasma induite par laser (LIBS) pourrait constituer une technologie prometteuse pour mesurer en temps réel et in-situ, la teneur en or de la roche. Considérant la taille de chaque tir produit par le laser sur un échantillon de roche, à savoir 500 µm, de très nombreux tirs seront requis afin d'obtenir un résultat représentatif de l'échantillon analysé. À titre d'exemple, pour un échantillon de carotte de 50 cm de long, et une surface analysée comprise entre 70 et 80%, 10000 tirs lasers ont été effectués afin de s'assurer d'obtenir un résultat représentatif de l'échantillon, avec un temps d'acquisition d'une demi-journée en laboratoire, soit une durée trop longue pour une application pratique dans les mines. Pour cette raison, l'objectif de ce projet est de développer une stratégie afin de minimiser le nombre de tirs LIBS requis sur un échantillon à analyser, tout en demeurant représentatif de ce dernier, et ainsi obtenir une mesure fiable et précise de la teneur en or. Pour ce faire, une analyse statistique descriptive combinée à plusieurs motifs élaborés à partir des 10000 points de mesure est appliquée sur les données LIBS. En se fixant un compromis entre le nombre de tirs à réaliser sur un échantillon (roche) et le temps d'analyse, le motif défini « Boucle » minimise le mieux le nombre de tirs avec un temps d'analyse acceptable par une opération minière. À partir de ce dernier, un protocole d'échantillonnage a été élaboré, où pour être représentatif des échantillons de carottes, 1500 tirs sont nécessaires tandis que pour les échantillons de roches, seuls 100 tirs suffisent. Cependant, il serait important de pouvoir tester ce protocole d'échantillonnage sur plusieurs échantillons miniers afin de pouvoir valider ce dernier. / In Quebec, 19 gold mines produce more than C (dollar) 1.8 billion of gold annually. In these mines, hundreds of rock samples are collected daily and sent to the laboratory to determine their gold concentrations. Since laboratory results are only available after 24 to 48 hours, there is a direct negative impact on mining activities. Technological advances in recent years suggest that Laser Induced Breakdown Spectroscopy (LIBS) may be a promising technology for real-time and in-situ measurement of the gold content of rock samples. Considering the size of each shot produced by the laser on a rock sample, namely 500 µm, many shots will be required in order to obtain a representative result of the sample analyzed. For example, for a 50 cm long core sample, and a surface analyzed between 70 and 80%, 10,000 laser shots were fired to ensure to obtain a result representative of the sample, with an acquisition time of half a day in the laboratory, which is a too long period of time for a practical application in mines. For this reason, the objective of this project is to minimize the number of LIBS shots required on a sample to be analyzed, while remaining representative of the latter, and thus obtain a reliable and accurate measurement of the gold content. For this, a descriptive statistical analysis combined with several elaborate patterns is applied to the 10,000 LIBS data obtained. By setting a compromise between the number of shots to be made on a sample and the analysis time, the Loop pattern minimizes the number of shots with an acceptable analysis time. From the latter, a sampling protocol has been developed, where to be representative of core samples, 1500 shots are needed whereas for rock samples, only 100 shots are needed. However, it would be important to be
|
Page generated in 0.0457 seconds