261 |
Simulation aux grandes échelles des écoulements liquide-gaz : application à l'atomisation / Large eddy simulation for liquid-gas flow : application to atomizationHecht, Nicolas 15 March 2016 (has links)
Cette thèse est dédiée à l'amélioration des modèles d'atomisation pour les injecteurs automobiles. Le but est de développer et d'évaluer des modèles numériques permettant de capturer le passage de structures liquides en cours d'atomisation depuis les grandes échelles vers les petites échelles de sous-maille dans des configurations complexes. Dans un premier temps, nous mettons en place une procédure de calcul permettant le passage d'une description Eulérienne d'un spray à une procédure Lagrangienne. Afin de ne pas perdre les plus petites structures liquides, celles-ci seront transformées en particules Lagrangienne. Une analyse sur différentes grandeurs physiques, telles que la masse, la quantité de mouvement ou l'énergie cinétique turbulente, lors de cette transformation a été réalisée. L'autre partie de ce travail est consacrée au développement d'un modèle de simulation aux grandes échelles des écoulements diphasiques. La simulation de l'atomisation requiert un traitement spécifique de l'interface. Deux cas limites sont traités dans la littérature : • L'interface peut bien être capturée par le maillage. A ces endroits, une méthode classique de type DNS (Direct Numerical Simulation), comme les méthodes VOF (Volume of Fluid), doit être utilisée. • Lors de la création de plissements inférieurs à la taille de la maille, le maillage ne permet plus de suivre fidèlement l'interface. Il faut alors que le calcul reproduise des résultats d'une méthode LES (Large Eddy Simulation) considérant des structures et des gouttes inférieures à la taille de la maille. Ainsi, la problématique principale consiste à déterminer la configuration dans laquelle se trouve l'interface. La mise en œuvre de ce modèle a permis d'obtenir des résultats dans une configuration proche de l'injection Diesel, qui sont alors comparés à une DNS de référence. / This thesis is dedicated to improve atomization models for automobile injectors. The aim is to develop and evaluate numerical models to capture the liquid structure while they are being atomized from large scales to small sub grid scales in complex configurations. Initially, a calculation procedure is introduced for the transition to an Eulerian description of a spray into a Lagrangian description. In order not to lose the smallest fluid structures, they will be transformed into Lagrangian particles. During this process, an analysis is been performed with various physical parameters such as mass, momentum, or turbulent kinetic energy. The other part of this work is dedicated to the development of a LES (Large Eddy Simulation) for multiphase flow. The simulation of the spray requires a specific treatment of the interface. Two limiting cases are treated in the literature: • The interface may be captured by the mesh. At these locations, a conventional method of DNS (Direct Numerical Simulation) should be used, like the VOF method (Volume of Fluid). • When creating pleating smaller than the size of the mesh, the mesh can no longer match the interface. Then, the calculation must reproduce results from a LES method that take into account structures and drops smaller than the mesh size. Thus, the main problem is to define the configuration of the interface. The development of this model allows to obtain results in a configuration close to the Diesel injection's, which are then compared to a reference DNS.
|
262 |
Évaluation des performances de la chromatographie sur couche mince haute performance (HPTLC) dans l’analyse (qualitative et quantitative) des métabolites secondaires dans les extraits naturels / Evaluation of the performance of the High Performance Thin Layer Chromatography (HPTLC) in the analysis (qualitative and quantitative) of secondary metabolites in natural extractsDo, Thi Kieu Tiên 15 November 2016 (has links)
L’analyse des extraits naturels est de nos jours réalisée à l’aide de nombreuses techniques d’analyse plus ou moins complexes. Parmi ces techniques, l’HPTLC est bien connue en tant qu’outil d’identification phytochimique. Le but de cette thèse a été d’étudier l’apport de cette technique dans l’analyse des extraits naturels en dehors de son aspect « identification ». Ce travail a conduit à différentes études permettant de mettre en évidence des applications peu connues de l’HPTLC comme par exemple son utilisation comme technique semi-preparative. De plus, sa capacité à avoir une phase stationnaire résistante à différente matrices a été testée. Il a ainsi pu être démontré que cette caractéristique lui donnait l’avantage de procéder à des préparations d’échantillon plus minimaliste que les autres techniques de chromatographie. L’aspect quantitatif a été évalué et comparé à l’HPLC et a ainsi pu démontrer que des résultats équivalents sont obtenus, néanmoins, le manque de résolution et de précision ne permet pas à l’HPTLC d’attendre les exigences parfois demandées. Enfin, l’analyse d’un grand nombre d’échantillon a permis de montrer un des avantages de l’HPTLC dans le retraitement de données, que ce soit par regroupement visuel des profils obtenus ou par retraitement statistique / The analysis of natural extracts is nowadays performed with numerous techniques more or less complex. Among these techniques, the HPTLC is well known as a tool for phytochemical identification. The aim of this thesis was to study the contribution of this technique in the analysis of natural extracts outside its "identification" appearance. This work led to various studies to highlight little known applications of HPTLC such as its use as a semi-preparative technique. In addition, its ability to have a robust stationary phase to different matrices was tested. It has been demonstrated that this characteristic gave the advantage of proceeding more minimalist sample preparation than other chromatographic techniques. The quantitative aspect was evaluated and compared with HPLC and was able to demonstrate that similar results are obtained, however, the lack of resolution and accuracy do not allow the HPTLC has to wait sometimes requested requirements. Finally, the analysis of a large number of samples has allowed to show an advantage of the HPTLC in the data reprocessing, whether by visual grouping or obtained by statistical retreatment profiles
|
263 |
Approche multidisciplinaire pour la détection de métaux lourds en environnements aquatiques / Multidisciplinary approach to heavy metal ion sensing in aquatic environmentsBrackx, Gwennhaël 23 January 2017 (has links)
La gestion de l’eau douce est un problème majeur partout dans le monde. Les activités anthropiques liées à l’industrie, à l’agriculture et à l’implantation humaine sont les principales sources de pollutions de l’eau. Afin mettre en place des politique de prévention de la pollution, de réhabilitation des environnements aquatiques ou de recyclage des eaux usées, il est nécessaire d’acquérir des données massives sur la qualité de l’eau. Or, les méthodes actuelles de suivi des contaminants présentent des coûts élevés et de faibles débits de mesure du fait de leur incompatibilité avec un déploiement sur le terrain. Ces deux freins majeurs ne permettent pas de suivre les concentrations en polluant et notamment en métaux lourds dans les milieux aquatiques à des échelles spatiales et temporelles pertinentes. Plusieurs organisations internationales, dont l’ONU, ont de ce fait recommandé le développement de nouvelles méthodes analytiques plus performantes. Nous proposons ici une technique de mesure des contaminants métalliques lourds basée sur la diffusion Raman exaltée de surface (SERS). Le SERS présente de nombreux avantages pour l’analyse environnementale dont la sensibilité, la spécificité,la rapidité de mesure, l’adaptabilité aux matrices complexes ainsi que le coût modéré d’un instrument portable. Nous détaillerons donc la construction de la sonde SERS dédiée à la quantification de l’ion métallique lourd cible Zn2+, ainsi que les traitements de données nécessaire à l’établissement d’une quantification. Puis, nous examinerons la robustesse de la méthode de quantification vis-à-vis des sources de variabilités qui seront inévitablement rencontrées dans les eaux naturelles. / Freshwater management is a major problem all over the world. Anthropogenic activities related to industry, agriculture and human settlements are the main sources of water pollution. In order to makes policies for pollution prevention, rehabilitation of aquatic environments or waste water recycling, it is necessary to acquire massive data on water quality. Current contaminant monitoring methods have high costs and low frequency of measurement due to the incompatibility with field deployment. These two major brakes do not make it possible to monitor pollutant and especially heavy metal concentrations in aquatic environments at relevant spatial and temporal scales. Several international organizations, including the United Nations, have therefore recommended the development of new and better analytical methods.We propose here a technique for measuring heavy metal contaminants based on Surface Enhanced Raman Spectroscopy (SERS), which would allow a large scale deployment in the field.SERS has many advantages for environmental analysis including sensitivity, specificity, speed of measurement, adaptability to complex matrix and the moderate cost of portable instrument. We will therefore detail the construction of the SERS probe dedicated to the quantification of the target heavy metal ion Zn2+, which is a geochemical marker of anthropogenic contamination, as well as the data processing necessary for the establishment of quantification. Then, we will examine the robustness of the method of quantification with respect to the sources of variability that will inevitably be encountered in natural waters, when used directly in the field
|
264 |
Heuristiques basées sur la programmation mathématique pour le problème de conception de réseaux avec coûts fixes et capacitésHernu, Geneviève January 2001 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
265 |
Tarification et conception de réseau en télécommunicationForget, Amélie January 2001 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
266 |
Modélisation "Smoothed Particle Hydrodynamics" de la formation d'un embâcle fluvial et de son relâchementNolin, Simon 13 April 2018 (has links)
Ce mémoire décrit le modèle numérique Smoothed Particle Ice Dynamics Equations for Rivers (SPIDER) développé par Nolin, Roubtsova et Morse afin de modéliser le transport et l'accumulation de glace à la surface d'une rivière. Dans SPIDER, la méthode Smoothed Particle Hydrodynamics (SPH) est utilisée pour résoudre les équations de dynamique de la glace en deux dimensions. Le modèle SPIDER a été utilisé afin de simuler la formation d'embâcle fluvial. Les profils d'embâcle obtenus sans considérer le frottement des berges sont identiques à ceux présentés dans les études antérieures. Les profils obtenus en considérant le frottement des berges diffèrent de ceux présentés dans les études antérieures mais sont conformes à la méthode utilisée pour modéliser le frottement. Deux études paramétriques ont été réalisées afin de caractériser l'influence de l'angle de frottement interne de la glace ([phi]) et du coefficient de traînée eau-glace (cw) sur les profils d'embâcle. Ces études montrent que plus l'angle ʹ est grand, plus l'embâcle est long et moins la glace au pied de l'embâcle est épaisse. De même, plus cw est grand, plus l'embâcle est court et plus l'épaisseur de glace au pied de l'embâcle est grande. Le relâchement d'un embâcle fluvial a été simulé en couplant SPIDER au modèle hydrodynamique KIMBULA développé par Roubtsova V. et Kahawita R. à l'École Polytechnique de Montréal. Les résultats préliminaires simulés par ce modèle hybride sont similaires à ceux présentés dans les études antérieures.
|
267 |
Développement d'une méthodologie d'analyse du traitement orthopédique de la dysplasie de la hancheGrenier, Victor 27 January 2024 (has links)
La dysplasie acétabulaire est une pathologie causant de l'instabilité articulaire et une réduction de la superficie de chargement au niveau de la hanche. Celle-ci augmente le risque de développement précoce d'ostéoarthrose, causant de la douleur et menant à la perte de la fonction articulaire. La dysplasie est conventionnellement traitée par ostéotomie péri-acétabulaire, mais les effets précis de cette correction sur la biomécanique intra-articulaire restent à être élucidées. À l'aide de la méthode de simulation par éléments discrets, la distribution de pression articulaire a été évaluée de manière pré et post opératoire chez 9 patients dysplasiques. Différentes mesures orthopédiques évaluant le degré de correction acétabulaire ont été acquises et plusieurs scores numériques évaluant la surcharge articulaire ont été calculés. Des corrélations entre ces mesures et ces scores ont ensuite été effectués. Il a été noté que les mesures d'angle centre-externe latéral, d'index acétabulaire et d'index d'extrusion de la tête fémorale sont corrélés avec l'augmentation de l'aire de contact moyen durant la marche (p < 0.05, R² de 0.22 à 0.50). L'influence significative de la méthode de reconstruction cartilagineuse (distributions d'épaisseurs moyennes saine vs. dysplasique) et du profil de marche utilisé (phase d'appui moyen sain vs. dysplasique) a été remarqué auprès de la majorité des métriques évaluées. Ces résultats, ainsi que les facteurs qui les influencent, peuvent servir à assister la planification chirurgicale, effectuer des validations in-vitro d'optimisation d'ostéotomie péri-acétabulaire et, par la suite, guider la conception de nouveaux traitements. / Acetabular dysplasia causes articular instability and the reduction of the loading area in the hip. This causes the early onset of osteoarthritis which leads to pain and the eventual loss of articular function. Acetabular dysplasia is commonly treated by periacetabular osteotomy, but the precise effects of this correction on intra-articular biomechanics is not yet well known. Using discrete element analysis, pressure distribution has been calculated in the dysplastic hips of 9 patients before and after periacetabular osteotomy. A variety of radiographic measurements and numerical metrics have been evaluated in order to quantify the degree of acetabular correction and excessive loading. Correlations between these measures and metrics have been established in order to reveal any causal effects. In particular, the corrections of the lateral center-edge angle, acetabular index and femoral head extrusion index are correlated to the rise of average contact area during gait (p-value < 0.05, R² = 0.22 to 0.50). Additionally, the influence of cartilage layer reconstruction method (population-based healthy vs. dysplastic thicknesses) and loading parameters (healthy vs. dysplastic gait profiles) was significant for a majority of evaluated metrics. These results and influencing factors can help to assist with surgical planning, provide a basis for in-vitro validation of surgical optimization and act as a standard for designing new orthopedic treatments for acetabular dysplasia.
|
268 |
Extension et validation de bGPUMCD, un algorithme de calcul de dose Monte Carlo pour la curiethérapie implémenté sur processeur graphiqueJoachim-Paquet, Charles 02 February 2024 (has links)
Le présent mémoire présente les récents travaux de développement d'un algorithme de calcul de dose monte carlo en brachythérapie implémenté sur GPU (bGPUMCD, GPU Monte Carlo Dose for brachytherapy) ainsi que la validation des résultats et de la performance de celui-ci en vue d'une utilisation clinique future pour les cas de curiethérapie HDR et d'une utilisation académique permettant de remplacer l'utilisation de codes Monte Carlo plus lents dans le domaine académique. Les cas de test définis par le Groupe de travail sur les algorithmes de calcul de dose en curiethérapie (WG-DCAB, Working Group on Dose Calculation Algorithms in Brachytherapy)[1] et quatre cas de patients cliniques représentant des sites de traitement représentatifs sont utilisés pour explorer la précision, la vitesse et les limites de l'algorithme dans une multitude de contextes. bGPUMCD est comparé aux résultats de calcul de dose provenant de plusieurs codes Monte Carlo tel que MCNP6 et ALGEBRA[2]. Les résultats obtenus par bGPUMCD sont dans les limites d'incertitudes requises par les recommandations du Rapport du Groupe de Travail No.186 de l'AAPM (TG-186, Report on the Task Group No.43)[3]. Une simulation en situation de Rapport du Groupe de Travail No.43 de l'AAPM (TG-43, Report on the Task Group No.43)[4] a été effectuée pour trois modèles de source et les fonctions 𝑔𝐿(𝑟) et 𝐹 (𝑟, 𝜃) obtenues correspondent avec une erreur de 2 % aux valeurs de référence à l'exception des grands angles. Nous démontrons aussi que bGPUMCD est capable de simuler une dose cliniquement équivalente à un code Monte Carlo de référence en une fraction du temps ; en fonction des différents paramètres pouvant modifier le temps de calcul, bGPUMCD permet d'obtenir un résultat équivalent à la dose de référence avec un temps de calcul se trouvant entre quelques secondes à quelques minutes par rapport à plusieurs heures pour ALGEBRA.
|
269 |
Comparaison d'approches d'ajustement pour les facteurs confondants dans le cadre d'études observationnelles à l'aide de données administrativesBenasseur, Imane 27 January 2024 (has links)
Les méthodes du score de propension (PS) sont populaires pour estimer l’effet d’une exposition sur une issue à l’aide de données observationnelles. Cependant, leur mise en place pour l’analyse de données administratives soulève des questions concernant la sélection des covariables confondantes et le risque de covariables confondantes non mesurées. Notre objectif principal consiste à comparer différentes approches d’ajustement pour les covariables confondantes pou réliminer les biais dans le cadre d’études observationnelles basées sur des données administratives. Quatre méthodes de sélection de covariables seront comparées à partir de simulations, à savoir le score de propension à hautes dimensions (hdPS), le score de propension à hautes dimensions modifié (hdPS_0), le LASSO adapté pour l’issue (OAL) et l’estimation ciblée collaborative et évolutive par maximum de vraisemblance (SC-TMLE). Pour hdPS, hdPS_0et OAL, quatre approches d’ajustement sont considérées : 1) la pondération par l’inverse de probabilité de traitement (IPTW), 2) l’appariement, 3) l’appariement pondéré et 4) l’ajustement pour le score de propension. Des simulations avec 1000 observations et 100 covariables potentiellement confondantes ont été réalisées. Les résultats indiquent que la performance des méthodes d’ajustement varie d’un scénario à l’autre, mais l’IPTW, a réussi globalement à réduire le plus le biais et l’erreur quadratique moyenne parmi toutes les méthodes d’ajustement. De surcroît, aucune des méthodes de sélection de covariables ne semble vraiment arriver à corriger le biais attribuable aux covariables confondantes non mesurées. Enfin, la robustesse de l’algorithme hdPS peut être beaucoup améliorée, en éliminant l’étape 2 (hdPS_0). / Propensity score methods (PS) are common for estimating the effect of an exposure on an outcome using observational data. However, when analyzing administrative data, the applicationof PS methods raises questions regarding how to select confounders, and how to adjust forunmeasured ones. Our objective is to compare different methods for confounding adjustmentin the context of observational studies based on administrative data. Four methods for selecting confounders were compared using simulation studies: High-dimensional propensity score(hdPS), modified hdPS (hdPS_0), Outcome-adaptive Lasso (OAL) and Scalable collaborativetargeted maximum likelihood (SC-TMLE). For hdPS, hdPS_0 and OAL, four PS adjustmentapproaches were considered : 1) inverse probability of treatment weighting (IPTW), 2) matching, 3) matching weights and 4) covariate adjustment in the outcome model. Simulations basedon synthetically generated data with 1000 observations and 100 potential confounders havebeen realized. The results indicate that the performance of the adjustment methods variesfrom one scenario to another, but the IPTW, has globally succeeded in reducing the bias andthe mean square error. Moreover, no method for selecting confounders, seem to be able toadjust for unmeasured confounders. Finally, the robustness of the hdPS algorithm can begreatly improved, by eliminating step 2 (hdPS_0).
|
270 |
Schéma stepped wedge : modélisation et analyse de donnéesMessaoudi, Ghizlane 27 January 2024 (has links)
Ce mémoire a pour objectif principal de présenter des méthodes pour analyser les données provenant d'un essai clinique stepped wedge. On introduit des méthodes qui traitent les données individuelles ainsi que les données agrégées. Chaque méthode est illustrée avec des données provenant d'un essai clinique qui porte sur l'implantation d'un programme de formation à la prise de décision partagée dans une équipe interprofessionnelle. L'objectif secondaire de ce mémoire est d'évaluer la performance des tests de comparaison des deux traitements étudiés dans un stepped wedge à l'aide des méthodes de Monte Carlo. À cette n, des simulations ont été réalisées sous le logiciel R. Les résultats indiquent qu'il n'y a pas une méthode qui est supérieure à l'autre. Le choix de la méthode dépend du contexte de l'étude. / This research paper aims initially to present methods to analyse data from a stepped wedged clinical trial. We introduce methods that process both individual and aggregated data. Each method is exposed using data taken from a clinical trial based on the implementation of shared decision-making training program within an interprofessional team. As its secondary objective, this research paper provides a performance assessment on the comparison tests of two treatments studied within a stepped wedge using the Monte Carlo methods. On this note, simulations were executed using the R software. The results indicate that there is no method that is universally superior to the other. The choice of method depends on the context of the study
|
Page generated in 0.0479 seconds